59. Material en revisión: (miércoles 16 de octubre)

Por Mariana Perez

(*) Sobre las derivadas de $g (t) = f (x_0 + th, y_0 + tk)$

Proposición:

$$ g^{(n)} (t) = \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} \dfrac{\partial^n f}{\partial x^i \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h^i \; k^{n-i}$$

Demostración (por inducción)

Base inductiva:

Para $n = 1, 2 $ lo trabajamos en la entrada anterior. https://blog.nekomath.com/?p=101046&preview=true

Paso inductivo:

Supongamos la proposición válida para $n.$

$\Big[$ por demostrar: que es válida para $ n + 1 \Big]$

Entonces

$\begin{align*} g^{(n+1)} (t) &= \dfrac{d}{dt} \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} \dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h^{i} \; k^{n-i} \\ &= \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n-i} \dfrac{d}{dt} \dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) \end{align*}$

Podemos ver a la $\dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x, y) = G (x, y)$

Entonces, derivando $G (x_0 + th, y_0 + tk) = G ( \alpha ( t)) $ respecto a $ t $ se tiene que

$\dfrac{d}{dt} \dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) = \dfrac{\partial^{n+1} f}{\partial x^{i+1} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h \, + \, \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n-i+1}} (x_0 + th, y_0 + tk) k$

Entonces

$\begin{align*} g^{(n+1)} (t) &= \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n-i} \Bigg( \dfrac{\partial^{n+1} f}{\partial x^{i+1} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h \, + \, \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n-i+1}} (x_0 + th, y_0 + tk) k \Bigg) \end{align*}$…(1)

$\Big[$ por demostrar: $g^{(n + 1)} (t) = \sum\limits_{i=0}^{n+1} \begin{pmatrix} n+1 \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} (x_0 + th, y_0 + tk) \Big]$

De $(1)$ tenemos que

$g^{(n+1)} (t) = \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n-i} \dfrac{\partial^{n+1} f}{\partial x^{i+1} \; \partial y^{n-i}} \, + \, \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $

haciendo $ j = i + 1$

$g^{(n+1)} (t) = \sum\limits_{j=1}^{n+1} \begin{pmatrix} n \\ j-1 \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{j} \; \partial y^{n+1-j}} \, + \, \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $

con $ i = 0$, $ j = n + 1$

$ g^{(n+1)} (t) = \begin{pmatrix} n \\ 0 \end{pmatrix} h^{0} \; k^{n+1} \dfrac{\partial^{n+1} f}{ \partial y^{n+1}} \, + \, \begin{pmatrix} n \\ n \end{pmatrix} h^{n+1} \; k^{0} \dfrac{\partial^{n+1} f}{\partial x^{n+1} } \, + \, \sum\limits_{i=1}^{n} \Bigg[ \begin{pmatrix} n \\ i-1 \end{pmatrix} , + \, \begin{pmatrix} n \\ i \end{pmatrix} \Bigg] h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $

entonces

$ g^{(n+1)} (t) = \begin{pmatrix} n \\ 0 \end{pmatrix} h^{0} \; k^{n+1} \dfrac{\partial^{n+1} f}{ \partial y^{n+1}} \, + \, \begin{pmatrix} n \\ n \end{pmatrix} h^{n+1} \; k^{0} \dfrac{\partial^{n+1} f}{\partial x^{n+1} } \, + \, \sum\limits_{i=1}^{n} \begin{pmatrix} n + 1 \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $

${}$

(*) Aplicamos el teorema de Taylor a la función $ g (t) = f (x_0 + th, y_0 + tk) $ en $[ 0, 1]$

Teorema de Taylor en una variable

$f (x) = f (a) + f’ (a) (x\, – \, a) + \dfrac{ {f’}’ (a)}{2} (x\, – \, a)^2 \, + \, R_2 (x)$

Fórmulas para $R_2 (x)$

(1) Lagrange: $R_2 (x) = \dfrac{ f^{(3)} (t) }{3!} (x\, – \, a)^3$ para algún $ t \in ( a, x)$.

(2) Integral: $R_2 (x) = \int\limits_{a}^{x} \dfrac{ f^{(3)} (t) }{2!} (x\, – \, a)^2 dt$

Si $[a, x] = [0, 1]$ entonces $ x \, – \, a = 1$, por lo que

$ g (1) = g (0) \, + \, g’ (0) \, + \, \dfrac{ {g’}’ (0) }{2!} \, + \, R_2 (1)$

Si $(x_0, y_0)$ es un punto crítico, entonces

$f (x_0 + h, y_0 + k) = f (x_0 , y_0) \, + \, \cancel{\dfrac{\partial f}{\partial x} (x_0, y_0) h } \, + \, \cancel{ \dfrac{\partial f}{\partial y} (x_0, y_0) k} \, + \, \dfrac{1}{2} \Bigg[ \textcolor{Magenta}{\dfrac{\partial^2 f}{\partial x^2} (x_0, y_0) h^2 \, + \, 2 \dfrac{\partial^2 f}{\partial x \; \partial y} (x_0, y_0) h\, k \, + \, \dfrac{\partial^2 f}{\partial y^2} (x_0, y_0) k^2} \Bigg] \, + \, R_2 (1) $

La expresión resaltada de color se conoce como $\textcolor{Magenta}{Forma \; \; cuadr\acute{a}tica}.$

Calculamos el error con cualquiera de las dos fórmulas vistas, de modo que:

(1) $\dfrac{g^{(3)} (t)}{3!} = \frac{1}{3!} \Bigg( \dfrac{ \partial f^{(3)}}{\partial x^3} h^3 \, + \, 3 \dfrac{\partial^3 f}{\partial x^2 \; \partial y} h^2 \; k \, + \, 3 \dfrac{\partial^3 f}{\partial x \; \partial y^2} h \; k^2 \, + \, \dfrac{ \partial f^{(3)}}{\partial y^3} k^3 \Bigg)$ en $ t \in (0, 1) $

(2) $\int\limits_{0}^{1} \dfrac{g^{(3)} (t)}{2} (1 \, – \, t)^2 dt$

${}$

(*) Un acercamiento a las formas cuadráticas.

Sea $H : \mathbb{R}^2 \rightarrow \mathbb{R}$, donde

$H (x, y) = \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} a & b \\ b & c \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$

$H (x, y) = a x^2 + 2bxy + c y^2$

Definición: $H $ es definida positiva ( o positivamente) si

$\begin{cases} H (x, y) > 0 \; \; \; \forall \; (x, y) \neq (0, 0) \\ {} \\ H (x, y) = 0 \; \; \; si \; (x, y) = (0, 0) \end{cases}$

Análogamente,

$H $ es definida negativa ( o negativamente) si

$ H (x, y) < 0 \; \; \; \forall \; (x, y) \neq (0, 0)$

Además

$H$ es semi definida positiva, si $H (x, y) \geq 0 \forall \; (x, y)$

$H$ es semi definida negativa, si $H (x, y) \leq 0 \forall \; (x, y)$

Las formas cuadráticas más fáciles de estudiar son las que tienen asociada una matriz diagonal $$\begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix}$$

Entonces

$$\begin{equation*} H (x, y) = \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$

$$\begin{equation*} H (x, y) = \lambda_1 x^2 + \lambda_2 y^2 \end{equation*}$$

$H$ es definida positiva si $\begin{cases} \lambda_1 > 0 \\ \lambda_2 > 0 \end{cases}$

$H$ es definida negativa si $\begin{cases} \lambda_1 < 0 \\ \lambda_2 < 0 \end{cases}$

$H$ es semi definida positiva si $\begin{cases} \lambda_1 \geq 0 \\ \lambda_2 \geq 0 \end{cases}$

$H$ es semi definida negativa si $\begin{cases} \lambda_1 \leq 0 \\ \lambda_2 \leq 0 \end{cases}$

$H$ tiene un punto silla en el origen si $ \lambda_1 < 0 < \lambda_2$

${}$

Veamos un ejemplo:

$H (x, y) = 2xy$

Consideremos composiciones $H \, \circ \, T$ , con $T : \mathbb{R}^2 \rightarrow \mathbb{R}^2$ lineal invertible.

$$ \begin{pmatrix} x’ \\ y’ \end{pmatrix} \rightarrow \begin{pmatrix} x \\ y \end{pmatrix}$$

$T (x’ , y’ ) = ( x , y )$

$\begin{pmatrix} a & b \\ b & c \end{pmatrix} \begin{pmatrix} x’ \\ y’ \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix}$

$\begin{cases} x = ax’ + b y’ \\ y = c x’ + d y’ \end{cases}$

$H \big( T ( x’ , y’ ) \big) = H ( x , y )$

$\begin{align*}H \big( T ( x’ , y’ ) \big) &= 2 (ax’ + b y’ ) ( c x’ + d y’) \\ &= 2 ac ( x’ )^2 + 2 ( ad + bc ) x’ y’ + 2 bd ( y’ )^2 \end{align*}$

Buscamos elegir $T$ tal que $ ad + bc = 0$

$ H \, \circ \, T$ tiene asociada la matriz

$\begin{pmatrix} 2 ac & ad + bc \\ ad + bc & 2 bd \end{pmatrix}$…(1)

Ahora bien, si $\vec{v} = \begin{pmatrix} x \\ y \end{pmatrix}$ y $\vec{w} = \begin{pmatrix} x’ \\ y’ \end{pmatrix}$

$A \vec{w} = \vec{v}$

$H ( \vec{v} ) = \vec{v}^t M \vec{v}$, donde $M = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}$

Entonces

$\begin{align*} H ( \vec{v} ) &= \vec{v}^t M A \vec{w} \\ &= \big( A \vec{w} \big)^t M A \vec{w} \\ &= \vec{w}^t A^t M A \vec{w} \\ &= A^t M A \end{align*}$

Comprobamos que (1) $= A^t M A$

$\begin{align*} A^t M A &= \begin{pmatrix} a & c \\ b & d \end{pmatrix} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} a & b \\ c & d \end{pmatrix} \\ \\ &= \begin{pmatrix} a & c \\ b & d \end{pmatrix} \begin{pmatrix} c & d \\ a & b \end{pmatrix} \\ \\ A^t M A &= \begin{pmatrix} 2 ac & ad + bc \\ ad + bc & 2 bd \end{pmatrix}\end{align*}$

Buscamos $T$ tal que $ A^t M A $ sea diagonal.

Si $A = \begin{pmatrix} \cos \theta & – \, \sin \theta \\ \\ \sin \theta & \cos \theta \end{pmatrix}$ matriz de rotación de ejes.

$ A^t = \begin{pmatrix} \cos \theta &\sin \theta \\ \\ – \, \sin \theta & \cos \theta \end{pmatrix} = \begin{pmatrix} \cos ( – \, \theta) & \, – \, \sin ( – \, \theta) \\ \\ \sin ( – \, \theta) & \cos ( – \, \theta) \end{pmatrix} = A^{-1}$

Luego $ A^t M A = A^{-1} M A$ … (2)

Sabemos entonces que $A$ es inyectiva, invertible y su determinante $det(A) = 1 \neq 0$

Si $\vec{v_1} = \begin{pmatrix} \cos \theta \\ \\ \sin \theta \end{pmatrix} $

$\vec{v_2} = \begin{pmatrix} – \, \sin \theta \\ \\ \cos \theta \end{pmatrix} $

Entonces $A \vec{e_1} = \vec{v_1} $ y también $A \vec{e_2} = \vec{v_2} $, si además $\vec{v_1}$, $\vec{v_2}$ son eigenvectores ( o vectores propios) de $M$, entonces

$M \vec{v_1} = \lambda_1 \vec{v_1}$

$M \vec{v_2} = \lambda_2 \vec{v_2}$

$ A^{-1} M A \vec{e_1} = A^{-1} M \vec{v_1} = A^{-1} \lambda_1 \vec{v_1} = \lambda_1 A^{-1} \vec{v_1} = \lambda_1 \vec{e_1} $

Análogamente

$ A^{-1} M A \vec{e_2} = A^{-1} M \vec{v_2} = A^{-1} \lambda_2 \vec{v_2} = \lambda_2 A^{-1} \vec{v_2} = \lambda_2 \vec{e_2} $

Luego (2) es igual a $\begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix}$

En nuestro ejemplo:

$\vec{v_1} = \begin{pmatrix} \dfrac{1}{\sqrt{2}} \\ \\ \dfrac{1}{\sqrt{2}} \end{pmatrix}$

$\vec{v_2} = \begin{pmatrix} \dfrac{-1}{\sqrt{2}} \\ \\ \dfrac{1}{\sqrt{2}} \end{pmatrix}$

Además $ \lambda_1 = 1 $ y $\lambda_2 = \, – \, 1$

Luego $( x’ )^2 \, – \, ( y’ )^2 = 2xy = H ( x , y ) $

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.