(*) Sobre las derivadas de $g (t) = f (x_0 + th, y_0 + tk)$
Proposición:
$$ g^{(n)} (t) = \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} \dfrac{\partial^n f}{\partial x^i \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h^i \; k^{n-i}$$
Demostración (por inducción)
Base inductiva:
Para $n = 1, 2 $ lo trabajamos en la entrada anterior. https://blog.nekomath.com/?p=101046&preview=true
Paso inductivo:
Supongamos la proposición válida para $n.$
$\Big[$ por demostrar: que es válida para $ n + 1 \Big]$
Entonces
$\begin{align*} g^{(n+1)} (t) &= \dfrac{d}{dt} \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} \dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h^{i} \; k^{n-i} \\ &= \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n-i} \dfrac{d}{dt} \dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) \end{align*}$
Podemos ver a la $\dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x, y) = G (x, y)$
Entonces, derivando $G (x_0 + th, y_0 + tk) = G ( \alpha ( t)) $ respecto a $ t $ se tiene que
$\dfrac{d}{dt} \dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) = \dfrac{\partial^{n+1} f}{\partial x^{i+1} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h \, + \, \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n-i+1}} (x_0 + th, y_0 + tk) k$
Entonces
$\begin{align*} g^{(n+1)} (t) &= \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n-i} \Bigg( \dfrac{\partial^{n+1} f}{\partial x^{i+1} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h \, + \, \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n-i+1}} (x_0 + th, y_0 + tk) k \Bigg) \end{align*}$…(1)
$\Big[$ por demostrar: $g^{(n + 1)} (t) = \sum\limits_{i=0}^{n+1} \begin{pmatrix} n+1 \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} (x_0 + th, y_0 + tk) \Big]$
De $(1)$ tenemos que
$g^{(n+1)} (t) = \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n-i} \dfrac{\partial^{n+1} f}{\partial x^{i+1} \; \partial y^{n-i}} \, + \, \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $
haciendo $ j = i + 1$
$g^{(n+1)} (t) = \sum\limits_{j=1}^{n+1} \begin{pmatrix} n \\ j-1 \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{j} \; \partial y^{n+1-j}} \, + \, \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $
con $ i = 0$, $ j = n + 1$
$ g^{(n+1)} (t) = \begin{pmatrix} n \\ 0 \end{pmatrix} h^{0} \; k^{n+1} \dfrac{\partial^{n+1} f}{ \partial y^{n+1}} \, + \, \begin{pmatrix} n \\ n \end{pmatrix} h^{n+1} \; k^{0} \dfrac{\partial^{n+1} f}{\partial x^{n+1} } \, + \, \sum\limits_{i=1}^{n} \Bigg[ \begin{pmatrix} n \\ i-1 \end{pmatrix} , + \, \begin{pmatrix} n \\ i \end{pmatrix} \Bigg] h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $
entonces
$ g^{(n+1)} (t) = \begin{pmatrix} n \\ 0 \end{pmatrix} h^{0} \; k^{n+1} \dfrac{\partial^{n+1} f}{ \partial y^{n+1}} \, + \, \begin{pmatrix} n \\ n \end{pmatrix} h^{n+1} \; k^{0} \dfrac{\partial^{n+1} f}{\partial x^{n+1} } \, + \, \sum\limits_{i=1}^{n} \begin{pmatrix} n + 1 \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $
${}$
(*) Aplicamos el teorema de Taylor a la función $ g (t) = f (x_0 + th, y_0 + tk) $ en $[ 0, 1]$
Teorema de Taylor en una variable
$f (x) = f (a) + f’ (a) (x\, – \, a) + \dfrac{ {f’}’ (a)}{2} (x\, – \, a)^2 \, + \, R_2 (x)$
Fórmulas para $R_2 (x)$
(1) Lagrange: $R_2 (x) = \dfrac{ f^{(3)} (t) }{3!} (x\, – \, a)^3$ para algún $ t \in ( a, x)$.
(2) Integral: $R_2 (x) = \int\limits_{a}^{x} \dfrac{ f^{(3)} (t) }{2!} (x\, – \, a)^2 dt$
Si $[a, x] = [0, 1]$ entonces $ x \, – \, a = 1$, por lo que
$ g (1) = g (0) \, + \, g’ (0) \, + \, \dfrac{ {g’}’ (0) }{2!} \, + \, R_2 (1)$
Si $(x_0, y_0)$ es un punto crítico, entonces
$f (x_0 + h, y_0 + k) = f (x_0 , y_0) \, + \, \cancel{\dfrac{\partial f}{\partial x} (x_0, y_0) h } \, + \, \cancel{ \dfrac{\partial f}{\partial y} (x_0, y_0) k} \, + \, \dfrac{1}{2} \Bigg[ \textcolor{Magenta}{\dfrac{\partial^2 f}{\partial x^2} (x_0, y_0) h^2 \, + \, 2 \dfrac{\partial^2 f}{\partial x \; \partial y} (x_0, y_0) h\, k \, + \, \dfrac{\partial^2 f}{\partial y^2} (x_0, y_0) k^2} \Bigg] \, + \, R_2 (1) $
La expresión resaltada de color se conoce como $\textcolor{Magenta}{Forma \; \; cuadr\acute{a}tica}.$
Calculamos el error con cualquiera de las dos fórmulas vistas, de modo que:
(1) $\dfrac{g^{(3)} (t)}{3!} = \frac{1}{3!} \Bigg( \dfrac{ \partial f^{(3)}}{\partial x^3} h^3 \, + \, 3 \dfrac{\partial^3 f}{\partial x^2 \; \partial y} h^2 \; k \, + \, 3 \dfrac{\partial^3 f}{\partial x \; \partial y^2} h \; k^2 \, + \, \dfrac{ \partial f^{(3)}}{\partial y^3} k^3 \Bigg)$ en $ t \in (0, 1) $
(2) $\int\limits_{0}^{1} \dfrac{g^{(3)} (t)}{2} (1 \, – \, t)^2 dt$
${}$
(*) Un acercamiento a las formas cuadráticas.
Sea $H : \mathbb{R}^2 \rightarrow \mathbb{R}$, donde
$H (x, y) = \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} a & b \\ b & c \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$
$H (x, y) = a x^2 + 2bxy + c y^2$
Definición: $H $ es definida positiva ( o positivamente) si
$\begin{cases} H (x, y) > 0 \; \; \; \forall \; (x, y) \neq (0, 0) \\ {} \\ H (x, y) = 0 \; \; \; si \; (x, y) = (0, 0) \end{cases}$
Análogamente,
$H $ es definida negativa ( o negativamente) si
$ H (x, y) < 0 \; \; \; \forall \; (x, y) \neq (0, 0)$
Además
$H$ es semi definida positiva, si $H (x, y) \geq 0 \forall \; (x, y)$
$H$ es semi definida negativa, si $H (x, y) \leq 0 \forall \; (x, y)$
Las formas cuadráticas más fáciles de estudiar son las que tienen asociada una matriz diagonal $$\begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix}$$
Entonces
$$\begin{equation*} H (x, y) = \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$
$$\begin{equation*} H (x, y) = \lambda_1 x^2 + \lambda_2 y^2 \end{equation*}$$
$H$ es definida positiva si $\begin{cases} \lambda_1 > 0 \\ \lambda_2 > 0 \end{cases}$
$H$ es definida negativa si $\begin{cases} \lambda_1 < 0 \\ \lambda_2 < 0 \end{cases}$
$H$ es semi definida positiva si $\begin{cases} \lambda_1 \geq 0 \\ \lambda_2 \geq 0 \end{cases}$
$H$ es semi definida negativa si $\begin{cases} \lambda_1 \leq 0 \\ \lambda_2 \leq 0 \end{cases}$
$H$ tiene un punto silla en el origen si $ \lambda_1 < 0 < \lambda_2$
${}$
Veamos un ejemplo:
$H (x, y) = 2xy$
Consideremos composiciones $H \, \circ \, T$ , con $T : \mathbb{R}^2 \rightarrow \mathbb{R}^2$ lineal invertible.
$$ \begin{pmatrix} x’ \\ y’ \end{pmatrix} \rightarrow \begin{pmatrix} x \\ y \end{pmatrix}$$
$T (x’ , y’ ) = ( x , y )$
$\begin{pmatrix} a & b \\ b & c \end{pmatrix} \begin{pmatrix} x’ \\ y’ \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix}$
$\begin{cases} x = ax’ + b y’ \\ y = c x’ + d y’ \end{cases}$
$H \big( T ( x’ , y’ ) \big) = H ( x , y )$
$\begin{align*}H \big( T ( x’ , y’ ) \big) &= 2 (ax’ + b y’ ) ( c x’ + d y’) \\ &= 2 ac ( x’ )^2 + 2 ( ad + bc ) x’ y’ + 2 bd ( y’ )^2 \end{align*}$
Buscamos elegir $T$ tal que $ ad + bc = 0$
$ H \, \circ \, T$ tiene asociada la matriz
$\begin{pmatrix} 2 ac & ad + bc \\ ad + bc & 2 bd \end{pmatrix}$…(1)
Ahora bien, si $\vec{v} = \begin{pmatrix} x \\ y \end{pmatrix}$ y $\vec{w} = \begin{pmatrix} x’ \\ y’ \end{pmatrix}$
$A \vec{w} = \vec{v}$
$H ( \vec{v} ) = \vec{v}^t M \vec{v}$, donde $M = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}$
Entonces
$\begin{align*} H ( \vec{v} ) &= \vec{v}^t M A \vec{w} \\ &= \big( A \vec{w} \big)^t M A \vec{w} \\ &= \vec{w}^t A^t M A \vec{w} \\ &= A^t M A \end{align*}$
Comprobamos que (1) $= A^t M A$
$\begin{align*} A^t M A &= \begin{pmatrix} a & c \\ b & d \end{pmatrix} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} a & b \\ c & d \end{pmatrix} \\ \\ &= \begin{pmatrix} a & c \\ b & d \end{pmatrix} \begin{pmatrix} c & d \\ a & b \end{pmatrix} \\ \\ A^t M A &= \begin{pmatrix} 2 ac & ad + bc \\ ad + bc & 2 bd \end{pmatrix}\end{align*}$
Buscamos $T$ tal que $ A^t M A $ sea diagonal.
Si $A = \begin{pmatrix} \cos \theta & – \, \sin \theta \\ \\ \sin \theta & \cos \theta \end{pmatrix}$ matriz de rotación de ejes.
$ A^t = \begin{pmatrix} \cos \theta &\sin \theta \\ \\ – \, \sin \theta & \cos \theta \end{pmatrix} = \begin{pmatrix} \cos ( – \, \theta) & \, – \, \sin ( – \, \theta) \\ \\ \sin ( – \, \theta) & \cos ( – \, \theta) \end{pmatrix} = A^{-1}$
Luego $ A^t M A = A^{-1} M A$ … (2)
Sabemos entonces que $A$ es inyectiva, invertible y su determinante $det(A) = 1 \neq 0$
Si $\vec{v_1} = \begin{pmatrix} \cos \theta \\ \\ \sin \theta \end{pmatrix} $
$\vec{v_2} = \begin{pmatrix} – \, \sin \theta \\ \\ \cos \theta \end{pmatrix} $
Entonces $A \vec{e_1} = \vec{v_1} $ y también $A \vec{e_2} = \vec{v_2} $, si además $\vec{v_1}$, $\vec{v_2}$ son eigenvectores ( o vectores propios) de $M$, entonces
$M \vec{v_1} = \lambda_1 \vec{v_1}$
$M \vec{v_2} = \lambda_2 \vec{v_2}$
$ A^{-1} M A \vec{e_1} = A^{-1} M \vec{v_1} = A^{-1} \lambda_1 \vec{v_1} = \lambda_1 A^{-1} \vec{v_1} = \lambda_1 \vec{e_1} $
Análogamente
$ A^{-1} M A \vec{e_2} = A^{-1} M \vec{v_2} = A^{-1} \lambda_2 \vec{v_2} = \lambda_2 A^{-1} \vec{v_2} = \lambda_2 \vec{e_2} $
Luego (2) es igual a $\begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix}$
En nuestro ejemplo:
$\vec{v_1} = \begin{pmatrix} \dfrac{1}{\sqrt{2}} \\ \\ \dfrac{1}{\sqrt{2}} \end{pmatrix}$
$\vec{v_2} = \begin{pmatrix} \dfrac{-1}{\sqrt{2}} \\ \\ \dfrac{1}{\sqrt{2}} \end{pmatrix}$
Además $ \lambda_1 = 1 $ y $\lambda_2 = \, – \, 1$
Luego $( x’ )^2 \, – \, ( y’ )^2 = 2xy = H ( x , y ) $