Archivo de la categoría: Sin clasificar

59. Material en revisión: (miércoles 16 de octubre)

Por Mariana Perez

(*) Sobre las derivadas de $g (t) = f (x_0 + th, y_0 + tk)$

Proposición:

$$ g^{(n)} (t) = \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} \dfrac{\partial^n f}{\partial x^i \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h^i \; k^{n-i}$$

Demostración (por inducción)

Base inductiva:

Para $n = 1, 2 $ lo trabajamos en la entrada anterior. https://blog.nekomath.com/?p=101046&preview=true

Paso inductivo:

Supongamos la proposición válida para $n.$

$\Big[$ por demostrar: que es válida para $ n + 1 \Big]$

Entonces

$\begin{align*} g^{(n+1)} (t) &= \dfrac{d}{dt} \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} \dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h^{i} \; k^{n-i} \\ &= \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n-i} \dfrac{d}{dt} \dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) \end{align*}$

Podemos ver a la $\dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x, y) = G (x, y)$

Entonces, derivando $G (x_0 + th, y_0 + tk) = G ( \alpha ( t)) $ respecto a $ t $ se tiene que

$\dfrac{d}{dt} \dfrac{\partial^n f}{\partial x^{i} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) = \dfrac{\partial^{n+1} f}{\partial x^{i+1} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h \, + \, \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n-i+1}} (x_0 + th, y_0 + tk) k$

Entonces

$\begin{align*} g^{(n+1)} (t) &= \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n-i} \Bigg( \dfrac{\partial^{n+1} f}{\partial x^{i+1} \; \partial y^{n-i}} (x_0 + th, y_0 + tk) h \, + \, \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n-i+1}} (x_0 + th, y_0 + tk) k \Bigg) \end{align*}$…(1)

$\Big[$ por demostrar: $g^{(n + 1)} (t) = \sum\limits_{i=0}^{n+1} \begin{pmatrix} n+1 \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} (x_0 + th, y_0 + tk) \Big]$

De $(1)$ tenemos que

$g^{(n+1)} (t) = \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n-i} \dfrac{\partial^{n+1} f}{\partial x^{i+1} \; \partial y^{n-i}} \, + \, \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $

haciendo $ j = i + 1$

$g^{(n+1)} (t) = \sum\limits_{j=1}^{n+1} \begin{pmatrix} n \\ j-1 \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{j} \; \partial y^{n+1-j}} \, + \, \sum\limits_{i=0}^{n} \begin{pmatrix} n \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $

con $ i = 0$, $ j = n + 1$

$ g^{(n+1)} (t) = \begin{pmatrix} n \\ 0 \end{pmatrix} h^{0} \; k^{n+1} \dfrac{\partial^{n+1} f}{ \partial y^{n+1}} \, + \, \begin{pmatrix} n \\ n \end{pmatrix} h^{n+1} \; k^{0} \dfrac{\partial^{n+1} f}{\partial x^{n+1} } \, + \, \sum\limits_{i=1}^{n} \Bigg[ \begin{pmatrix} n \\ i-1 \end{pmatrix} , + \, \begin{pmatrix} n \\ i \end{pmatrix} \Bigg] h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $

entonces

$ g^{(n+1)} (t) = \begin{pmatrix} n \\ 0 \end{pmatrix} h^{0} \; k^{n+1} \dfrac{\partial^{n+1} f}{ \partial y^{n+1}} \, + \, \begin{pmatrix} n \\ n \end{pmatrix} h^{n+1} \; k^{0} \dfrac{\partial^{n+1} f}{\partial x^{n+1} } \, + \, \sum\limits_{i=1}^{n} \begin{pmatrix} n + 1 \\ i \end{pmatrix} h^{i} \; k^{n+1-i} \dfrac{\partial^{n+1} f}{\partial x^{i} \; \partial y^{n+1-i}} $

${}$

(*) Aplicamos el teorema de Taylor a la función $ g (t) = f (x_0 + th, y_0 + tk) $ en $[ 0, 1]$

Teorema de Taylor en una variable

$f (x) = f (a) + f’ (a) (x\, – \, a) + \dfrac{ {f’}’ (a)}{2} (x\, – \, a)^2 \, + \, R_2 (x)$

Fórmulas para $R_2 (x)$

(1) Lagrange: $R_2 (x) = \dfrac{ f^{(3)} (t) }{3!} (x\, – \, a)^3$ para algún $ t \in ( a, x)$.

(2) Integral: $R_2 (x) = \int\limits_{a}^{x} \dfrac{ f^{(3)} (t) }{2!} (x\, – \, a)^2 dt$

Si $[a, x] = [0, 1]$ entonces $ x \, – \, a = 1$, por lo que

$ g (1) = g (0) \, + \, g’ (0) \, + \, \dfrac{ {g’}’ (0) }{2!} \, + \, R_2 (1)$

Si $(x_0, y_0)$ es un punto crítico, entonces

$f (x_0 + h, y_0 + k) = f (x_0 , y_0) \, + \, \cancel{\dfrac{\partial f}{\partial x} (x_0, y_0) h } \, + \, \cancel{ \dfrac{\partial f}{\partial y} (x_0, y_0) k} \, + \, \dfrac{1}{2} \Bigg[ \textcolor{Magenta}{\dfrac{\partial^2 f}{\partial x^2} (x_0, y_0) h^2 \, + \, 2 \dfrac{\partial^2 f}{\partial x \; \partial y} (x_0, y_0) h\, k \, + \, \dfrac{\partial^2 f}{\partial y^2} (x_0, y_0) k^2} \Bigg] \, + \, R_2 (1) $

La expresión resaltada de color se conoce como $\textcolor{Magenta}{Forma \; \; cuadr\acute{a}tica}.$

Calculamos el error con cualquiera de las dos fórmulas vistas, de modo que:

(1) $\dfrac{g^{(3)} (t)}{3!} = \frac{1}{3!} \Bigg( \dfrac{ \partial f^{(3)}}{\partial x^3} h^3 \, + \, 3 \dfrac{\partial^3 f}{\partial x^2 \; \partial y} h^2 \; k \, + \, 3 \dfrac{\partial^3 f}{\partial x \; \partial y^2} h \; k^2 \, + \, \dfrac{ \partial f^{(3)}}{\partial y^3} k^3 \Bigg)$ en $ t \in (0, 1) $

(2) $\int\limits_{0}^{1} \dfrac{g^{(3)} (t)}{2} (1 \, – \, t)^2 dt$

${}$

(*) Un acercamiento a las formas cuadráticas.

Sea $H : \mathbb{R}^2 \rightarrow \mathbb{R}$, donde

$H (x, y) = \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} a & b \\ b & c \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$

$H (x, y) = a x^2 + 2bxy + c y^2$

Definición: $H $ es definida positiva ( o positivamente) si

$\begin{cases} H (x, y) > 0 \; \; \; \forall \; (x, y) \neq (0, 0) \\ {} \\ H (x, y) = 0 \; \; \; si \; (x, y) = (0, 0) \end{cases}$

Análogamente,

$H $ es definida negativa ( o negativamente) si

$ H (x, y) < 0 \; \; \; \forall \; (x, y) \neq (0, 0)$

Además

$H$ es semi definida positiva, si $H (x, y) \geq 0 \forall \; (x, y)$

$H$ es semi definida negativa, si $H (x, y) \leq 0 \forall \; (x, y)$

Las formas cuadráticas más fáciles de estudiar son las que tienen asociada una matriz diagonal $$\begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix}$$

Entonces

$$\begin{equation*} H (x, y) = \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$

$$\begin{equation*} H (x, y) = \lambda_1 x^2 + \lambda_2 y^2 \end{equation*}$$

$H$ es definida positiva si $\begin{cases} \lambda_1 > 0 \\ \lambda_2 > 0 \end{cases}$

$H$ es definida negativa si $\begin{cases} \lambda_1 < 0 \\ \lambda_2 < 0 \end{cases}$

$H$ es semi definida positiva si $\begin{cases} \lambda_1 \geq 0 \\ \lambda_2 \geq 0 \end{cases}$

$H$ es semi definida negativa si $\begin{cases} \lambda_1 \leq 0 \\ \lambda_2 \leq 0 \end{cases}$

$H$ tiene un punto silla en el origen si $ \lambda_1 < 0 < \lambda_2$

${}$

Veamos un ejemplo:

$H (x, y) = 2xy$

Consideremos composiciones $H \, \circ \, T$ , con $T : \mathbb{R}^2 \rightarrow \mathbb{R}^2$ lineal invertible.

$$ \begin{pmatrix} x’ \\ y’ \end{pmatrix} \rightarrow \begin{pmatrix} x \\ y \end{pmatrix}$$

$T (x’ , y’ ) = ( x , y )$

$\begin{pmatrix} a & b \\ b & c \end{pmatrix} \begin{pmatrix} x’ \\ y’ \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix}$

$\begin{cases} x = ax’ + b y’ \\ y = c x’ + d y’ \end{cases}$

$H \big( T ( x’ , y’ ) \big) = H ( x , y )$

$\begin{align*}H \big( T ( x’ , y’ ) \big) &= 2 (ax’ + b y’ ) ( c x’ + d y’) \\ &= 2 ac ( x’ )^2 + 2 ( ad + bc ) x’ y’ + 2 bd ( y’ )^2 \end{align*}$

Buscamos elegir $T$ tal que $ ad + bc = 0$

$ H \, \circ \, T$ tiene asociada la matriz

$\begin{pmatrix} 2 ac & ad + bc \\ ad + bc & 2 bd \end{pmatrix}$…(1)

Ahora bien, si $\vec{v} = \begin{pmatrix} x \\ y \end{pmatrix}$ y $\vec{w} = \begin{pmatrix} x’ \\ y’ \end{pmatrix}$

$A \vec{w} = \vec{v}$

$H ( \vec{v} ) = \vec{v}^t M \vec{v}$, donde $M = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}$

Entonces

$\begin{align*} H ( \vec{v} ) &= \vec{v}^t M A \vec{w} \\ &= \big( A \vec{w} \big)^t M A \vec{w} \\ &= \vec{w}^t A^t M A \vec{w} \\ &= A^t M A \end{align*}$

Comprobamos que (1) $= A^t M A$

$\begin{align*} A^t M A &= \begin{pmatrix} a & c \\ b & d \end{pmatrix} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} a & b \\ c & d \end{pmatrix} \\ \\ &= \begin{pmatrix} a & c \\ b & d \end{pmatrix} \begin{pmatrix} c & d \\ a & b \end{pmatrix} \\ \\ A^t M A &= \begin{pmatrix} 2 ac & ad + bc \\ ad + bc & 2 bd \end{pmatrix}\end{align*}$

Buscamos $T$ tal que $ A^t M A $ sea diagonal.

Si $A = \begin{pmatrix} \cos \theta & – \, \sin \theta \\ \\ \sin \theta & \cos \theta \end{pmatrix}$ matriz de rotación de ejes.

$ A^t = \begin{pmatrix} \cos \theta &\sin \theta \\ \\ – \, \sin \theta & \cos \theta \end{pmatrix} = \begin{pmatrix} \cos ( – \, \theta) & \, – \, \sin ( – \, \theta) \\ \\ \sin ( – \, \theta) & \cos ( – \, \theta) \end{pmatrix} = A^{-1}$

Luego $ A^t M A = A^{-1} M A$ … (2)

Sabemos entonces que $A$ es inyectiva, invertible y su determinante $det(A) = 1 \neq 0$

Si $\vec{v_1} = \begin{pmatrix} \cos \theta \\ \\ \sin \theta \end{pmatrix} $

$\vec{v_2} = \begin{pmatrix} – \, \sin \theta \\ \\ \cos \theta \end{pmatrix} $

Entonces $A \vec{e_1} = \vec{v_1} $ y también $A \vec{e_2} = \vec{v_2} $, si además $\vec{v_1}$, $\vec{v_2}$ son eigenvectores ( o vectores propios) de $M$, entonces

$M \vec{v_1} = \lambda_1 \vec{v_1}$

$M \vec{v_2} = \lambda_2 \vec{v_2}$

$ A^{-1} M A \vec{e_1} = A^{-1} M \vec{v_1} = A^{-1} \lambda_1 \vec{v_1} = \lambda_1 A^{-1} \vec{v_1} = \lambda_1 \vec{e_1} $

Análogamente

$ A^{-1} M A \vec{e_2} = A^{-1} M \vec{v_2} = A^{-1} \lambda_2 \vec{v_2} = \lambda_2 A^{-1} \vec{v_2} = \lambda_2 \vec{e_2} $

Luego (2) es igual a $\begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix}$

En nuestro ejemplo:

$\vec{v_1} = \begin{pmatrix} \dfrac{1}{\sqrt{2}} \\ \\ \dfrac{1}{\sqrt{2}} \end{pmatrix}$

$\vec{v_2} = \begin{pmatrix} \dfrac{-1}{\sqrt{2}} \\ \\ \dfrac{1}{\sqrt{2}} \end{pmatrix}$

Además $ \lambda_1 = 1 $ y $\lambda_2 = \, – \, 1$

Luego $( x’ )^2 \, – \, ( y’ )^2 = 2xy = H ( x , y ) $

58. Material en revisión: Derivadas direccionales iteradas y teorema del valor medio para la derivada. (martes 15 de octubre)

Por Mariana Perez

Sea $ f : U \subseteq \mathbb{R}^2 \rightarrow \mathbb{R}$ , diferneciable en un abierto, convexo $ U. $

Sea $ (x_0, y_0) \in U$ y $ (h, k) $ cercano a $ (x_0, y_0) $, tal que $(x_0 + h , y_0 + k) \in U.$

Como $ U $ es convexo, entonces $$ (1 \, – \,t) (x_0, y_0) + t ( x_0 + h , y_0 + k) = (x_0 + t h , y_0 + t k) \in U$$

Podemos parametrizar el segmento de recta $ \alpha (t) = (x_0 + t h, y_0 + t k) $ y hacer la composición $ f \, \circ \, \alpha : [ 0, 1] \rightarrow \mathbb{R}$

Le podemos aplicar:

(*) el teorema del valor medio para funciones de $\mathbb{R} \rightarrow \mathbb{R}$, y también

(*) la regla de la cadena.

${}$

Teorema del valor medio para derivadas

Si $ g $ es continua en el cerrado $[0, 1]$ y derivable en el abierto $(0, 1)$, entonces existe $\theta \in (0, 1) $ tal que

$$g’ (\theta) = \dfrac{g (1) \, – \, g (0) }{1 \, – \, 0} = g (1) \, – \, g (0) $$

donde $ g = f \, \circ \, \alpha$

$ ( f \, \circ \, \alpha ) (\theta) = \nabla f ( \alpha ( \theta )) \cdot {\alpha}’ (\theta) = \dfrac{\partial f}{\partial x} (x_0 + \theta h , y_0 + \theta k) h \, + \, \dfrac{\partial f}{\partial y} (x_0 + \theta h , y_0 + \theta k) k$

Sabemos que

$ f (x_0 + h , y_0 + k) = f (x_0 , y_0) + \nabla f ( \alpha ( \theta )) \cdot {\alpha}’ (\theta) $

$ f (x_0 + h , y_0 + k) \, – \, f (x_0 , y_0) = \nabla f ( \alpha ( \theta )) \cdot {\alpha}’ (\theta) $

Si $ f $ fuera de clase $\mathcal{C}^2$ podríamos decir más, en particular $ g = f \, \circ \, \alpha \in \mathcal{C}^2$

$g (t) = f ( x_0 + t h, y_0 + t k)$

$g’ (t) = \dfrac{\partial f}{\partial x} ( x_0 + t h, y_0 + t k) h \, + \, \dfrac{\partial f}{\partial y} ( x_0 + t h, y_0 + t k) k$

Queremos conocer calcular $ {g}^{\prime \prime} (t)$.

Examinemos $\dfrac{\partial f}{\partial x} ( x_0 + t h, y_0 + t k) h = G ( x_0 + t h, y_0 + t k)$

Sea $G (x, y) = \dfrac{\partial f}{\partial x} (x, y)$, entonces

$ \dfrac{d}{dx} G ( x_0 + t h, y_0 + t k) = \dfrac{\partial G}{\partial x} ( x_0 + t h, y_0 + t k) h \, + \, \dfrac{\partial G}{\partial y} k$

Entonces

$$ {g}^{\prime \prime} = \Bigg( \dfrac{\partial^2 f}{\partial x^2} ( x_0 + t h, y_0 + t k) h \, + \, \dfrac{\partial f}{\partial y \partial x} ( x_0 + t h, y_0 + t k) k \Bigg) h \, + \, \Bigg( \dfrac{\partial f}{\partial x \partial y} ( x_0 + t h, y_0 + t k) h \, + \, \dfrac{\partial^2 f}{\partial y^2} ( x_0 + t h, y_0 + t k) k \Bigg) k$$

$${g}^{\prime \prime} = \dfrac{\partial^2 f}{\partial x^2} ( x_0 + t h, y_0 + t k) h^2 \, + \, 2 \dfrac{\partial^2 f}{\partial y \partial x} ( x_0 + t h, y_0 + t k) h k \, + \, \dfrac{\partial^2 f}{\partial y^2} ( x_0 + t h, y_0 + t k) k^2 $$

${g}^{\prime \prime} $ es la segunda derivada de $ ( f \, o \, \alpha) ( t ).$

La tercera derivada de $ f ( \alpha ( t ) )$ es $$ \dfrac{\partial^3 f}{\partial x^3} h^3 \, + \, 3 \dfrac{\partial^3 f}{\partial x^2 \partial y} h^2 k \, + \, 3 \dfrac{\partial^3 f}{\partial x \partial y^2} h k^2 \, + \, \dfrac{\partial^3 f}{\partial y^3} k^3 $$ valuada en $( x_0 + t h, y_0 + t k)$

${}$

Teorema de Taylor para funciones de $\mathbb{R} \rightarrow \mathbb{R}$ aplicado a $ g = f \, \circ \, \alpha$

$g ( t ) = g ( 0 ) + g’ ( 0 ) t + \frac{1}{2} {g}^{\prime \prime} ( 0 ) t^2 + E ( t )$ , donde $ E ( t )$ es el error.

Una fórmula para este error es $ \dfrac{{g}^{\prime \prime \prime} ( \xi ) }{ 3! } $ para alguna $ \xi \in ( 0, t)$

Entonces

$ g ( t ) = f ( x_0 + t h, y_0 + t k)$

$ g ( 0 ) = f ( x_0 , y_0 )$

$ g’ ( 0 ) = \dfrac{\partial f}{\partial x} ( x_0 , y_0 ) h + \dfrac{\partial f}{\partial y} ( x_0 , y_0 ) k$

$ {g}^{\prime \prime} ( 0 ) = \dfrac{\partial^2 f}{\partial x} ( x_0 , y_0 ) h^2 + 2 \dfrac{\partial^2 f}{\partial y \partial } h k + \dfrac{\partial^2 f}{\partial y^2} ( x_0 , y_0 ) k^2 $

$ E (t) = \dfrac{{g}^{\prime \prime \prime} ( \xi)}{3!} = \dfrac{\dfrac{\partial^3 f}{\partial x^3} h^3 \, + \, 3 \dfrac{\partial^3 f}{\partial x^2 \partial y} h^2 k \, + \, 3 \dfrac{\partial^3 f}{\partial x \partial y^2} h k^2 \, + \, \dfrac{\partial^3 f}{\partial y^3}}{3!}$

Si $f $ es de clase $\mathcal{C}^3$ ya tenemos un polinomio de 2° grado que aproxima bien a $f$ localmente.

Si el punto es un $\textit{ punto crítico }$ entonces, el polinomio de 2° grado es, esencialmente, un polinomio homogéneo.

$$ \mathbb{R}^2 \rightarrow \mathbb{R} \; \; \; ax^2 + 2bxy + cy^2$$

$ p (x, y) = ax^2 + 2bxy + cy^2 = (x , y ) \begin{equation*} \begin{pmatrix} a & b \\ b & c \end{pmatrix} \end{equation*}$

$ p ( 0 ) = 0$

$ \nabla p ( 0, 0) = \Big( \dfrac{\partial p }{\partial x} , \dfrac{\partial p }{\partial y} \Big) = ( 2ax + 2 by, 2 bx + 2 cy ) \Biggm|_{(0, 0)} = (0, 0)$

El plano tangente a $ z = p (x, y )$ es horizontal.

Observación:

La matriz $ A = \begin{equation*} \begin{pmatrix} a & b \\ b & c \end{pmatrix} \end{equation*}$ es simétrica.

También sabemos que si la matriz es diagonalizable, entonces existe una base ortonormal de vectores propios $\vec{v_1}, \, \vec{v_2}$ tales que

$\| \vec{v_1} \| = \| \vec{v_2} \| = 1$ y también $ \vec{v_1} \cdot \vec{v_2} = 0$

Y existe $\theta$ tal que

$ \vec{v_1} = (\cos \theta , \sin \theta ) $

$ \vec{v_2} = (\, – \ \sin \theta, \cos \theta) $

Además, existen $\lambda_1 , \, \lambda_2$ tales que $$ A \vec{v_1} = \lambda_1 \vec{v_1} $$ $$ A \vec{v_2} = \lambda_2 \vec{v_2} $$

$D = \begin{equation*} \begin{pmatrix} \lambda_1 & 0 \\ 0 & \lambda_2 \end{pmatrix} \end{equation*}$ es la matriz diagonal.

Sin pérdida de generalidad en al caso cuando

$\begin{equation*} \begin{pmatrix} a & b \\ b & c \end{pmatrix} = \begin{pmatrix} \lambda_1 & 0 \\ 0 & \lambda_2 \end{pmatrix} \end{equation*}$

$ p (x, y) = \lambda_1 x^2 + \lambda_2 y^2$

Analicemos los tres casos posibles según los valores de $\lambda$

CASO 1: $ \lambda_1 , \lambda_2 > 0$ entonces, $p$ alcanza un valor mínimo.

https://www.geogebra.org/classic/drtwmcwt

Ejemplo: $p (x, y) = x^2 + y^2 $

CASO 2: $ \lambda_1 , \lambda_2 < 0$ entonces, $p$ alcanza un valor máximo.

https://www.geogebra.org/classic/zkkwuga4

Ejemplo: $p (x, y) = \, – \, x^2 \, – \, y^2 $

CASO 3: $ \lambda_1 > 0 , \lambda_2 < 0$ entonces, $p$ tiene un punto silla.

https://www.geogebra.org/classic/yczbtnvb

Ejemplo: $p (x, y) = x^2 \, – \, y^2 $

Si alguno de los $\lambda$ es CERO, no se puede concluir nada acerca del punto.

${}$

$\underline{\textit{Veamos un ejemplo}}:$

$p (x, y) = 2xy$

Como $ p (x, y) = ax^2 + 2bxy + cy^2$ entonces, para nuestro ejemplo tenemos que:

$ a = 0$ , $ b = 1$ , y $ c = 0$.

Entonces la matriz $A = \begin{equation*} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \end{equation*}$

Entonces $\begin{equation*} \begin{vmatrix} – \, \lambda & 1 \\ 1 & – \, \lambda \end{vmatrix} \end{equation*} = 0$

$ \lambda^2 \, – \, 1 = 0 $

$ \lambda^2 = 1$ y por tanto $ \lambda = \pm 1$

$\underline{\textit{Vectores propios}}:$

$$\begin{equation*} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = 1 \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$

Entonces

$$\begin{equation*} \begin{pmatrix} y \\ x \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$

Luego $ \vec{v_1} = \dfrac{( 1, 1)}{ \| \vec{v_1} \|} = \begin{pmatrix} \dfrac{1}{\sqrt{2}} \\ {} \\ \dfrac{1}{\sqrt{2}} \end{pmatrix} = \begin{pmatrix} \cos \dfrac{\pi}{4} \\ {} \\ \sin \dfrac{\pi}{4} \end{pmatrix}$

Análogamente,

$$\begin{equation*} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \, – \, 1 \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$

Entonces

$$\begin{equation*} \begin{pmatrix} y \\ x \end{pmatrix} = \begin{pmatrix} \, – \, x \\ \, – \, y \end{pmatrix} \end{equation*}$$

Luego $ \vec{v_2} = \begin{pmatrix} \dfrac{ \, – \, 1}{\sqrt{2}} \\ {} \\ \dfrac{ \, – \, 1}{\sqrt{2}} \end{pmatrix} = \begin{pmatrix} \, – \, \sin \dfrac{\pi}{4} \\ {} \\ \cos \dfrac{\pi}{4} \end{pmatrix}$

${}$

Corte con el plano vertical $ x = y$ son las parábolas $p (x, y) = 2x^2$

Corte con el plano vertical $ y = \, – \, x$ son las parábolas $p (x, y) = \, – \, 2x^2$

En el siguiente enlace puedes observar la gráfica de la superficie $p (x,y)$ y sus cortes con los planos verticales.

https://www.geogebra.org/classic/rjhgjzeq

57. Material en revisión: Máximos y mínimos. Teorema de Taylor (lunes 14 de octubre)

Por Mariana Perez

Para funciones $f : \mathbb{R} \rightarrow \mathbb{R}$ alcanza un valor máximo, o un valor mínimo, en $ x_0 $ y $f $ es derivable en $x_0$ entonces, $f’ (x_0) = 0.$

Si $f : \mathbb{R}^n \rightarrow \mathbb{R}$ alcanza un valor máximo, o mínimo, en $\vec{x_0}$ y $f$ es diferenciable entonces $$ \nabla f (\vec{x_0}) = \Big( \dfrac{\partial f}{\partial x_1} (x_0), \dfrac{\partial f}{\partial x_2} (x_0), \dots , \dfrac{\partial f}{\partial x_n} (x_0)\Big) = \vec{0}$$

Equivalentemente, la diferencial de $f$ en $\vec{x_0}$ es $d f (\vec{x_0}) : \mathbb{R}^n \rightarrow \mathbb{R}$ es la función constante CERO.

Geométricamente: Si $ f : \mathbb{R}^2 \rightarrow \mathbb{R} $ el plano tangente a la superficie $ z = f (x, y) $ en el punto $(x_0, y_0)$ donde se alcanza el valor extremo es horizontal.

Si $f : \mathbb{R}^2 \rightarrow \mathbb{R} $ y $\vec{x_0} \in \mathbb{R}^n$ es un punto crítico de $f$ si $\nabla f (\vec{x_0}) = \vec{0}$, es decir, si $ d f_{\vec{x_0}} \equiv 0.$

(*) $y_1 \in \mathbb{R}$ es un valor regular si $ f^{-1} (y_1) $ es un conjunto que no contiene ningún punto crítico.

(*) $f : \mathbb{R} \rightarrow \mathbb{R} $ curva parametrizada es regular si $f’ (t) \neq \vec{0}$ para toda $t$, $t_0$ es un punto crítico si $f’ (t_0) = \vec{0}.$

(*) $f : \mathbb{R}^n \rightarrow \mathbb{R}^m $ y $\vec{x_0} \in \mathbb{R}^n$ es un punto crítico si $d f_{\vec{x_0}} : \mathbb{R}^n \rightarrow \mathbb{R}^m$ tiene el rango igual al máximo posible.

${}$

Derivadas parciales iteradas (mixtas)

Sea $f : U \subseteq \mathbb{R}^2 \rightarrow \mathbb{R}$ con $U$ abierto, y $(x_0, y_0) \in U.$

Supongamos que existen

$\dfrac{ \partial f}{ \partial x} : U \subseteq \mathbb{R}^2 \rightarrow \mathbb{R}$

$\dfrac{ \partial f}{ \partial y} : U \subseteq \mathbb{R}^2 \rightarrow \mathbb{R}$

Conceptualmente

$$\dfrac{ \partial }{ \partial y } \dfrac{ \partial f}{ \partial x} \neq \dfrac{ \partial }{ \partial x } \dfrac{ \partial f}{ \partial y}$$

Veamos un ejemplo:

Consideremos la función $ f : \mathbb{R}^2 \rightarrow \mathbb{R}$

$\begin{equation*} f (x, y) = \begin{cases} \dfrac{xy ( x^2 \, – \, y^2) }{x^2 + y^2} & \text{ si } (x, y) \neq (0, 0) \\ {} \\ 0 & \text{ si } (x, y) = (0, 0) \end{cases} \end{equation*}$

Afirmación: existen las derivadas parciales $\dfrac{ \partial }{ \partial y } \dfrac{ \partial f}{ \partial x} \Biggm|_{(0, 0)} $, $\dfrac{ \partial }{ \partial x } \dfrac{ \partial f}{ \partial y} \Biggm|_{(0, 0)} $, y son diferentes.

Veamos como calcular el siguiente límite.

Tenemos que:

$\dfrac{ \partial }{ \partial y } \dfrac{ \partial f}{ \partial x} \Biggm|_{(0, 0)} = \lim\limits_{k \to 0} \dfrac{ \dfrac{ \partial f}{ \partial x} (0, k) \, – \, \dfrac{ \partial f}{ \partial x} (0, 0) }{k} $ , llamaremos a esta expresión (1).

Para calcular esto necesitamos calcular primero las siguientes derivadas parciales:

$\dfrac{ \partial f}{ \partial x} (0, 0) = \lim\limits_{h \to 0} \dfrac{f (h, 0) \, – \, f (0, 0)}{h} = 0$

También necesitamos calcular

$\begin{align*} \dfrac{ \partial f}{ \partial x} (0, k) &= \lim\limits_{h \to 0} \dfrac{f (h, k) \, – \, f (0, k)}{h} \\ &= \lim\limits_{h \to 0} \dfrac{\dfrac{\cancel{h}k (h^2 \, – \, k^2)}{h^2 + k^2} \, – \, 0}{\cancel{h}} \\ &= \lim\limits_{h \to 0} \dfrac{k (h^2 \, – \, k^2)}{h^2 + k^2} \\ &= – \, \dfrac{k^3}{k^2} \\ \\ \dfrac{\partial f}{\partial x} (0, k) &= – \, k \end{align*}$

Entonces la expresión (1) queda de la siguiente manera:

$\dfrac{ \partial }{ \partial y } \dfrac{ \partial f}{ \partial x} \Biggm|_{(0, 0)} = \lim\limits_{k \to 0} \dfrac{ – \, k \, – \, 0 }{k} = \lim\limits_{k \to 0} – \, 1 = – \, 1$

Análogamente, para calcular

$\dfrac{ \partial }{ \partial x } \dfrac{ \partial f}{ \partial y} \Biggm|_{(0, 0)} = \lim\limits_{h \to 0} \dfrac{ \dfrac{ \partial f}{ \partial y} (h, 0) \, – \, \dfrac{ \partial f}{ \partial y} (0, 0) }{h} $ , llamaremos a esta expresión (2).

Calculemos primero las siguientes derivadas parciales:

$\dfrac{ \partial f}{ \partial y} (0, 0) = \lim\limits_{k \to 0} \dfrac{f (0, k) \, – \, f (0, 0)}{k} = \lim\limits_{k \to 0} \dfrac{0}{k} = 0$

y también

$\begin{align*} \dfrac{ \partial f}{ \partial y} (h, 0) &= \lim\limits_{k \to 0} \dfrac{f (h, k) \, – \, f (h, 0)}{k} \\ &= \lim\limits_{k \to 0} \dfrac{\dfrac{h \cancel{k} (h^2 \, – \, k^2)}{h^2 + k^2} \, – \, 0}{\cancel{k}} \\ &= \lim\limits_{k \to 0} \dfrac{h (h^2 \, – \, k^2)}{h^2 + k^2} \\ &= \dfrac{h^3}{h^2} \\ \\ \dfrac{\partial f}{\partial y} (h, 0) &= h \end{align*}$

Entonces la expresión (2) queda de la siguiente manera:

$\dfrac{ \partial }{ \partial x } \dfrac{ \partial f}{ \partial y} \Biggm|_{(0, 0)} = \lim\limits_{h \to 0} \dfrac{ h \, – \, 0 }{h} = \lim\limits_{k \to 0} 1 = 1$

De lo anterior, podemos observar que las derivadas parciales existen y son diferentes.

${}$

Entonces, quizás te preguntes, ¿existen funciones tales que sus derivadas parciales iteradas (o mixtas) sean iguales?; ¿cuáles son las funciones para las cuales sus derivadas parciales iteradas (o mixtas) son iguales?

Para responder a estas preguntas tenemos el siguiente teorema.

${}$

Teorema

Si $ f $ es de clase $\mathcal{C}^2$ (es decir, que las segundas derivadas existen y son continuas) entonces las derivadas parciales iteradas ( o mixtas) son iguales.

Sea $ f : U \subset \mathbb{R}^2 \rightarrow \mathbb{R}$ donde $U$ es abierto, y $(x_0, y_0) \in U$ entonces $$ \dfrac{\partial^2 f }{\partial y \partial x} (x_0, y_0) = \dfrac{\partial^2 f }{\partial x \partial y} (x_0, y_0)$$

Demostración:

Definamos $ A = f (x_0 + h, y_0 + k) \, – \, f (x_0 + h, y_0 ) \, – \, f (x_0 , y_0 + k) \, + \, f (x_0 , y_0 ) = g (x_0 + h) \, – \, g (x_0)$

Si $g (x , y_0 + k) \, – \, f (x, y_0)$, fijando $y_0, k$ tenemos que $g (x) = \dfrac{\partial f}{\partial y} (x, y_0 + \theta k) k $ con $ 0 < \theta < 1$.

Entonces

$\dfrac{\partial g}{\partial x} (x_0 + \eta h) h $ y por tanto

$ A = \dfrac{\partial }{\partial x} \dfrac{\partial f}{\partial y} (x_0 + \eta h, y_0 + \theta k) h k $

Por otra parte $A$ también puede verse como una resta de valores de otra función $G$.

$A = G ( y_0 + k) \, – \, G (y_0) $ , donde $ G (y) = f ( x_0 + h, y ) \, – \, f (x_0, y)$

Fijando $x_0 , h$

$ G ( y_0 + k) = f ( x_0 + h, y_0 + k ) \, – \, f (x_0, y_0 + k )$, y por otro lado

$G (y_0) = f ( x_0 + h, y_0 ) \, – \, f (x_0, y_0 )$

Luego

$ G ( y_0 + k) \, – \, G (y_0) = f ( x_0 + h, y_0 + k ) \, – \, f (x_0, y_0 + k ) \, – \, f ( x_0 + h, y_0 ) \, + \, f (x_0, y_0 )$

Además

$G’ ( y_0 + \hat{\theta} k) = \dfrac{G (y_0 + k) \, – \, G(y_0)}{k}$

$ k G’ ( y_0 + \hat{\theta} k) = G (y_0 + k) \, – \, G(y_0) $

Entonces

$\begin{align*} A &= G ( y_0 + k) \, – \, G (y_0) \\ &= \dfrac{ \partial G}{\partial y} (y_0 + \hat{\theta} k ) k \\ &= \Big( \dfrac{ \partial f}{\partial y} (x_0 + h , y_0 + \hat{\theta} k) k \, – \, \dfrac{ \partial f}{\partial y} (x_0 , y_0 + \hat{\theta} k) k \Big) \\ &= \dfrac{ \partial }{\partial y} \dfrac{ \partial f}{\partial y} (x_0 + \hat{\eta} h , y_0 + \hat{\theta} k) h k \end{align*}$

Entonces $ \dfrac{A}{h k} = \dfrac{ \partial }{\partial y} \dfrac{ \partial f}{\partial y} (x_0 + \hat{\eta} h , y_0 + \hat{\theta} k)$

Luego

$\lim\limits_{(h, k) \to (0, 0)} \dfrac{A}{h k} = \lim\limits_{(h, k) \to (0, 0)} \Bigg[ \dfrac{\partial^2 f}{\partial y \partial x} (x_0 + \hat{\eta} h , y_0 + \hat{\theta} k) \Bigg] = \dfrac{\partial^2 f}{\partial y \partial x} (x_0, y_0) \; \; \; _{\blacksquare}$

${}$

Teorema de Taylor ( 1° grado)

Sea $ f : U \subseteq \mathbb{R}^n \rightarrow \mathbb{R} $ , de clase $\mathcal{C}^2$ , diferenciable en $ \vec{x_0} \in U$ abierto. Entonces $$ f (\vec{x_0} + \vec{h} ) = f (\vec{x_0}) + \nabla f (\vec{x_0}) \cdot \vec{h} + R_1 (\vec{x_0}, \vec{h})$$

donde $\; \; \lim\limits_{\vec{h} \to \vec{0}} \dfrac{R_1 (\vec{x_0}, \vec{h})}{ \big\| \vec{h} \big\|} = 0$

Teorema de Taylor ( 2° grado)

Sea $ f : U \subseteq \mathbb{R}^n \rightarrow \mathbb{R} $ , de clase $\mathcal{C}^3.$ Entonces $$ f (\vec{x_0} + \vec{h} ) = f (\vec{x_0}) + \sum\limits_{i = 1}^{n} h_i \dfrac{\partial f}{\partial x_i} \vec{x_0} + \frac{1}{2} \sum\limits_{i, j = 1}^{n} h_i h_j \dfrac{\partial^2 f}{\partial x_i \partial x_j} \vec{x_0} + R_2 (\vec{x_0}, \vec{h})$$

tal que $\; \; \lim\limits_{\vec{h} \to \vec{0}} \dfrac{R_2 (\vec{x_0}, \vec{h})}{ \big\| \vec{h} \big\|^2 } = 0$ , y $ \vec{h} = (h_1 , h_2 , \cdots , h_n ).$

56. Material en revisión: Algunos comentarios sobre las derivadas parciales y la diferencial (viernes 11 de octubre).

Por Mariana Perez

Sea $f : \mathbb{R}^2 \rightarrow \mathbb{R}$ diferenciable.

Entonces existen las derivadas parciales: $\dfrac{\partial f}{\partial x}$ y $\dfrac{\partial f}{\partial x}$

y existe la diferencial de $f$ en $(x_0, y_0)$ $$d f (x_0, y_0) : \mathbb{R}^2 \rightarrow \mathbb{R}$$ $$d f (x_0, y_0) (h, k) = \dfrac{\partial f}{\partial x} (x_0, y_0) h + \dfrac{\partial f}{\partial y} (x_0, y_0) k$$

Teorema:

Si $f$ es diferenciable en $(x_0, y_0)$ y además $\|\vec{u}\| = 1$ entonces existe la derivada direccional de $f$ en la dirección de $\vec{u}$ y es igual a $$\nabla f (x_0, y_0) \cdot \vec{u}$$

Demostración:

La derivada direccional es $ \lim\limits_{t \to 0} \dfrac{f (\vec{x_0} + t \vec{u}) \, – \, f (\vec{x_0}) }{t}$, con $\vec{x_0} = (x_0, y_0).$

Vamos a ver que existe y que es igual a $\nabla f (\vec{x_0}) \cdot \vec{u}$

$\Big[$ por demostrar: existe $ \lim\limits_{t \to 0} \dfrac{f (\vec{x_0} + t \vec{u}) \, – \, f (\vec{x_0}) }{t} = \nabla f (\vec{x_0}) \cdot \vec{u} \Big] $

$\Big[$ por demostrar: $\iff \lim\limits_{t \to 0} \Bigg( \dfrac{f (\vec{x_0} + t \vec{u}) \, – \, f (\vec{x_0}) }{t} \, – \, \nabla f (\vec{x_0}) \cdot \vec{u} \Bigg) = 0 $

$\Big[$ por demostrar: $\iff \lim\limits_{t \to 0} \dfrac{f (\vec{x_0} + t \vec{u}) \, – \, f (\vec{x_0}) \, – \, t \nabla f (\vec{x_0}) \cdot \vec{u}}{t} = 0$

$ \iff \lim\limits_{t \to 0} \Bigg| \dfrac{f (\vec{x_0} + t \vec{u}) \, – \, f (\vec{x_0}) \, – \, \nabla f (\vec{x_0}) \cdot t \vec{u}}{\| t \|} \Bigg| = 0$ esta última equivalencia es la que demostraremos.

Por hipótesis sabemos que $f$ es diferenciable en $\vec{x_0} = (x_0, y_0)$; es decir $$\lim\limits_{\vec{h} \to \vec{0}} \dfrac{ \Big| f (\vec{x_0} + \vec{h}) \, – \, f (\vec{x_0}) \, – \, \nabla f (\vec{x_0}) \cdot t \vec{h} \Big|}{\| h \|} = 0$$

Sea $F (\vec{h}) = \dfrac{ \Big| f (\vec{x_0} + \vec{h}) \, – \, f (\vec{x_0}) \, – \, \nabla f (\vec{x_0}) \cdot t \vec{h} \Big|}{\| h \|}$

$F$ está definida en una vecindad perforada de $\vec{0}$, es decir $\vec{h} \neq \vec{0}$.

Sea $\phi (t) = \Bigg| \dfrac{f (\vec{x_0} + t \vec{u}) \, – \, f (\vec{x_0}) \, – \, \nabla f (\vec{x_0}) \cdot t \vec{u}}{\| t \|} \Bigg|$

$\phi$ está definida en una vecindad perforada de CERO.

$\Big[$ por demostrar: existe $\lim\limits_{t \to 0} \phi (t) = 0 \Big]$ es decir,

$\Big[$ por demostrar: $\forall \; \epsilon > 0, \, \exists \, \delta > 0 $ tal que si $ 0 < |t| < \delta $ entonces $|\phi (t) | < \epsilon \Big]$ . . . (1)

Sea $\epsilon > 0$, hay que proponer una $ \delta > 0$ y ver que tiene la propiedad (1).

Por hipótesis, existe $ \lim\limits_{\vec{h} \to \vec{0}} F (\vec{h}) = \vec{0}$, entonces $\forall \; \epsilon > 0 \, \exists \, \delta_1 > 0 $ tal que si $ 0 < \|\vec{h} \| < \delta_1 $ entonces $|F (\vec{h}) | < \epsilon $. Es decir, $ \vec{h} \in \mathring{B}_{\delta_1} (\vec{0})$.

Relación entre $\phi$ y $F$

$ \phi (t) = F (t \vec{u}) = F (\alpha (t) ) = (F o \alpha ) (t) $, donde $\alpha (t) = t \vec{u}.$

$\alpha$ es continua.

(1) Dada $\epsilon > 0 $ existe $ \delta_1 > 0 $ tal que si $ 0 < \|\vec{h} \| < \delta_1 $ entonces $|F (\vec{h}) | < \epsilon $.

(2) Como $\alpha$ es continua entonces para $\epsilon’ = \delta_1 $ existe $ \delta_2 $ tal que si $ | t | < \delta_2 $ entonces $ \| \alpha (t) \| = \| t \vec{u} \| = | t | \| \vec{u} \| = | t | < \delta_1$

Por lo tanto, sirve $ \delta_2 = \delta_1.$

${}$

Teorema: Regla de la cadena.

Sea $f : U \subset \mathbb{R} \rightarrow \mathbb{R}^2 $ una curva parametrizada, con $U$ abierto, y $t_0 \in U.$

$f$ derivable en $t_0.$

Sea $g : V \subset \mathbb{R}^2 \rightarrow \mathbb{R}$, con $V$ abierto y $v_0 \in V$.

$g$ diferenciable en $\vec{v_0}.$

Supongamos además que $ f (U) \subseteq V$.

Entonces $ g o f : U \subseteq \mathbb{R} \rightarrow \mathbb{R}$ es derivable en $t_0$ y $$ (g o f)’ (t_0) = \nabla g (\vec{v_0}) \cdot f’ (t_0)$$

Demostración:

$\Big[$ por demostrar: $g o f$ es derivable en $t_0$ y su derivada es $\nabla g( f ( t_0)) \cdot f’ (t_0) \Big]$

$\Big[$ por demostrar: $\lim\limits_{ \Delta t \to 0} \dfrac{ g ( f ( t_0 + \Delta t) ) \, – \, g ( f (t_0) )}{\Delta t} = \nabla g ( f (t_0) ) \cdot f’ (t_0) \Big]$

$\Big[$ por demostrar: $\lim\limits_{ \Delta t \to 0} \Bigg| \dfrac{ g ( f ( t_0 + \Delta t) ) \, – \, g ( f (t_0) ) \, – \, \nabla g ( f (t_0) ) \cdot \Delta t f’ (t_0) }{\Delta t} \Bigg| = 0 \Big]$

$f (t) = \big( x ( t ), y ( t ) \big)$

$f’ (t_0) = \big( x ( t_0 ), y ( t_0 ) \big)$

$ \Delta t f’ (t_0) = \Delta t \big( x ( t_0 ), y ( t_0 ) \big)$

$ \Delta t f’ (t_0) = \big( \Delta t x ( t_0 ), \Delta t y ( t_0 ) \big)$

Hipótesis:

(*) $f$ es derivable un $t_0$, es decir, existe $\lim\limits_{\Delta t \to 0} \dfrac{ f ( t_0 + \Delta t ) \, – \, f (t_0)}{ \Delta t} = f’ (t_0) $

(*) $g$ es diferenciable en $ f (t_0) = \vec{v_0}$ es decir $\lim\limits_{ \vec{h} \to \vec{0}} \Bigg| \dfrac{g ( \vec{v_0} + \vec{h} ) \, – \, g ( \vec{v_0} ) \, – \, \nabla g ( \vec{v_0} ) \cdot \vec{h}}{\big\| \vec{h} \big\| }\Bigg| = 0$

Definimos $G (h) = \Bigg| \dfrac{g ( \vec{v_0} + \vec{h} ) \, – \, g ( \vec{v_0} ) \, – \, \nabla g ( \vec{v_0} ) \cdot \vec{h}}{\big\| \vec{h} \big\| }\Bigg|$

Analizaremos dos casos:

Caso 1) $f’ (t_0) \neq \vec{0} $

Caso 2) $f’ (t_0) = \vec{0} $

Caso 1)

Sea $G (\vec{h}) = \Bigg| \dfrac{g ( \vec{v_0} + \vec{h} ) \, – \, g ( \vec{v_0} ) \, – \, \nabla g ( \vec{v_0} ) \cdot \vec{h}}{\big\| \vec{h} \big\| }\Bigg|$

Y definimos $\phi ( \Delta t) = \Bigg| \dfrac{f ( t + \Delta t ) \, – \, f ( t_0 ) \, – \, \Delta t f’ (t_0)}{\Delta t} \Bigg|$

Lema

Existe $M_1 > 0$ y $\delta > 0$ tales que $$ \Big\| f ( t_0 + \Delta t ) \, – \, f ( t_0 ) \Big\| < M_1 \Big| \Delta t \Big|$$ $$ \Big\| \vec{h} \Big\| < M_1 \Big| \Delta t \Big|$$

$f’ (t_0) = \lim\limits_{ \Delta \to 0} \dfrac{ f ( t_0 + \Delta t ) \, – \, f (t_0) }{ \Delta t }$

entonces $ \Big\| f’ (t_0) \Big\| = \Big\| \lim\limits_{ \Delta \to 0} \dfrac{ f ( t_0 + \Delta t ) \, – \, f (t_0) }{ \Delta t } \Big\|$. Como la norma es continua, entonces

$$ 0 \neq \Big\| f’ (t_0) \Big\| = \lim\limits_{ \Delta \to 0} \Bigg\|\dfrac{ f ( t_0 + \Delta t ) \, – \, f (t_0) }{ \Delta t } \Bigg\|$$

Entonces para $\epsilon = \dfrac{\big\| f’ (t_0) \big\|}{2}$ existe un $\delta > 0 $ tal que $ t \in ( t_0 \ – \, \delta, t_0 \ + \, \delta) $ garantiza que $$ \dfrac{ \Big\|f ( t_0 + \Delta t ) \, – \, f (t_0) \big\|}{ \big| \Delta t \big|} \in \Big( \big\| f’ ( t_0 ) \big\| \, – \, \epsilon , \big\| f’ (t_0) \big\| \, + \, \epsilon \Big)$$

Luego

$$ \dfrac{1}{2} \big\| f’ ( t_0 ) \big\| < \dfrac{ \Big\|f ( t_0 + \Delta t ) \, – \, f (t_0) \big\|}{ \big| \Delta t \big|} < \dfrac{3}{2} \big\| f’ ( t_0 ) \big\|$$

$$ \dfrac{1}{2} \big| \Delta t \big| \big\| f’ ( t_0 ) \big\| < \Big\|f ( t_0 + \Delta t ) \, – \, f (t_0) \big\| < \dfrac{3}{2} \big| \Delta t \big| \big\| f’ ( t_0 ) \big\|$$

$$ 0 < \Big\|f ( t_0 + \Delta t ) \, – \, f (t_0) \big\| < M_1 \Delta f > M_1 \delta \; \;_{\blacksquare}$$

Entonces, por el lema, tenemos que $f (t_0 \, + \, \Delta t ) \in \mathring{B}_{M_1 \delta} (f (t_0))$

$\Big[$ por demostrar: $\lim\limits_{\Delta t \to 0} \dfrac{\Big| g ( f ( t_0 + \Delta t ) \, – \, g ( f ( t_0) ) \, – \, \nabla g ( f ( t_0) ) \cdot f’ (t_0) \Delta t \Big|}{\Big| \Delta t \Big|} = 0$

Sea $\epsilon > 0$, buscamos $ \delta > 0 $ tal que si $ 0 < \big| \Delta t \big| < \delta $ entonces $\Bigg| \dfrac{g ( f ( t_0 + \Delta t ) \, – \, g ( f ( t_0) ) \, – \, \nabla g ( f ( t_0) ) \cdot f’ (t_0) \Delta t }{\Delta t} \Bigg|< \epsilon$

Sabemos que existe $\delta_1 > 0 $ tal que si $ 0 < \big\| \vec{h} \big\| < \delta_1 $ entonces $ \dfrac{ \Big| g ( f ( t_0 + \Delta t ) \, – \, g ( f ( t_0) ) \, – \, \nabla g ( f ( t_0) ) \cdot f’ (t_0) \Delta t \Big|}{\big\| \vec{h} \big\|} < \epsilon$ ya que $ g $ es diferenciable en $ f (t_0)$.

Además, por el lema, existe $ M_1 > 0 $ y $ \delta_2 > 0 $ tales que si $ 0 < \big\| \Delta t \big\| < \delta_2 $ entonces $ \big\| f ( t_0 + \Delta t )\, – \, f (t_0) \big\| < M_1 \big| \Delta t \big|. $ Luego $ M_1 \big| \Delta t \big| < \delta_1 \Rightarrow \, \big|\Delta t \big| < \dfrac{\delta_1 }{M_1}$.

Proponemos $\delta = mín \Big\{ \dfrac{\delta_1}{M_1} , \delta_2 \Big\}$ entonces $\big|\Delta t \big| < \delta_1 $ y $ \big|\Delta t \big| < \delta_2$

Entonces si $ \vec{h} = f ( t_0 + \Delta t ) \, – \, f (t_0) $ cumple que $ 0 < \big\| \vec{h} \big\| < \delta_1 $ entonces se cumple que $$ \dfrac{ \Big| g ( f ( t_0 + \vec{h} ) \, – \, g ( f ( t_0) ) \, – \, \nabla g ( f ( t_0) ) \cdot f’ (t_0) \Delta t \Big|}{\Big| \Delta t \Big|} \leq \dfrac{ \Big| g ( f ( t_0 + \vec{h} ) \, – \, g ( f ( t_0) ) \, – \, \nabla g ( f ( t_0) ) \cdot f’ (t_0) \Delta t \Big|}{\Big| \vec{h} \Big|} \cdot M_1$$ ya que como $\big\| \vec{h} \big\| < M_1 \cdot \big| \Delta t \big| $ entonces $\dfrac{1}{ \Delta t} < \dfrac{M_1}{\big\| \vec{h} \big\|}$

55. Material en revisión: Algo más sobre las derivadas direccionales.

Por Mariana Perez

Teorema:

Si $f$ es diferenciable, entonces la derivada direccional de $f$ en $\vec{x_0}$ en la dirección de $\vec{u}$, con $\| \vec{u} \| = 1$ es $\nabla f (\vec{x_0} ) \cdot \vec{u}.$

En entradas anteriores hemos trabajado con la función $ f(x, y) = x^{1/3} y^{1/3}$, regresemos a este ejemplo.

$\dfrac{\partial f}{\partial x} (0, 0) = 0$ y también $\dfrac{\partial f}{\partial y} (0, 0) = 0$

$\vec{u} = (\cos \theta, \sin \theta)$ entonces

$\begin{align*} f (t \vec{u}) &= f (t \cos \theta, t \sin \theta) \\ &= t^{1/3} (\cos \theta)^{1/3} t^{1/3} (\sin \theta)^{1/3} \\ &= t^{2/3} (\cos \theta \sin \theta)^{1/3} \end{align*}$

donde $(\cos \theta \sin \theta)$ es constante, entonces si calculamos la derivada direccional

$\lim\limits_{t \to 0} \dfrac{f (t \vec{u} \, – \, f ( \vec{0}) }{t} = \lim\limits_{t \to 0} \dfrac{t^{2/3} (\cos \theta \sin \theta)^{1/3} \, – \, 0}{t} = \lim\limits_{t \to 0} t^{-\, 1/3} (\cos \theta \sin \theta)^{1/3} = \infty $

No se cumple que sea igual al $\nabla f \cdot (\vec{u})$ que es CERO.

No hay plano tangente. El único candidato sería $z = 0.$

Por lo tanto no es diferenciable en $(0, 0).$

${}$

Con la definición:

$\lim\limits_{(h, k) \to (0, 0)} \dfrac{\Big| f (x_0 + h, y_0 + k) \, – \, f (x_0, y_0) \, – \, (ah + bk) \Big| }{\sqrt{h^2 + k^2 \,}} = 0$

entonces $a = \dfrac{\partial f}{ \partial x} (0, 0) , \, b = \dfrac{\partial f}{\partial y} (0, 0)$

luego $\lim\limits_{(h, k) \to (0, 0)} \dfrac{\Big| f ( h, k) \, – \, 0 \Big| }{\sqrt{h^2 + k^2 \,}} = \lim\limits_{(h, k) \to (0, 0)} \dfrac{ h^{1/3} k^{1/3} }{\sqrt{h^2 + k^2 \,}}$

tomando $ h = k$

$\lim\limits_{h \to 0} \dfrac{ h^{2/3} }{\sqrt{2 h^2 \,}} = \dfrac{1}{\sqrt{2}} \lim\limits_{h \to 0} h^{- 1/3} = \infty $, si $h > 0.$

$f$ es diferenciable en $(x_0)$ si existe $f’ (x_0)$, luego

$f’ (x_0) = \lim\limits_{h \to 0} \dfrac{f (x_0 + h) \, – \, f (x_0) }{h} \iff \lim\limits_{h \to 0} \dfrac{f (x_0 + h) \, – \, f (x_0) }{h} \, – \, f’ (x_0) = 0 \; \; \dotsc (1)$

$f$ es diferenciable en $x_0$ si eiste la diferencial de $f$ en $x_0$

$df_{x_0} : \mathbb{R} \rightarrow \mathbb{R}$ lineal.

$df_{x_0} (h) = f’ (x_0) h = m.h$ tal que

$\lim\limits_{h \to 0} \dfrac{f (x_0 + h) \, – \, f (x_0) \, – \, m.h}{h} = 0 $ ocurre si

$\lim\limits_{h \to 0} \dfrac{f (x_0 + h) \, – \, f (x_0) }{h} \, – \, m = 0 \; \; \dotsc (2)$

Observemos que, de $(1)$ y $(2)$

$ \lim\limits_{h \to 0} \dfrac{f (x_0 + h) \, – \, f (x_0) }{h} \, – \, f’ (x_0) = 0 = \lim\limits_{h \to 0} \dfrac{f (x_0 + h) \, – \, f (x_0) }{h} \, – \, m$

Luego $\dfrac{dy}{dx} = f’ (x_0)$ entonces $dy = f’ (x_0) dx$ y además «$h = dx$»

$\Delta y = f (x_0 + h) \, – \, f (x_0) $. También $dy \neq \Delta y$ pero se aproxima.

Tratando de generalizar

$f : \mathbb{R}^2 \rightarrow \mathbb{R}$

$f’ (\vec{x_0}) := \lim\limits_{\vec{h} \to \vec{0}} \dfrac{f (\vec{x_0} + \vec{h} \, – \, f (\vec{x_0}) }{\vec{h}}$

pero ¿cómo dividimos entre un vector? Una alternativa es la siguiente:

$\lim\limits_{h \to 0} \dfrac{f (x_0 + h) \, – \, f (x_0) \, – \, mh }{h} = 0 \iff \lim\limits_{h \to 0} \Bigg| \dfrac{f (x_0 + h) \, – \, f (x_0) \, – \, mh }{h} \Bigg| = 0 \iff \lim\limits_{h \to 0} \dfrac{\Big| f (x_0 + h) \, – \, f (x_0) \, – \, mh \Big|}{\big| h \big|} = 0 $

Otra vía de generalización

$\lim\limits_{\vec{h} \to \vec{0}} \dfrac{\Big\| f (\vec{x_0} + \vec{h} \, – \, f (\vec{x_0}) \, – \, \mathcal{M} \vec{h} \Big\|}{ \Big\| \vec{h} \Big\|} = 0$

$T (\vec{h}) = \mathcal{M} \vec{h}$ donde $\mathcal{M}$ es la matriz de derivadas parciales.

$T (\vec{h}) $ es la diferencial.

RECORDEMOS ALGUNAS COSAS DE CÁLCULO DE UNA VARIABLE

(*) La derivada es la pendiente de la recta tangente.

(*) La diferencial es la transformación lineal $h \rightarrow mh$, donde $m$ es la pendiente de la recta tangente.

(*) La recta tangente trasladada al origen está dada por $$ y = f (x_0) + f’ (x_0) (x \, – \, x_0)$$

Ahora bien para funciones de $\mathbb{R}^2 \rightarrow \mathbb{R}$ tenemos que:

(*) La derivada es el vector gradiente ( o el vector de derivadas parciales) $$\nabla f = \Big( \dfrac{\partial f}{\partial x}, \dfrac{\partial f}{\partial y} \Big)$$

(*) La diferencial es la función lineal $\mathbb{R}^2 \rightarrow \mathbb{R}$ tal que a cada $(h, k) \rightarrow \dfrac{\partial f}{\partial x} h \, + \, \dfrac{\partial f}{\partial y} k$

(*) El plano tangente está dado por la ecuación $$z = f (x_0, y_0) + \dfrac{\partial f}{\partial x} (x_0, y_0) (x \, – \, x_0) + \dfrac{\partial f}{\partial y}(x_0, y_0) (y \, – \, y_0)$$

donde $x \, – \, x_0 = h$ y $ y \, – \, y_0 = k.$

(*) La derivada direccional de $f$ en $(x_0, y_0)$ en la dirección del vector $\vec{u} = (\cos \theta, \sin \theta) $ es la pendiente de la recta tangente a la curva que resulta de cortar a la superficie $z = f (x, y)$ con el plano $(x \, – \, x_0 , y \, – \, y_0 , z \, – \, z_0) \cdot ( \, – \, \sin \theta, \cos \theta, 0 ) = 0$, donde $\vec{v} = ( \, – \, \sin \theta, \cos \theta )$, entonces la ecuación del plano es $$ – \, \sin \theta (x \, – \, x_0) + \cos \theta (y \, – \, y_0) = 0$$

Es decir, $\Big\{ (x, y, z) \in \mathbb{R}^3 \Big| – \, \sin \theta (x \, – \, x_0) + \cos \theta (y \, – \, y_0) = 0 \Big\} $ es un plano que pasa por el punto $ (x_0, y_0, z_0) $, donde $ z_0 = f (x_0, y_0) .$