Archivo de la etiqueta: campos escalares

Cálculo Diferencial e Integral III: Multiplicadores de Lagrange

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior buscábamos optimizar un campo escalar $f$. Retomaremos este problema, pero ahora agregando restricciones al dominio de $f$. Para ello hablaremos del método de los multiplicadores de Lagrange, el cual nos permitirá dar una solución bajo ciertas condiciones de diferenciabilidad.

Esto en general es lo mejor que podremos hacer. En realidad, los problemas de este estilo son muy difíciles y no tienen una solución absoluta. Si no tenemos las condiciones del teorema de Lagrange, es posible que se tengan que hacer cosas mucho más compliadas para obtener óptimos exactos, o bien que se tengan que hacer aproximaciones numéricas.

En la demostración del teorema de los multiplicadores de Lagrange usaremos el teorema de la función implícita, lo cual es evidencia adicional de lo importante y versátil que es este resultado.

Un ejemplo para motivar la teoría

Imagina que tenemos la función $f(x,y)=x^2+y^2$ y queremos encontrar su mínimo. Esto es muy fácil. El mínimo se da cuando $x=y=0$, pues en cualquier otro valor tenemos un número positivo. Pero, ¿Qué pasaría si además queremos que los pares $(x,y)$ que usamos satisfagan también otra condición?, por ejemplo, que cumplan $$2x^2+3y^2=10$$

En este caso, la respuesta ya no es obvia. Podríamos intentar encontrar el mínimo por inspección, pero suena que será difícil. Podríamos intentar usar la teoría de la entrada anterior, pero esa teoría no nos dice nada de qué hacer con nuestra condición.

La teoría que desarrollaremos a continuación nos permitirá respondernos preguntas de este estilo. En este ejemplo en concreto, puedes pensar que la solución se obtendrá de la siguiente manera: La ecuación $2x^2+3y^2=10$ nos dibuja una elipse en el plano, como se ve en la figura 1 imagen 3. Las curvas de nivel de la superficie dibujada por la gráfica de la función $f$ corresponden a circunferencias concéntricas, cuyo centro es el origen. Al ir tomando circunferencias cada vez mas grandes en el plano comenzando con el punto $(0,0)$ nos quedaremos con la primera que toque a la elipse, de hecho la tocará en dos puntos, digamos $(x_1 ,y_1)$ y $(x_2 ,y_2)$, donde $f(x_1 ,y_1)=f(x_2 ,y_2)$ sería el mínimo buscado, es decir el mínimo que sobre la superficie $f(x,y)$ cumple con la ecuación $2x^2+3y^2=10$.

Pero como ahí se da una tangencia, entonces suena que justo en ese punto $(x,y)$ hay una recta simultáneamente tangente a la curva de nivel y a la elipse. Esto nos da una relación entre gradientes. El teorema de multiplicadores de Lagrange detecta y enuncia esta relación entre gradientes con precisión y formalidad, incluso cuando tenemos más de una condición. A estas condiciones también las llamamos restricciones, y están dadas por ecuaciones.

Enunciado del teorema de multiplicadores de Lagrange

A continuación enunciamos el teorema.

Teorema (multiplicadores de Lagrange). Sea $f:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}$ es un campo escalar de clase $C^{1}$. Para $m<n$, tomamos $g_{1},\dots ,g_{m}:S\in \subset \mathbb{R}^{n}\rightarrow \mathbb{R}$ campos escalares de clase $C^{1}$ en $S$. Consideremos el conjunto $S^\ast$ donde todos los $g_i$ se anulan, es decir:

$$S^\ast=\{ \bar{x}\in S|g_{1}(\bar{x})=g_2(\bar{x})=\ldots=g_m(\bar{x})=0\}.$$

Tomemos un $\bar{x}_0$ en $S^\ast$ para el cual

  1. $f$ tiene un extremo local en $\bar{x}_0$ para los puntos de $S^\ast$ y
  2. $\triangledown g_{1}(\bar{x}_{0}),\dots ,\triangledown g_{m}(\bar{x}_{0})$ son linealmente independientes.

Entonces existen $\lambda _{1},\dots ,\lambda _{m}\in \mathbb{R}$, a los que llamamos multiplicadores de Lagrange tales que:

\[ \triangledown f(\bar{x}_{0})=\lambda _{1}\triangledown g_{1}(\bar{x}_{0})+\dots +\lambda _{m}\triangledown g_{m}(\bar{x}_{0}).\]

Si lo meditas un poco, al tomar $m=1$ obtenemos una situación como la del ejemplo motivador. En este caso, la conclusión es que $\triangledown f(\bar{x}_0)=\lambda \triangledown g(\bar{x}_0)$, que justo nos dice que en $\bar{x}_0$, las gráficas de los campos escalares $f$ y $g$ tienen una tangente en común.

Demostración del teorema de multiplicadores de Lagrange

Demostración. La demostración del teorema de multiplicadores de Lagrange usa varios argumentos de álgebra lineal. Esto tiene sentido, pues a final de cuentas, lo que queremos hacer es poner un gradiente ($\triangledown f(\bar{x}_0)$) como combinación lineal de otros gradientes ($\triangledown g_1(\bar{x}_0),\ldots, \triangledown g_m(\bar{x}_0)$). A grandes rasgos, lo que haremos es:

  • Definir un espacio $W$.
  • Mostrar que $\triangledown g_1(\bar{x}_0),\ldots, \triangledown g_m(\bar{x}_0)$ generan al espacio ortogonal $W^\bot$.
  • Mostrar que $\triangledown f(\bar{x}_0)$ es ortogonal a todo vector de $W$, por lo cual estará en $W^\bot$ y así por el inciso anterior será combinación lineal de $\triangledown g_1(\bar{x}_0),\ldots, \triangledown g_m(\bar{x}_0)$.

Para construir el espacio $W$ del que hablamos, usaremos el teorema de la función implícita y la regla de la cadena. Empecemos este argumento. Consideremos la siguiente matriz:

\[ \begin{equation} \begin{pmatrix} \frac{\partial g_{1}}{\partial x_{1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{1}}{\partial x_{m}}(\bar{x}_{0}) & \frac{\partial g_{1}}{\partial x_{m+1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{1}}{\partial x_{n}}(\bar{x}_{0}) \\ \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ \frac{\partial g_{m}}{\partial x_{1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{m}}{\partial x_{m}}(\bar{x}_{0}) & \frac{\partial g_{m}}{\partial x_{m+1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{1}}{\partial x_{n}}(\bar{x}_{0}) \end{pmatrix}. \end{equation}\]

Dado que los vectores $\triangledown g_1(\bar{x}_0),\ldots, \triangledown g_m(\bar{x}_0)$ son linealmente independientes, el rango por renglones de esta matriz es $m$, de modo que su rango por columnas también es $m$ (tarea moral). Sin perder generalidad (quizás tras hacer una permutación de columnas, que permuta las entradas), tenemos que las primeras $m$ columnas son linealmente independientes. Así, la matriz

\[ \begin{pmatrix} \frac{\partial g_{1}}{\partial x_{1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{1}}{\partial x_{m}}(\bar{x}_{0}) \\ \vdots & \ddots & \vdots \\ \frac{\partial g_{m}}{\partial x_{1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{m}}{\partial x_{m}}(\bar{x}_{0}) \end{pmatrix}\]

es invertible. Hagamos $l=n-m$ y reetiquetemos las variables coordenadas $x_1,\ldots,x_m$ como $v_1,\ldots,v_m$, y las variables coordenadas $x_{m+1},\ldots,x_n$ como $u_1,\ldots, u_l$. Escribiremos $\bar{x}_0=(\bar{v}_0,\bar{u}_0)$ para referirnos al punto al que hacen referencia las hipótesis. Esto nos permite pensar $\mathbb{R}^{n}=\mathbb{R}^{m}\times \mathbb{R}^{l}$ y nos deja en el contexto del teorema de la función implícita. Como la matriz anterior es invertible, existen $U\subseteq \mathbb{R}^l$ y $V\subseteq \mathbb{R}^m$ para los cuales $\bar{u}_0\in U$, $\bar{v}_0\in V$ y hay una única función $h=(h_1,\ldots,h_m):U\to V$ de clase $C^1$ tal que para $\bar{u}\in U$ y $\bar{v}\in V$ se cumple que $g(\bar{v},\bar{u})=0$ si y sólo si $\bar{v}=h(\bar{u})$.

Definamos ahora la función $H:U\subseteq \mathbb{R}^{l}\rightarrow \mathbb{R}^{m}\times \mathbb{R}^{l}$ como $H(\bar{u})=(h(\bar{u}),\bar{u})$, la cual es de clase $C^{1}$ en $U$.

Por cómo construimos $h$, sucede que $(h(\bar{u}),\bar{u})\in S^{*}$ para toda $\bar{u}\in U$. Por definición, esto quiere decir que para toda $i=1,\ldots,m$ tenemos que $$(g_{i}\circ H)(\bar{u})=0$$ para toda $\bar{u}\in U$. Esto quiere decir que $g_i\circ H$ es una función constante y por lo tanto su derivada en $\bar{u}_0$ es la transformación $0$. Pero otra forma de obtener la derivada es mediante la regla de la cadena como sigue:

\begin{align*} D(g_{i}\circ H)(\bar{u}_{0})&=Dg_{i}(H(\bar{u}_{0}))DH(\bar{u}_{0})\\ &=Dg_{i}(\bar{v}_{0},\bar{u}_{0})DH(\bar{u}_{0}).\end{align*}

En términos matriciales, tenemos entonces que el siguiente producto matricial es igual al vector $(0,\ldots,0)$ de $l$ entradas (evitamos poner $(\bar{v}_0,\bar{u}_0)$ para simplificar la notación):

\[ \begin{equation}\begin{pmatrix} \frac{\partial g_{i}}{\partial v_{1}}& \dots & \frac{\partial g_{i}}{\partial v_{m}} & \frac{\partial g_{i}}{\partial u_{1}} & \dots & \frac{\partial g_{i}}{\partial u_{l}} \end{pmatrix}\begin{pmatrix} \frac{\partial h_{1}}{\partial u_{1}} & \dots & \frac{\partial h_{1}}{\partial u_{l}} \\ \vdots & \ddots & \vdots \\ \frac{\partial h_{m}}{\partial u_{1}} & \dots & \frac{\partial h_{m}}{\partial u_{l}} \\ 1 & \dots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \dots & 1 \end{pmatrix}\end{equation},\]

para cada $i=1,\ldots, m$. Nos gustaría escribir esta conclusión de manera un poco más sencilla, para lo cual introducimos los siguientes vectores para cada $j=1,\ldots, l$:

\[ \bar{w}_{j}=\left( \left( \frac{\partial h_{1}}{\partial u_{j}}(\bar{u}_{0}),\dots ,\frac{\partial h_{m}}{\partial u_{j}}(\bar{u}_{0}) \right), \hat{e}_{j}\right).\]

Cada uno de estos lo pensamos como vector en $\mathbb{R}^m\times \mathbb{R}^l$. Además, son $l$ vectores linealmente independientes, pues sus entradas $\hat{e}_j$ son linealmente independientes. El espacio vectorial $W$ que generan es entonces un subespacio de $\mathbb{R}^m\times \mathbb{R}^l$, con $\dim(W)=l$.

De la ecuación $(2)$ tenemos que $\triangledown g_{i}(\bar{v}_{0},\bar{u}_{0})\cdot \bar{w}_{j}=0$ para todo $i=1,\dots ,m$, y $j=1,\dots ,l$. Se sigue que $\triangledown g_{i}(\bar{v}_{0},\bar{u}_{0})\in W^{\perp}$, donde $W^{\perp}$ es el complemento ortogonal de $W$ en $\mathbb{R}^{m}\times \mathbb{R}^{l}$. Pero además, por propiedades de espacios ortogonales tenemos que

\begin{align*}
\dim(W^{\perp})&=\dim(\mathbb{R}^{m}\times \mathbb{R}^{l})-dim(W)\\
&=m+l-l\\
&=m.
\end{align*}

Así $\dim(W^{\perp})=m$, además el conjunto $\left\{ \triangledown g_{i}(\bar{v}_{0},\bar{u}_{0}) \right\}_{i=1}^{m}$ es linealmente independiente con $m$ elementos, por tanto este conjunto es una base para $W^{\perp}$. Nuestra demostración estará terminada si logramos demostrar que $\triangledown f(\bar{v}_0,\bar{u}_0)$ también está en $W^\perp$, es decir, que es ortogonal a todo elemento de $W$.

Pensemos qué pasa al componer $f$ con $H$ en el punto $\bar{u}_0$. Afirmamos que $\bar{u}_0$ es un extremo local de $f\circ H$. En efecto, $(f\circ H)(\bar{u}_0)=f(g(\bar{u}_0),\bar{u}_0)=(\bar{v}_0,\bar{u}_0)$. Si, por ejemplo $(\bar{v}_0,\bar{u}_0)$ diera un máximo, entonces los valores $f(\bar{v},\bar{u})$ para $(\bar{v},\bar{u})$ dentro de cierta bola $B_\delta(\bar{v}_0,\bar{u}_0)$ serían menores a $f(\bar{v}_0,\bar{u}_0)$. Pero entonces los valores cercanos $\bar{u}$ a $\bar{u}_0$ cumplen $(f\circ H)(\bar{u})=f(h(\bar{u}),\bar{u})$, con $(\bar{u},h(\bar{u}))$ en $S^\ast$ y por lo tanto menor a $f(\bar{v}_0,\bar{u}_0)$ (para mínimos es análogo).

Resumiendo lo anterior, $\bar{u}_{0}$ es extremo local de $f\circ H$. Aplicando lo que aprendimos en la entrada anterior, la derivada de $f\circ H$ debe anularse en $\bar{u}_0$. Pero por regla de la cadena, dicha derivada es

\begin{align*}\triangledown (f\circ H)(\bar{u}_{0})&=D(f\circ H)(\bar{u}_{0})\\ &=Df(H(\bar{u}_{0}))DH(\bar{u}_{0})\\ &=Df(h(\bar{u}_{0}),\bar{u}_{0})DH(\bar{u}_{0})\\
&=Df(\bar{v}_0,\bar{u}_{0})DH(\bar{u}_{0})
\end{align*}

Viéndolo como multiplicación de matrices, el siguiente producto es el vector $(0,0,\ldots,0)$ de $l$ entradas:

\[ \begin{pmatrix} \frac{\partial f}{\partial v_{1}} & \dots & \frac{\partial f}{\partial v_{m}} & \frac{\partial f}{\partial u_{1}} & \dots & \frac{\partial f}{\partial u_{l}} \end{pmatrix}\begin{pmatrix} \frac{\partial h_{1}}{\partial u_{1}} & \dots & \frac{\partial h_{1}}{\partial u_{l}} \\ \vdots & \ddots & \vdots \\ \frac{\partial h_{m}}{\partial u_{1}} & \dots & \frac{\partial h_{m}}{\partial u_{l}} \\ 1 & \dots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \dots & 1 \end{pmatrix}=0 \]

De donde concluimos $\triangledown f(\bar{v}_{0},\bar{u}_{0})\cdot \bar{w}_{j}=0$ para cada $j=1,\dots l$. Esto precisamente nos dice que $\triangledown f(\bar{v}_{0},\bar{u}_{0})\in W^{\perp}$. Esto es justo lo que queríamos, pues habíamos demostrado que $\left\{ \triangledown g_{i}(\bar{v}_{0},\bar{u}_{0}) \right\}_{i=1}^{m}$ es una base de $W^{\perp}$. Por ello podemos expresar a $\triangledown f(\bar{v}_{0},\bar{u}_{0})$ como combinación lineal de esta base, es decir, existen $\lambda _{1},\dots ,\lambda _{m}$ escalares tales que:

\[ \triangledown f(\bar{v}_{0},\bar{u}_{0})=\lambda _{1}\triangledown g_{1}(\bar{v}_{0},\bar{u}_{0})+\dots +\lambda _{m}\triangledown g_{m}(\bar{v}_{0},\bar{u}_{0}). \]

$\square$

¡Qué bonita demostración! Usamos el teorema de la función implícita, la regla de la cadena (dos veces), nuestros resultados para valores extremos de la entrada anterior, y un análisis cuidadoso de ciertos espacios vectoriales.

Ejemplos del método de multiplicadores de Lagrange

Veamos algunos problemas que podemos resolver con esta nueva herramienta.

Ejemplo. Determinaremos los puntos extremos de $f(x,y)=x+2y$ bajo la condición $x^{2}+y^{2}=5$. Para poner todo en términos de nuestro teorema, definimos $g(x,y)=x^{2}+y^{2}-5$. Por el teorema de multiplicadores de Lagrange, en los puntos extremos debe existir una $\lambda$ tal que $\triangledown f(x,y)=\lambda \triangledown g(x,y)$. Calculando las parciales correspondientes, debemos tener entonces

\[ \left( 1,2 \right)=\lambda \left( 2x,2y \right).\]

Adicionalmente, recordemos que se debe satisfaces $g(x,y)=0$. Llegamos entonces al sistema de ecuaciones

\[ \left \{\begin{matrix} 1-2x\lambda=0 \\ 2-2y\lambda =0 \\ x^{2}+y^{2}-5=0 \end{matrix}\right. \]

Al despejar $x$ y $y$ en ambas ecuaciones tenemos:

\[ \begin{matrix} x=\frac{1}{2\lambda} \\ y=\frac{1}{\lambda} \\ x^{2}+y^{2}-5=0 \end{matrix}.\]

Poniendo los valores de $x$ y $y$ en la tercera ecuación, llegamos a $\left( \frac{1}{2\lambda}\right)^{2}+\left( \frac{1}{\lambda}\right)^{2}-5=0$, de donde al resolver tenemos las soluciones $\lambda _{1}=\frac{1}{2}$ y $\lambda _{2}=-\frac{1}{2}$.

Al sustituir en las ecuaciones de nuestro sistema, obtenemos como puntos críticos a $(x,y)=(-1,-2)$ y $(x,y)=(1,2)$.

Si intentamos calcular el hessiano de $f$, esto no nos dirá nada (no tendremos eigenvalores sólo positivos, ni sólo negativos). Pero esto ignora las restricciones que nos dieron. Podemos hacer una figura para entender si estos puntos son máximos o mínimos. En la Figura $1$ tenemos la gráfica de $f$, intersectada con la superfice dada por $g$. Nos damos cuenta que hay un punto máximo y uno mínimo. Al evaluar, obtenemos $f(1,2)=5$ y $f(-1,-2)=-5$. Esto nos dice que el máximo en la superficie se alcanza en $(1,2)$ y el mínimo en $(-1,-2)$.

Figura 2: Ilustración del Ejemplo 1 la función $g(x,y)=x^{2}+y^{2}-5$ esta dibujada en azul esta impone restricción a la función $f$ que dibuja un plano en el espacio.

$\triangle$

Ejemplo. Veamos cómo minimizar la expresión $$f(x,y,z)=x^{2}+y^{2}+z^{2}$$ sujetos a la condición $x+y+z=1$. Una vez más, proponemos $g(x,y,z)=x+y+z-1$ para tener la situación del teorema de multiplicadores de Lagrange. Debe pasar que $\lambda$ $\triangledown f(x,y,z)=\lambda \triangledown g(x,y,z)$. El gradiente de $g(x,y,z)$ es de puros ceros unos, así que tenemos el sistema de ecuaciones:

\[ \left \{\begin{matrix} 2x=\lambda \\ 2y=\lambda \\ 2z=\lambda \\ x+y+z-1=0 \end{matrix}\right.\]

De las primeras tres ecuaciones tenemos $2x=2y=2z$ de donde $x=y=z$. Sustituyendo en la tercera ecuación, $3x-1=0$, es decir $x=y=z=\frac{1}{3}$. Ya que sólo tenemos una solución, ésta es el mínimo del conjunto de soluciones. En la figura 3 tenemos la ilustración de la solución de este problema, la esfera centrada en el origen de radio $\frac{1}{3}$ toca al plano $x+y+z=1$ en el punto $\left( \frac{1}{3},\frac{1}{3},\frac{1}{3}\right)$

$\triangle$

Figura 3: En azul claro el plano $x+y+z=1$, inflamos esferas centradas en el origen; desde la de radio cero vamos aumentando el radio hasta tener el radio correspondiente para el cual la esfera toque tangentemente al plano.

Más adelante…

Con esta entrada cerramos el curso de Cálculo Diferencial e Integral III. ¡¡Felicidades!! Esperamos que todas estas notas te hayan sido de ayuda para estudiar, repasar o impartir la materia. Quedamos al pendiente de cualquier duda, observación o sugerencia en la sección de comentarios de las entradas.

Tarea moral

  1. Determina los extremos de la función $f(x,y)=xy+14$ bajo la restricción $x^{2}+y^{2}=18$
  2. El plano $x+y+2z=2$ interseca al paraboloide $z=x^{2}+y^{2}$ en una elipse $\mathbb{E}$. Determina el punto de la elipse con el valor mayor en el eje $z$, y el punto con el valor mínimo en el mismo eje. Sugerencia: $f(x,y,z)=x+y+2z-2$, y $g(x,y,z)=x^{2}+y^{2}-z$
  3. Determinar el máximo valor de $f(x,y,z)=x^{2}+36xy-4y^{2}-18x+8y$ bajo la restricción $3x+4y=32$
  4. Determinar los puntos extremos de la función $f(x,y,z)=x^{2}+y^{2}+z^{2}$ bajo la restricción $xyz=4$
  5. Demuestra que en una matriz $M$ su rango por columnas es igual a su rango por renglones. Sugerencia. Usa el teorema de reducción gaussiana. También, puedes revisar la entrada que tenemos sobre rango de matrices.

Entradas relacionadas

Cálculo Diferencial e Integral III: Derivadas parciales de segundo orden

Por Alejandro Antonio Estrada Franco

Introducción

En las entradas anteriores definimos qué quiere decir que un campo escalar sea diferenciable. Así mismo, definimos las derivadas parciales y el gradiente. Ya usamos estas herramientas para hablar de dirección de cambio máximo y de puntos críticos. Además demostramos una versión del teorema del valor medio para este caso, lo que nos permitió poner un poco de orden a nuestra teoría: una función es diferenciable en un punto cuando existen sus parciales en ese punto y son continuas. Es momento de hablar de derivadas parciales de segundo orden. Cualquiera de las derivadas parciales es por sí misma un campo escalar, así que podemos preguntarnos si tiene o no sus propias derivadas parciales. Exploraremos esta idea.

Derivadas parciales de segundo orden

Las derivadas parciales de un campo escalar $f$ nos originan nuevos campos escalares. Supongamos que $f:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}$ es un campo escalar para el cual existe la $k$-ésima derivada parcial en un conjunto abierto $S’\subseteq S$. Entonces, obtenemos un nuevo campo escalar $\frac{\partial f}{\partial x_{k}}:S’\rightarrow \mathbb{R}$.

Este campo escalar puede o no tener $j$-ésima derivada parcial. Suponiendo que la tiene en algún $U\subseteq S’$ podríamos escribirla como

$$\frac{\partial\left(\frac{\partial f}{\partial x_k}\right)}{\partial x_j}.$$

Sin embargo, esta notación es engorrosa, y por ello optamos o bien por escribir la expresión como sigue

\[ \frac{\partial}{\partial x_{j}}\left( \frac{\partial f}{\partial x_{k}}\right)\]

o todavía más compacto, como

\[ \frac{\partial ^{2}f}{\partial x_{j}\partial x_{k}}.\]

A esto le llamamos una derivada parcial de segundo orden. Si $j=k$, introducimos la notación

\[ \frac{\partial ^{2}f }{\partial x_{k}^{2}}.\]

Las derivadas parciales de segundo orden vuelven a ser, una vez más, cada una de ellas un campo escalar. Esto permite seguir iterando la idea: podríamos hablar de derivadas parciales de segundo, tercero, cuarto, … , $k$-ésimo, … orden. Daremos una definición un poco más formal en una siguente entrada, pero por ahora trabajemos en entender a las derivadas parciales de segundo orden.

Un ejemplo de derivadas parciales de segundo orden

Ejemplo. Consideremos el campo escalar $f(x,y,z)=x^{2}yz$. Para este campo escalar tenemos que sus derivadas parciales con respecto a $x$, $y$ y $z$ son:

\begin{align*}
\frac{\partial f}{\partial x}(x,y,z)&=2xyz,\\
\frac{\partial f}{\partial y}(x,y,z)&=x^{2}z\\
\frac{\partial f}{\partial z}(x,y,z)&=x^{2}y.
\end{align*}

Cada una de estas expresiones es a su vez un campo escalar. Cada una de ellas es derivable con respecto a $x$ en todo $\mathbb{R}^3$. Al derivarlas con respecto a $x$ obtenemos:

\begin{align*}
\frac{\partial ^{2}f}{\partial x^{2}}(x,y,z)&=2yz,\\
\frac{\partial ^{2}f}{\partial x\partial y}(x,y,z)&=2xz,\\
\frac{\partial ^{2}f}{\partial x\partial z}(x,y,z)&=2xy.
\end{align*}

Por otro lado, las derivadas parciales de primer orden también podríamos haberlas derivado con respecto a $y$. En este caso, hubieramos obtenido.

\begin{align*}
\frac{\partial ^{2}f}{\partial y \partial x}(x,y,z)&=2xz,\\
\frac{\partial ^{2}f}{\partial y ^2}(x,y,z)&=0,\\
\frac{\partial ^{2}f}{\partial y\partial z}(x,y,z)&=x^2.
\end{align*}

También podríamos derivar a las derivadas parciales de primer orden con respecto a $z$ para obtener las tres derivadas de orden dos faltantes. En total tenemos tres derivadas parciales de primer orden y nueve derivadas parciales de segundo orden.

$\triangle$

Igualdad de las derivadas parciales de segundo orden mixtas

En numerosos campos escalares de interés tenemos una propiedad muy peculiar: que los operadores «obtener la derivada parcial con respecto a $x$» y «obtener la derivada parcial con respecto a $y$» conmutan. Es decir, varias veces podemos intercambiar el orden de derivación de las parciales y obtener el mismo resultado. En el ejemplo anterior quizás hayas notado que

\[ \frac{\partial ^{2}f}{\partial y\partial x}=2xz=\frac{\partial ^{2}f}{\partial x\partial y}.\]

Esto no siempre pasa, pero hay criterios de suficiencia sencillos de verificar. Por ejemplo, basta que las parciales mixtas existan y sean continuas para que sean iguales. El siguiente teorema formaliza el resultado.

Teorema. Sea $f:S\subseteq \mathbb{R}^{2}\rightarrow \mathbb{R}$ un campo escalar tal que las derivadas parciales $\frac{\partial f}{\partial x}$, $\frac{\partial f}{\partial y}$, $\frac{\partial^{2} f}{\partial y\partial x}$, $\frac{\partial ^{2}f}{\partial x\partial y}$ existen en un conjunto abierto $U$. Si $(a,b)\in U$ es tal que $\frac{\partial^{2} f}{\partial y\partial x}$, $\frac{\partial ^{2}f}{\partial x\partial y}$ son continuas en $(a,b)$, entonces dichas derivadas mixtas de segundo orden son iguales en $(a,b)$.

Demostración. Sean $h,k\neq 0$ suficientemente chicos para que los puntos en el plano $(a,b)$, $(a,b+k)$, $(a+h,b)$, y $(a+h,b+k)$ estén en $U$.

Definamos la función $\Gamma (x)=f(x,b+k)-f(x,b)$ para $x\in [a,a+h]$ y definamos

\begin{equation} \Delta (h,k)=\Gamma (a+h)-\Gamma (a).\end{equation}

Notemos que $\Gamma$ es una función de $\mathbb{R}$ en $\mathbb{R}$ cuya derivada es $$\Gamma'(x)=\frac{\partial f}{\partial x}(x,b+k)-\frac{\partial f}{\partial x}(x,b).$$ Así, se le puede aplicar el teorema del valor medio con extremos en $a$ y $a+h$ para concluir que existe $\xi _{1}\in [a,a+h]$ que nos permite escribir $\Delta(h,k)$ de la siguiente manera:

\begin{align*}
\Delta(h,k)&=\Gamma (a+h)-\Gamma (a)\\
&= h\Gamma'(\xi _{1})\\
&=h\left[ \frac{\partial f}{\partial x}(\xi _{1},b+k)-\frac{\partial f}{\partial x}(\xi _{1},b) \right]
\end{align*}

Ahora podemos aplicar el teorema del valor medio en la función $y\mapsto \frac{\partial f}{\partial x} (\xi _{1},y)$ con extremos $b$ y $b+k$. Esto nos permite continuar la cadena de igualdades anterior mediante un $\eta _{1}\in [b,b+k]$ que cumple

\begin{equation}\label{eq:primerdelta} \Delta (h,k)=hk\frac{\partial ^{2}f}{\partial y\partial x}(\xi _{1},\eta _{1}).\end{equation}

Como $(\xi _{1},\eta _{1})\in [a,a+h]\times[b,b+k]$, se tiene que $(\xi _{1},\eta _{1})\to (a,b)$ conforme $(h,k)\to \bar{0}$.

Ahora consideremos análogamente a la función $\varLambda (y)=f(a+h,y)-f(a,y)$. Mediante un procedimiento similar al que acabamos de hacer, pero aplicado a $\varLambda$ en vez de a $\Gamma$, se tiene otra forma de expresar a $\Delta(h,k)$:

\begin{equation}\label{eq:segundodelta}\Delta(h,k)=hk\frac{\partial ^{2} f}{\partial x\partial y}(\xi _{2},\eta _{2}),\end{equation} donde $(\xi _{2},\eta _{2})\in [a,a+h]\times[b,b+k]$. Nuevamente, $(\xi _{2},\eta _{2})\to (a,b)$ conforme $(h,k)\to (0,0)$.

Igualando las expresiones en \eqref{eq:primerdelta} y \eqref{eq:segundodelta}, tenemos lo siguiente:

\[ \frac{\partial f}{\partial y\partial x}(\xi _{1},\eta _{1})=\frac{\partial f}{\partial x\partial y}(\xi _{2},\eta _{2}).\]

El resultado se sigue de hacer tender $(h,k)\to (0,0)$, ya que dado que las derivadas parciales les estamos pidiendo que sean continuas, tenemos que:

\begin{align*}
\frac{\partial ^{2} f}{\partial y\partial x}(a,b)&=\lim\limits_{(h,k)\to (0,0)}\frac{\partial ^{2} f}{\partial y\partial x}(\xi _{1},\eta _{1})\\
&=\lim\limits_{(h,k)\to (0,0)}\frac{\partial ^{2}f}{\partial x\partial y}(\xi _{2},\eta _{2})\\
&=\frac{\partial ^{2}f}{\partial x\partial y}(a,b).
\end{align*}

Así concluimos nuestro resultado.

$\square$

Más adelante…

En esta entrada hablamos de las derivadas parciales de segundo orden y vimos que bajo condiciones razonables podemos elegir las variables de derivación en el orden que queramos. Estas ideas son más generales, y a continuación nos llevarán a definir las derivadas parciales de cualquier orden $k$. Después, usaremos estas derivadas parciales para generalizar otro de los teoremas de cálculo unidimensional: el teorema de Taylor.

Tarea moral

  1. Para las siguientes funciones calcula $\frac{\partial ^{2}f}{\partial x^{2}}$:
    • $f(x,y)=x^{2}+y^{2}cos(xy)$
    • $f(x,y)=e^{x}cos(y)$
    • $f(x,y,z)=\textup{log}(x^{2}+2y^{2}-3z^{2})$
  2. En el teorema que afirma que las derivadas parciales mixtas son iguales usamos cuatro veces el teorema del valor medio (¿cuáles 4 son?). Asegúrate de que en verdad lo podamos usar.
  3. Calcula $\frac{\partial ^{2}f}{\partial y^{2}}$, y $\frac{\partial ^{2}f}{\partial x\partial y}$ para las funciones del punto 1. Explica por qué no es necesario calcular de manera separada $\frac{\partial ^{2}f}{\partial y\partial x}$
  4. Investiga de un ejemplo en el que las derivadas parciales $\frac{\partial ^{2}f}{\partial x\partial y}$ y $\frac{\partial ^{2}f}{\partial y\partial x}$ no sean iguales. Realiza las cuentas para verificar que en efecto tienen valores distintos en algún punto.
  5. El teorema que enunciamos está muy limitado. Sólo nos habla de campos escalares de $\mathbb{R}^2$ en $\mathbb{R}$. Sin embargo, debería también funcionar si $f:\mathbb{R}^n\to \mathbb{R}$. Enuncia y demuestra un resultado similar que te permita garantizar que $$\frac{\partial^{2} f}{\partial x_i\partial x_j}=\frac{\partial ^{2}f}{\partial x_j\partial x_i}.$$

Entradas relacionadas

Cálculo Diferencial e Integral III: Polinomio de Taylor para campos escalares

Por Alejandro Antonio Estrada Franco

Introducción

Una intuición que se obtiene de un primer curso de cálculo diferencial e integral es que las funciones que tienen muchas derivadas «se parecen mucho a polinomios», en el sentido de que podemos aproximarlas apropiadamente con este tipo de expresiones. Esta intuición nos las da el teorema del polinomio de Taylor. En muchas aplicaciones, es conveniente estudiar polinomios en vez de funciones en general, así que sería ideal tener una versión de este mismo resultado para cálculo de varias variables. En esta entrada recordaremos un poco del caso unidimensional y luego enunciaremos la teoría correspondiente para el polinomio de Taylor.

Recordatorio de polinomio de Taylor en $\mathbb{R}$

Recordemos qué es lo que dice el teorema del polinomio de Taylor para el caso unidimensional. Esto nos ayudará pues lo usaremos posteriormente para enunciar una versión para varias variables.

Teorema. Sea $f:S\subseteq \mathbb{R}\to \mathbb{R}$ una función y $a\in int(S)$ de tal manera que existen $f^{\prime}(a),\dots ,f^{(k)}(a)$. Sea $$a_{\ell}=\frac{f^{(\ell)}(a)}{\ell!}$$ con $0\leq \ell \leq k$ y definamos a partir de esto $$T_{k,a}(x)=a_{0}+a_{1}(x-a)+\dots +a_{k}(x-a)^k,$$

al que llamamos el polinomio de Taylor de $f$ de grado $k$ alrededor de $a$.

Entonces $$\lim_{x \to a}\frac{f(x)-T_{k,a}(x)}{(x-a)^k}=0.$$

La demostración de este teorema la puedes encontrar en la entrada El Polinomio de Taylor (Parte 1) del curso de Cálculo I. Es recomendable que consultes esta entrada para recordar todo lo referente a este tema en una variable real.

Pidiendo un poco más de regularidad, se puede estudiar el residuo $$R_{k,a}(x):=f(x)-T_{k,a}(x).$$

Por ejemplo, se puede demostrar el siguiente teorema.

Teorema. Sea $f:S\subseteq \mathbb{R}\to\mathbb{R}$. Supongamos que $f^{\prime},\dots ,f^{(k+1)}$ están definidas sobre $[a,x]$. Entonces, se puede expresar el residuo del teorema de Taylor como

\begin{equation}
\label{eq:residuo}
R_{k,a}(x)=\frac{f^{(k+1)}(\xi)}{(k+1)!}(x-a)^{k+1}.
\end{equation}

para algún $\xi\in[a,x]$.

Para la demostración de este teorema y otras expresiones del residuo (por ejemplo, una expresión en términos de integrales), puedes visitar el curso de Cálculo II, en particular la entrada Series de Taylor y de Maclaurin.

Pensemos de momento que $f$ tiene derivadas parciales de todos los órdenes (es decir, que es $C^\infty$). En este caso, $f$ tiene polinomios de Taylor de todos los grados. De entrada, no tendría por qué suceder que $\lim_{k\to \infty} T_{k,a}(x)=f(x)$, y de hecho hay contraejemplos para ello. Pero si además tenemos que se tiene $\lim_{k \to \infty}R_{k,a}(x)=0$, entonces la igualdad anterior sí se cumple. En este caso, verdaderamente $f$ se puede expresar como un polinomio infinito (una serie de potencias) alrededor de $a$ de la siguiente manera:

\begin{equation}\label{eq:taylor-inf}f(x)=\sum_{i=0}^{\infty}\frac{f^{(i)}(a)}{i!}(x-a)^{i}.\end{equation}

Ejemplo. Calculemos en $0$ el polinomio de Taylor de $f(x)=e^x$. Para cada entero positivo $k$ se tiene:

$$\frac{f^{(k)}(0)}{k!}x^{k}=\frac{e^0}{k!}x^{k}=\frac{x^{k}}{k!}.$$

De aquí, por la forma que toma el residuo, existe $\xi\in [0,x]$ para el cual

$$R_{k,0}(x)=\frac{e^\xi}{(k+1)!}x^{k+1}.$$

aquí $e^\xi$ está acotado y el cociente $\frac{x^{k+1}}{(k+1)!}$ se va a cero conforme $k\to \infty$. De este modo, tenemos la igualdad

$$e^x=1+\frac{x}{1}+\frac{x^2}{2!}+\frac{x^3}{3!}+\frac{x^4}{4!}+\frac{x^5}{5!}+\dots.$$

$\triangle$

Preliminares para polinomio de Taylor para campos escalares

La manera en la cual generalizaremos el teorema del polinomio de Taylor será a través de evaluar nuestro campo escalar sobre un segmento, muy parecido a como generalizamos el teorema del valor medio. Pongamos la situación en contexto.

Tomemos un abierto $S\subseteq \mathbb{R}^n$ y un campo escalar $f:S\to \mathbb{R}$. Tomemos vectores
\begin{align*}
\bar{a}=(a_1,\ldots,a_n)\\
\bar{v}=(v_1,\ldots,v_n),
\end{align*}

y $t$ en el intervalo $[0,1]$. Supondremos además que para todo dicho $t$ se cumple $\bar{a}+t\bar{v}\in S$.

Podemos recorrer el segmento de $\bar{a}$ a $\bar{a}+\bar{v}$ mediante la trayectoria $\gamma : [0,1] \to \mathbb{R}^{n}$ dada por $\gamma (t)=\bar{a}+t\bar{v}$. Si componemos a esta trayectoria con la función $f$, obtenemos una función $G: [0,1] \to \mathbb{R}$ dada por $$G(t)=(f\circ \gamma )(t)=f(\bar{a}+t\bar{v}).$$

Por la hipótesis de diferenciabilidad de $f$, es una función derivable de una variable real. Por la regla de la cadena su derivada está dada por la siguiente expresión:

\begin{align*}
G^{\prime}(t)&=v_{1}\frac{\partial f}{\partial x_{1}}(\bar{a}+t\bar{v})+\dots +v_n\frac{\partial f}{\partial x_n}(\bar{a}+t\bar{v})
\end{align*}

Vamos a introducir una notación muy usada y útil para el desarrollo que estamos haciendo. Definiremos un operador con la expresión anterior simplemente como

\[ G^{\prime}(t)=(\bar{v}\cdot \triangledown )f(\bar{a}+t\bar{v}).\]

Esta expresión no se sigue de manera tan formal de cosas que hemos hecho antes, pero observa que tiene sentido. En la expresión $\bar{v}\cdot \triangledown$ estamos haciendo algo así como un «producto punto de operadores». En el fondo, este operador manda a cada función diferenciable $f$ a su derivada direccional en la dirección de $\bar{v}$.

Para poder hablar de Taylor, necesitamos derivar iteradamente. Podemos entonces tomar ahora $G’$ y derivarla nuevamente, de donde obtendríamos

\begin{align*}
G^{\prime \prime} (t) &= (\bar{v}\cdot \triangledown) G'(\bar{a}+t\bar{v})\\
&=(\bar{v}\cdot \triangledown)\left((\bar{v}\cdot \triangledown)f(\bar{a}+t\bar{v})\right)\\
&=\left((\bar{v}\cdot \triangledown)(\bar{v}\cdot \triangledown)\right) f(\bar{a}+t\bar{v}).
\end{align*}

Es importante que medites en por qué se da la redistribución de paréntesis que hicimos en la última igualdad. Simplificaremos la expresión $(\bar{v}\cdot \triangledown)(\bar{v}\cdot \triangledown )$ como $(\bar{v}\cdot \triangledown)^2$, y de manera similar definimos $(\bar{v}\cdot \triangledown)^k$ como componer el operador $k$ veces. Continuando como arriba, bajo las hipótesis adecuadas de diferenciabilidad llegamos al siguiente resultado.

Proposición. Sea $k$ un entero positivo y $f:S\subseteq \mathbb{R}^{n}\to \mathbb{R}$ con $S$ abierto y derivadas parciales continuas de orden $1,2,\ldots,k$. Sea $\bar{a}\in S$, y $\bar{v}$ un vector tal que $\bar{a}+t\bar{v}\in S$ para todo $t\in [0,1]$. Entonces:

\begin{equation}\label{eq:iteradas}\left( \frac{d}{dt} \right)^{k}f(\bar{a}+t\bar{v})=(\bar{v}\cdot \triangledown )^{k}f(\bar{a}+t\bar{v}).\end{equation}

Demostración. Queda como tarea moral. Se sugiere hacerlo por inducción.

$\square$

Algo sorprendente y curioso que sucede con las expresiones del estilo $(\bar{v}\cdot \triangle)^k$ es que «se vale el binomio de Newton» para ellas, o en general, cualquier fórmula para elevar a la $k$-ésima potencia. Esto se ve muy claro en el caso de $f:S\subset \mathbb{R}^2\to \mathbb{R}$ y derivadas de orden $2$. Si tenemos $\bar{v}=(v_1,v_2)$, entonces $\bar{v}\cdot \triangledown=v_1\frac{\partial}{\partial x} + v_2\frac{\partial}{\partial y}$. Se puede demostrar, por ejemplo, que si las $k$-ésimas parciales son continuas entonces

\[ \left( v_1\frac{\partial}{\partial x}+v_2\frac{\partial}{\partial y}\right)^{k}=\sum_{i
=0}^{k}\binom{k}{i}v_1^iv_2^{k-i}\frac{\partial ^{i}}{\partial x^{i}}\frac{\partial^{k-i}}{\partial y^{k-i}}.\]

Un caso particular sería el de $n=2$ y $k=2$, en el que se obtiene que:

\begin{equation} \label{eq:binomio} \left( v_1\frac{\partial}{\partial x}+v_2\frac{\partial}{\partial y} \right)^{2}=v_1^{2}\frac{\partial ^{2}}{\partial x^{2}}+2{v_1}{v_2}\frac{\partial ^{2}}{\partial x\partial y}+v_2^{2}\frac{\partial ^{2}}{\partial y^{2}}.\end{equation}

En la práctica esto nos permitirá encontrar las expresiones que necesitamos para el polinomio de Taylor para campos escalares. Observa que estas expresiones son también las que nos confirman que la expresión que obtendremos será un polinomio en $v_1,v_2$ (en general, en las entradas de $\bar{v}$), pues tras aplicar el operador en $f$ y evaluar en un punto, finalmente \eqref{eq:binomio} quedará escrito para ciertas constantes $A,B,C$ como $$Av_1^2+2Bv_1v_2+Cv_2^2,$$ lo cual en efecto es un polinomio (en este caso de grado $2$ y dos variables).

Polinomio de Taylor para campos escalares

Con la notación que hemos introducido, ahora sí podemos enunciar apropiadamente el polinomio de Taylor. Pensemos en que $f$ es $k+1$ veces diferenciable y que todas esas derivadas son continuas. En la sección anterior vimos que $G=f\circ \gamma$ también sería $k+1$ veces diferenciable y dimos fórmulas para sus derivadas en términos de la notación $\bar{v}\cdot \triangledown$.

Aplicando el teorema de Taylor con la versión de residuo dada en la ecuación \eqref{eq:residuo}, para la función $G$, en los puntos $a=0$, $x=1$, tenemos que existe $\xi\in[0,1]$ tal que se satisface lo siguiente:

\[ G(1)=G(0)+G^{\prime}(0)+\frac{G^{(2)}(0)}{2!}+\dots +\frac{G^{(k)}(0)}{k!}+\frac{G^{(k+1)}(\xi)}{(k+1)!}.\]

Al usar las fórmulas dadas por la ecuación \eqref{eq:iteradas}, obtenemos que

\begin{align*}
G^{(s)}(0)&=(\bar{v}\cdot \triangledown )^{s}f(\bar{a}) & \text{para $s\leq k$}\\
G^{(k+1)}(\xi)&=(\bar{v}\cdot \triangledown )^{k+1}f(\bar{a}+\xi \bar{v}).
\end{align*}

Así, reescribiendo todo en términos de $f$ obtenemos que:

\begin{equation}\label{eq:prepoly}f(\bar{a}+\bar{v})=f(\bar{a})+\frac{(\bar{v}\cdot \triangledown )f(\bar{a})}{1!}+\dots +\frac{(\bar{v}\cdot \triangledown)^{k}f(\bar{a})}{k!}+\frac{(\bar{v}\cdot \triangledown )^{k+1}f(\bar{a}+\tau \bar{v})}{(k+1)!}.\end{equation}

Si de esta expresión quitamos el último término (el correspondiente al residuo) y hacemos la sustitución $\bar{w}=\bar{a}+\bar{v}$, obtenemos la siguiente expresión:

\begin{equation} \label{eq:poltaylor}T_{k,\bar{a}}(\bar{w}):=f(\bar{a})+\frac{((\bar{w}-\bar{a})\cdot \triangledown )f(\bar{a})}{1!}+\dots +\frac{((\bar{w}-\bar{a})\cdot \triangledown)^{k}f(\bar{a})}{k!}\end{equation}

le llamamos el polinomio de Taylor de $f$ de grado $k$ alrededor de $\bar{a}$ y converge a $f(\bar{a})$ conforme $\bar{w}\to \bar{a}$.

Ejemplo de polinomio de Taylor para campos escalares

Ejemplo. Determinemos el polinomio de Taylor de grado 3 de la expresión $f(x,y)=e^{5x+3y}$ alrededor del punto $(0,0)$. Para ello, usaremos la expresión de la fórmula \eqref{eq:prepoly} quitando el residuo y fórmulas tipo «binomio de Newton» como la de la ecuación \eqref{eq:binomio}.

Comencemos con el término de grado $1$. Está dado por el operador

$$\left(v_1\frac{\partial}{\partial x}+v_2\frac{\partial}{\partial y}\right)$$

que aplicado a nuestra función es

$$((v_1,v_2)\cdot \triangledown)f(x,y)=5v_1e^{5x+3y}+3v_2e^{5x+3y}.$$

Necesitaremos su evaluación en $(x,y)=(0,0)$, que es $5v_1+3v_2$.

Para pasar al término de segundo grado, necesitamos

\[\left( v_1\frac{\partial}{\partial x}+v_2\frac{\partial}{\partial y} \right)^{2}=v_1^{2}\frac{\partial ^{2}}{\partial x^{2}}+2{v_1}{v_2}\frac{\partial ^{2}}{\partial x\partial y}+v_2^{2}\frac{\partial ^{2}}{\partial y^{2}}.\]

Al aplicar este operador en nuestra $f$, se obtiene:

$$((v_1,v_2)\cdot \triangledown)^2f(x,y)=25v_1^2e^{5x+3y}+30{v_1}{v_2}e^{5x+3y}+9v_2^2 e^{5x+3y}$$

Lo necesitaremos evaluado en $(0,0)$, que es $25v_1^2+30v_1v_2+9v_2^2$.

Finalmente, también requeriremos del término de orden $3$, para el cual es necesario calcular el siguiente operador

\[ \left( v_1\frac{\partial}{\partial x}+v_2\frac{\partial}{\partial y} \right)^{3}=v_1^{3} \frac{\partial}{\partial x^3}+3v_1^{2}{v_2}\frac{\partial}{\partial x^{2}\partial y}+3v_1v_2^{2}\frac{\partial}{\partial x \partial y^2}+v_2^3\frac{\partial}{\partial y^3},\]

y aplicarlo a nuestra $f$ para obtener

$$((v_1,v_2)\cdot \triangledown)^3f(x,y)=125v_1^3e^{5x+3y}+225v_1^2v_2e^{5x+3y}+135v_1v_2^2 e^{5x+3y}+27v_2^3e^{5x+3y}.$$

Una vez más, requerimos la evaluación en $(0,0)$, la cual es $125v_1^3+225v_1^2v_2+135v_1v_2^2+27v_2^3$.

Juntando todo esto, obtenemos que

\begin{align*}
f(v_1,v_2)&=f(0,0)+\frac{((x,y)\cdot \triangledown )f(0,0)}{1!}+\frac{((x,y)\cdot \triangledown )^{2}f(0,0)}{2!}+\frac{((x,y)\cdot \triangledown)^{3}f((0,0))}{3!}\\
&=1+5v_1+3v_2+\frac{25v_1^2+30v_1v_2+9v_2^2}{2}+\frac{125v_1^3+225v_1^2v_2+135v_1v_2^2+27v_2^3}{6}.
\end{align*}

$\square$

Observa que, en efecto, obtenemos un polinomio en dos variables y de grado tres.

Los casos especiales para grado $1$ y grado $2$

Las presentaciones más clásicas del polinomio de Taylor para campos escalares de varias variables son las versiones de primero y segundo grado. Para el polinomio de primer grado, tenemos la siguiente expresión:

$$T_{1,\bar{a}}(\bar{a}+\bar{v})=f(\bar{a})+\sum_{i=1}^{n}(v_i)\frac{\partial f}{\partial x_{i}}(\bar{a}).$$

En el caso de la presentación clásica para la fórmula de segundo orden tenemos

$$\frac{(\bar{v}\cdot \triangledown)^{2}f}{2!}(\bar{a})=\sum_{i=1}^n\sum_{j=1}^nv_{i}v_{j}\frac{\partial ^{2}f}{\partial x_{j}\partial x_{i}}(\bar{a})$$

Donde

$$T_{2,\bar{a}}(\bar{a}+\bar{v})=f(\bar{a})+\sum_{i=1}^{n}v_{i}\frac{\partial f}{\partial x_{i}}(\bar{a})+\frac{1}{2}\sum_{i=1}^n\sum_{j=1}^{n}v_{i}v_{j}\frac{\partial ^{2}f}{\partial x_{j}\partial x_{i}}(\bar{a}).$$

Esta suma tendrá utilidad especial hacia el final del curso, cuando hablemos de optimización. La expresión también puede ponerse en términos de otro objeto matemático que se llama la matriz Hessiana, la cual definiremos más adelante una vez que hayamos hecho un repaso de álgebra lineal, matrices y formas cuadráticas.

Mas adelante…

Con lo que hemos trabajado hasta ahora hemos desarrollado un muy buen entendimiento de las curvas y de los campos escalares, que respectivamente son funciones $f:\mathbb{R}\to \mathbb{R}^m$ y $f:\mathbb{R}^n\to \mathbb{R}$. Sin embargo, nos gustaría ahora poder hablar con mucha mayor generalidad y entender a las funciones del estilo $f:\mathbb{R}^n\to \mathbb{R}^m$. Ya entendimos un poco de cómo son en términos de continuidad, cuando hablamos de la topología de $\mathbb{R}^n$. Sin embargo, para poder hablar de su diferenciabilidad y de otros resultados teóricos será necesario hacer un repaso de algunos conceptos adicionales de álgebra lineal. Por esta razón, en la siguiente unidad hablaremos de temas como transformaciones lineales, matrices, sistemas de ecuaciones, formas lineales y bilineales.

Tarea moral

  1. Encuentra el polinomio de Taylor de primer grado para las siguientes funciones:
    • $f(x,y)=e^(x+y)$
    • $f(x,y)=e^{sen(x+y)}$
    • $f(x,y)=x^2y^2+x+y$
  2. Calcula el polinomio de Taylor de segundo grado para los siguientes campos escalares en el punto dado:
    • $f(x,y)=x^2+xy$ en el punto $(1,1)$.
    • $f(x,y,z)=xsen(yz)$ alrededor del punto $(\pi ,\pi ,\pi)$.
  3. Demuestra por inducción la fórmula \[\left( \frac{d}{dt} \right)^{k}f(\bar{a}+t\bar{v})=(\bar{v}\cdot \triangledown )^{k}f(\bar{a}+t\bar{v}).\]
  4. Demuestra por inducción \[ \left( x\frac{\partial}{\partial x}+y\frac{\partial}{\partial y}\right)^{k}=\sum_{i=1}^{k}\binom{k}{i}x^{i}y^{k-i}\frac{\partial ^{i}}{\partial x^{i}}\frac{\partial^{k-i}}{\partial y^{k-i}}.\]
  5. En esta entrada sólo discutimos con detalle lo que pasa con el polinomio de Taylor «hasta cierto grado $k$». Sin embargo, no dimos una versión que generalice el polinomio de Taylor para cuando usamos todos los términos posibles (como en la ecuación \eqref{eq:taylor-inf}). Observa que en el recordatorio de una variable real sí pusimos el resultado para la serie de Taylor. Enuncia y demuestra una versión para campos escalares.

Entradas relacionadas