Archivo de la etiqueta: jacobiano

Cálculo Diferencial e Integral III: Ejemplos e intuición del teorema de la función implícita

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior revisamos el teorema de la función implícita formalmente enunciado y demostrado. En ésta lo que haremos será reflexionar sobre él y observar con más detalle su propósito y usos.

Dicho de forma simplista pero resaltando su objetivo principal el teorema de la función implícita busca establecer las condiciones bajo las cuales podemos despejar unas variables en término de otras. Da una condición en términos de cierta diferenciabilidad. Como esbozamos en la entrada anterior, lo que el teorema nos dice es cuándo es posible despejar las variables de un sistema de ecuaciones (o funciones coordenadas de un campo vectorial) en función de ciertas las variables libres, y alrededor de una vecindad. Para hacer esto, básicamente hay que resolver un sistema de ecuaciones en donde ciertos coeficientes vienen de ciertas derivadas parciales. El teorema de la función implícita también habla de cómo derivar una función definida implícitamente respecto de cualquiera de sus derivables.

¿Por qué teorema de la función implícita?

¿Por qué este nombre? En numerosos problemas matemáticos derivados de aplicaciones diversas se utilizan modelos geométricos. Estos modelos geométricos usualmente se construyen a partir de restringir ciertas variables con ciertas ecuaciones. Pensemos en objetos geométricos en tres dimensiones. Tenemos variables $x,y,z$. Definamos $G(x,y,z):=x^{2}+y^{2}+z^{2}-1$. Podemos preguntarnos por el objeto geométrico descrito por la ecuación $G(x,y,z)=0.$ Sabemos que las ternas $(x,y,z)$ que satisfacen esto justo conforman una esfera de radio 1 centrada en el origen. Decimos que esta ecuación proporciona una representación implícita de la superficie.

Pero quizás nuestra aplicación nos lleva a preguntarnos si alguna coordenada está en términos de las otras para los puntos que están en dicha esfera. En afortunadas ocasiones es posible despejar en la ecuación $G(x,y,z)$ algunas de las variables en términos de las otras. Esto nos lleva a una o varias ecuaciones de la forma $z=g(x,y)$, en nuestro caso particular tenemos:

\begin{align*}z=\sqrt{1-x^{2}-y^{2}} && \textup{y} && z=-\sqrt{1-x^{2}-y^{2}}.\end{align*}

El teorema de la función inversa nos dice que si ciertas derivadas existen y son invertibles como transformaciones lineales, entonces podemos hacer estos despejes. De hecho, nos dice algo mejor: que podemos hacerlos alrededor de toda una vecindad donde no se anule dicha derivada. De aquí sale la idea de «función implícita». Algunas ecuaciones, aunque no permitan despejar variables, sí lo permiten «localmente» y entonces ahí hay una «función oculta».

En la gran mayoría de los casos es difícil lograr estos despejes mediante expresiones algebraicas sencillas por ejemplo en una superficie representada por la ecuación $y^{3}+z^{2}-xz+e^{zx}-4=0$ suena muy difícil que podamos despejar $z$. Sin embargo el teorema de la función implícita nos garantiza que, aunque no sepamos cómo, la variable $z$ sí se puede poner en función de las variables $x$ y $y$.

La derivada de la función implícita

Otra buena notica es que aunque no conozcamos explícitamente el despeje que nos interesa, con el teorema de la función implícita sí podemos encontrar las derivadas parciales de la función implícita que aparece. Si pensaste los problemas de la tarea moral de la entrada anterior, quizás ya hayas llegado al siguiente resultado.

Corolario. Sea $F:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}$ un campo escalar diferenciable con $S$ abierto. Supongamos que la ecuación $F(x_{1},\dots ,x_{n})=0$ define implícitamente a $x_{n}$ como función diferenciable de $x_{1},\dots ,x_{n-1}$ como $x_{n}=f(x_{1},\dots ,x_{n-1})$, para todos los puntos $(x_{1},\dots ,x_{n-1})\in S’\subseteq \mathbb{R}^{n-1}$, entonces para cada $k=1,2,\dots ,n-1$ la derivada parcial $\frac{\partial f}{\partial x_{k}}$ está dada por la fórmula:

\[ \begin{equation}\frac{\partial f}{\partial x_{k}}=-\frac{\frac{\partial F}{\partial x_{k}}}{\frac{\partial F}{\partial x_{n}}}\end{equation} \]

en los puntos en los que $\frac{\partial F}{\partial x_{n}}\neq 0$. Las derivadas parciales de $F$ están calculadas en el punto $(x_{1},\dots ,x_{n-1},f(x_{1},\dots ,x_{n}))$.

Demostración. Pensemos $F:\mathbb{R}^{n-1}\times \mathbb{R} \to \mathbb{R}$. Si $(x_{1},\dots x_{n})$ es tal que $F(x_{1},\dots ,x_{n})=0$, por el teorema de la función implícita tenemos a una única función $f:\mathbb{R}^{n-1}\rightarrow \mathbb{R}$ tal que $F(x_{1},\dots ,x_{n-1},f(x_{1},\dots ,x_{n-1}))=0$.

(Nota. En la entrada anterior teníamos entradas de la forma $(y,x)$ y $y$ quedaba en función de $x$. De manera totalmente análoga podemos intercambiar los papeles de $x$ y $y$, pidiendo las hipótesis correctas. De hecho, usualmente se piensa en parejas $(x,y)$ y las variables de $y$ son las que quedan en términos de las variables $x$)

Ahora, pensemos en el campo vectorial $G:S’\subseteq \mathbb{R}^{n-1}\rightarrow \mathbb{R}^{n}$ dado por $G(x_{1},\dots ,x_{n-1})=(x_{1},\dots ,x_{n-1},f(x_{1},\dots ,x_{n-1}))$. Así $(F\circ G)(x_{1},\dots ,x_{n-1})=0$. Por regla de la cadena, $DFDG=0$. Tenemos así $0=\triangledown F\cdot DG$, lo cual explícitamente es:

\[ 0=\begin{bmatrix} \frac{\partial F}{\partial x_{1}} & \dots & \frac{\partial F}{\partial x_{n}} \end{bmatrix} \begin{bmatrix} 1 & 0 & \dots & 0 \\ 0 & 1 & \dots & 0 \\ \vdots & \vdots & \vdots & \vdots \\ 0 & 0 & \dots & 1 \\ \frac{\partial f}{\partial x_{1}} & \frac{\partial f}{\partial x_{2}} & \dots & \frac{\partial f}{\partial x_{n-1}} \end{bmatrix}= \]

\[ \begin{bmatrix} \frac{\partial F}{\partial x_{1}}+\frac{\partial F}{\partial x_{n}}\frac{\partial f}{\partial x_{1}} & \frac{\partial F}{\partial x_{2}}+\frac{\partial F}{\partial x_{n}}\frac{\partial f}{\partial x_{2}} & \dots & \frac{\partial F}{\partial x_{n-1}}+\frac{\partial F}{\partial x_{n}}\frac{\partial f}{\partial x_{n-1}} \end{bmatrix}.\]

Por ello, para cada $i$ tenemos:

\[ \frac{\partial F}{\partial x_{i}}+\frac{\partial F}{\partial x_{n}}\frac{\partial f}{\partial x_{i}}=0.\]

De esta ecuación se deduce la $(1)$.

$\square$

Un primer ejemplo del teorema de la función inversa

Pasemos ahora a hacer algunas cuentas concretas para entender mejor lo que uno tiene que hacer para aplicar el teorema de la función implícita en funciones particulares.

Ejemplo. Consideremos la ecuación $y^{2}+xz+z^{2}-e^{z}-c=0$. Expresaremos a $z$ en función de $x$ e $y$, es decir, $z=f(x,y)$. Nos gustaría encontrar un valor de la constante $c$ tal que $f(0,e)=2$. Para dicha $c$, queremos calcular las derivadas parciales con respecto a $x$ y $y$ en el punto $(x,y)=(0,e)$.

Para la primera parte sustituimos $x=0$, $y=e$ y $z=2$. Tenemos $$e^{2}+0\cdot 2+2^{2}-e^{2}-c=0,$$ que es lo mismo que $4-c=0$, y esto implica $c=4$. De esta manera, estudiaremos la función $$F(x,y,z)=y^{2}+xz+z^{2}-e^{z}-4.$$

Notemos que

\begin{align*}\frac{\partial F}{\partial z}=x+2z-e^{z},&&\frac{\partial F}{\partial x}=z,&&\frac{\partial F}{\partial y}=2y,\end{align*}

por lo cual

\begin{align*} \frac{\partial f}{\partial x}=-\frac{z}{x+2z-e^{z}},&&\frac{\partial f}{\partial y}=-\frac{2y}{x+2z-e^{z}}.\end{align*}

Así para $x=0$, $y=e$ y $z=2$ al sustituir resulta

\begin{align*} \frac{\partial f}{\partial x}(0,e)=\frac{2}{e^{2}-4}&&\textup{y}&&\frac{\partial f}{\partial y}(0,e)=\frac{2e}{e^{2}-4}. \end{align*}

$\triangle$

En este ejemplo vemos cómo hemos podido calcular las derivadas parciales de $z=f(x,y)$ usando el valor de $f$ en el punto $(0,e)$, sin conocer quién es la función $f(x,y)$.

Un repaso chiquito de la demostación del teorema de la función implícita

Ahora repasaremos la demostración del teorema de la función implícita pero para un caso muy particular: Dos superficies $S_{1}$ y $S_{2}$ en el espacio con las siguientes representaciones implícitas:

$$ \textup{para}\hspace{0.3cm}S_{1}:\Psi (x,y,z)=0\hspace{1cm}\textup{y}\hspace{1cm}\textup{para}\hspace{0.3cm}S_{2}:\Gamma (x,y,z)=0.$$

Supongamos que las superficies se cortan en la curva $\mathfrak{C}$. En otras palabras, $\mathfrak{C}$ es el conjunto solución para el siguiente sistema de ecuaciones:

\[ \left \{\begin{matrix} \Psi (x,y,z)=0 \\ \Gamma (x,y,z)=0. \end{matrix} \right.\]

Supongamos que podemos despejar $x$ y $y$ en estas ecuaciones en términos de $z$ de la siguiente manera:

\[ \begin{equation}x=X(z),\hspace{1cm}y=Y(z)\hspace{0.3cm}\textup{para todo}\hspace{0.1cm}z\in (a,b).\end{equation} \]

Aquí, al reemplazar $x$ y $y$ por $X(z)$ y $Y(z)$ (respectivamente), el sistema $(2)$ se satisface. Por tanto tenemos $\Psi (X(z),Y(z),z)=0$ y $\Gamma (X(z),Y(z),z)=0$ para todo $z\in (a,b)$. Podemos calcular las derivadas $X^{\prime}(z)$, $Y^{\prime}(z)$, sin un conocimiento explícito de $X(z)$ y $Y(z)$.

¿Cómo hacemos esto? Consideramos las siguientes funciones auxiliares:

\begin{align*}
\psi (z)&=\Psi (X(z),Y(z),z),\\
\gamma (z)&=\Gamma (X(z),Y(z),z).
\end{align*}

Tenemos $\psi (z)=\gamma (z)=0$ y en consecuencia $\psi^{\prime}(z)=\gamma^{\prime}(z)=0$.

Derivando con la regla de la cadena tenemos:

\begin{align*}
\psi^{\prime}(z)&=\frac{\partial \Psi}{\partial x}X'(z)+\frac{\partial \Psi}{\partial y}Y'(z)+\frac{\partial \Psi}{\partial z},\\
\gamma^{\prime}(z)&=\frac{\partial \Gamma}{\partial x}X'(z)+\frac{\partial \Gamma}{\partial y}Y'(z)+\frac{\partial \Gamma}{\partial z}
\end{align*}

Dado que $\psi^{\prime} (z)=\gamma^{\prime}(z)=0$ tenemos el siguiente sistema de dos ecuaciones con dos incógnitas $X^{\prime}(z)$, $Y^{\prime}(z)$:

\[ \left \{\begin{matrix}\frac{\partial \Psi}{\partial x}X^{\prime}(z)+\frac{\partial \Psi}{\partial y}Y^{\prime}(z)=-\frac{\partial \Psi}{\partial z}\\ \frac{\partial \Gamma}{\partial x}X^{\prime}(z)+\frac{\partial \Gamma}{\partial y}Y^{\prime}(z)=-\frac{\partial \Gamma}{\partial z} \end{matrix} \right.\]

En los puntos en los cuales el determinante del sistema no es cero, usamos la regla de Cramer para obtener las soluciones como sigue:

\[ X^{\prime}(z)={\Large -\frac{\begin{vmatrix}\frac{\partial \Psi}{\partial z} & \frac{\partial \Psi}{\partial y}\\ \frac{\partial \Gamma}{\partial z} & \frac{\partial \Gamma }{\partial y}\end{vmatrix}}{\begin{vmatrix}\frac{\partial \Psi}{\partial x} & \frac{\partial \Psi}{\partial y} \\ \frac{\partial \Gamma}{\partial x} & \frac{\partial \Gamma}{\partial z} \end{vmatrix}} },\hspace{0.5cm}Y^{\prime}(z)={\Large -\frac{\begin{vmatrix}\frac{\partial \Psi}{\partial x} & \frac{\partial \Psi}{\partial z}\\ \frac{\partial \Gamma}{\partial x} & \frac{\partial \Gamma }{\partial z}\end{vmatrix}}{\begin{vmatrix}\frac{\partial \Psi}{\partial x} & \frac{\partial \Psi}{\partial y} \\ \frac{\partial \Gamma}{\partial x} & \frac{\partial \Gamma}{\partial z} \end{vmatrix}} }.\]

Otro ejemplo para encontrar derivadas de funciones implícitas

Veamos un último ejemplo en donde pondemos usar las ideas anteriores.

Ejemplo. Consideremos las ecuaciones $y=uv^{2}$, y $x=u+v$. Queremos ver que podemos determinar una función $h$ tal que $v=h(x,y)$ y para la cual:

\[ \frac{\partial h}{\partial x}(x,y)= \frac{h(x,y)}{3h(x,y)-2x}.\]

Además, queremos encontrar una fórmula análoga para $\frac{\partial h}{\partial y}$.

Primero, en la ecuación $x=u+v$ despejamos $u$ y sustituimos en $y=uv^{2}$, tenemos $y=(x-v)v^{2}$. De aquí $$xv^{2}-v^{3}-y=0.$$ Esto nos sugiere pensar en la función $$F(x,y,v):=xv^{2}-v^{3}-y,$$ pues nos permite representar nuestra ecuación como $F(x,y,v)=0$. Por el teorema de la función implícita (¡verifica las hipótesis!), esta ecuación define implícitamente a $v$ como función de $x$ e $y$, digamos, como $v=h(x,y)$. Aplicando las fórmulas que conocemos para las derivadas de la función implicita, tenemos lo siguiente:

\[ \frac{\partial h}{\partial x}= -\frac{\partial F /\partial x}{\partial F /\partial v}\hspace{0.5cm}\textup{y}\hspace{0.5cm}\frac{\partial h}{\partial y}=-\frac{\partial F /\partial y}{\partial F /\partial v} \]

Donde $\frac{\partial F}{\partial x}=v^{2}$, $\frac{\partial F}{\partial v}=2xv-3v^{2}$ y $\frac{\partial F}{\partial y}=-1$. Luego tenemos:

\begin{align*} \frac{\partial h}{\partial x}(x,y)&=-\frac{v^{2}}{2xv-3v^{2}}\\ &=-\frac{v}{2x-3v}\\ &=\frac{h(x,y)}{3h(x,y)-2x}.\end{align*}

Esto muestra la primera parte. Para encontra la fórmula análoga, volvemos a usar las fórmulas para derivadas de la función implícita:

\begin{align*}\frac{\partial h}{\partial y}(x,y)&=-\frac{-1}{2xv-3v^{2}}\\ &=\frac{1}{2xh(x,y)-3h^{2}(x,y)}.\end{align*}

$\triangle$

Más adelante…

Hemos cubierto el teorema de la función inversa y el teorema de la función implícita. Estos son temas teóricos profundos e importantes que tienen muchas consecuencias. Tienen también otras versiones en contextos más amplios como variedades, geometría diferencial, etc. Por el momento, dejaremos hasta aquí nuestro estudio de estos temas, pero te recomendamos de vez en cuando repasarlos, pues cada vez entenderás más de sus demostraciones y lo que significan.

Nuestra atención se enfocará ahora en otros conceptos que se pueden definir en términos de funciones de varias variables: la divergencia, el laplaciano y el rotacional. Después, hablaremos un poco de cómo la teoría que hemos desarrollado nos ayudará a encontrar puntos críticos para funciones de varias variables.

Tarea moral

  1. Las ecuaciones $x+y=uv$ y $xy=u-v$ definen $x$ y $y$ como funciones implícitas de $u$ y $v$, sean éstas $x=X(u,v)$ y $y=Y(u,v)$. Demuestra que $\partial X/\partial u=(xv-1)/(x-y)$ si $x\neq y$, y halla las fórmulas para $\partial X/\partial v$, $\partial Y/\partial v$, $\partial Y/\partial u$.
  2. Las tres ecuaciones \[ \left\{\begin{matrix} x^{2}-y\hspace{0.1cm}cos\hspace{0.1cm}(uv)+z^{2}=0, \\ x^{2}+y^{2}-\hspace{0.1cm}sen\hspace{0.1cm}(uv)+2z^{2}=2, \\ xy-\hspace{0.1cm}sen\hspace{0.1cm}u\hspace{0.1cm}cos\hspace{0.1cm}v+z=0 \end{matrix}\right.\] definen $x$, $y$, y $z$ como funciones de $u$ y $v$. Calcula las derivadas parciales $\partial x/\partial u$ y $\partial x/\partial v$ en el punto $x=y=1$, $u=\pi /2$, $v=0$, $z=0$.
  3. Las ecuaciones $x+y=uv$ y $xy=u-v$ definen $x$ y $v$ como funciones de $u$ y $y$, sean éstas $x=X(u,v)$ y $v=V(u,y)$. Demuestra que $\partial X/\partial u=(u+v)/(1+yu)$ si $1+yu\neq 0$ y halla las fórmulas de $\partial X/\partial y$, $\partial V /\partial u$, $\partial V /\partial y$.
  4. Sigue las ideas de los resultados de la entrada anterior para escribir una calca de ella pero ahora para $f:S\subseteq \mathbb{R}^{m} \times \mathbb{R}^{l}$, en donde la función que se busca tiene ahora dominio en $\mathbb{R}^{m}$ que pone a las variables del dominio $\mathbb{R}^l$ en términos de las de $\mathbb{R}^m$.
  5. Haz un esfuerzo extra, y medita nuevamente en el teorema de la función implícita tratando de escribir una demostración de como sería el asunto para $f$ con dominio en $\mathbb{R}^{m}\times \mathbb{R}^{l}\times \mathbb{R}^{k}$. ¿Se podrá hallar la función $h$, pero ahora con dominio en $\mathbb{R}^{l}$?

Entradas relacionadas

Cálculo Diferencial e Integral III: Diferenciabilidad en campos vectoriales

Por Alejandro Antonio Estrada Franco

Introducción

Después de haber abordado a modo de repaso las herramientas que usaremos de álgebra lineal, estamos listos para estudiar la diferenciabilidad en funciones más generales. Ya estudiamos la diferenciabilidad en curvas (funciones $f:S\subseteq \mathbb{R}\to \mathbb{R}^m$) y en campos escalares (funciones $f:S\subseteq \mathbb{R}^n \to \mathbb{R}$). Ahora podemos estudiar la diferenciabilidad en campos vectoriales, que recuerda que ahora sí son funciones $f:S\subseteq \mathbb{R}^n\to \mathbb{R}^m$ para cualesquiera $m$ y $n$ enteros positivos.

Intuición de diferenciabilidad en campos vectoriales

Con anterioridad, hemos discutido la intuición geométrica de lo que quiere decir que un campo escalar $f:\mathbb{R}^n\to \mathbb{R}$ sea diferenciable. A grandes rasgos, estamos pidiendo que cerca de un punto $\bar{a}$ la función $f(\bar{a})$ cambie «como una función lineal». Esto quiere decir que la gráfica de la función se parece mucho a un hiperplano en $\mathbb{R}^{n+1}$ cerca del punto $\bar{a}$, tanto que de hecho podemos dar un hiperplano tangente a la gráfica en $\bar{a}$. Bajo suficiente regularidad, esta función lineal estaba dada por las derivadas parciales y estaba muy relacionada con el gradiente $\triangledown f$.

La situación para campos vectoriales es parecida. Si tenemos una función $f:\mathbb{R}^n\to \mathbb{R}^m$, entonces está dada por funciones coordenada que la expresan de la manera $f(\bar{x})=(f_1(\bar{x}),\ldots,f_m(\bar{x}))$ para cada $\bar{x}\in \mathbb{R}^n$. La diferenciabilidad que buscaremos ahora deberá suceder coordenada a coordenada, y por ello lo que pensaremos como derivada tendrá algo así como un gradiente por cada coordenada. Esto nos daría $m$ gradientes, pero una mejor forma de pensar en resumen a la derivada es como una transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^m$ que nos diga con mucha precisión cuándo cambia la funciíon $f$ (cuando esto sea posible).

Para tener clara idea de lo que queremos hacer recordemos el ejemplo de campos escalares, y de aquí construiremos una generalización a campos vectoriales: Observa la Figura $1$. A la izquierda, hemos dibujado dos copias de $\mathbb{R}^n$ (pero que puedes pensar como $\mathbb{R}^2$). A la derecha, hemos dibujado la gráfica de dos funciones. Una es una función cualquiera $f:\mathbb{R}^{n}\rightarrow \mathbb{R}^m$. La otra es una transformación lineal $T:\mathbb{R}^{n}\rightarrow \mathbb{R}^m$ que ha sido trasladada sobre el plano $xy$ y sobre el eje $z$ con la función $G(\bar{v})=T(\bar{v}-\bar{a})+f(\bar{a})$. Estas gráficas son objetos en $\mathbb{R}^n \times \mathbb{R}^m$ (ponemos un punto por cada pareja $(\bar{x},f(\bar{x}))$ con $\bar{x}\in \mathbb{R}^n$).

Como $T$ es lineal, cumple $T(\bar{0})=0$. Al hacer la traslación, obtenemos $G(\bar{a})=T(\bar{0})+f(\bar{a})=f(\bar{a})$. Así, $T$ traslada un subespacio $H$ de dimensión $n$ a un subespacio afín de dimensión $n$ que pasa por $f(\bar{a})$. Lo que buscaremos al pedir que la función $f$ sea diferenciable con derivada $T$ es que la gráfica de $f$ se parezca mucho a este subespacio $H+f(\bar{a})$, tanto que de hecho dicho subespacio lo podremos pensar como tangente a la gráfica en el punto $(\bar{a},f(\bar{a}))$.

Figura 1

Definición de diferenciabilidad para campos vectoriales

¿Cuál es la condición algebraica que pediremos? Será muy similar a lo que pasaba en campos escalares. Lo que queremos es que el cambio $f(\bar{a}+\bar{v})-f(\bar{a})$ se parezca mucho a $T(\bar{v})$ cuando $\bar{v}$ es pequeño. De hecho, tiene que parecerse tanto, tanto, que $f(\bar{a}+\bar{v})-f(\bar{a})$ debe parecerse a $T(\bar{v})$ más rápido de lo que $\bar{v}$ se va a $\bar{0}$. Esto nos lleva a plantear que la condición buscada sea la siguiente:

$$\lim_{\bar{v}\to \bar{0}}\frac{||(f(\bar{a}+\bar{v})-f(\bar{a}))-T(\bar{v})||}{||\bar{v}||}=0.$$ La Figura $2$ tiene un diagrama que ayuda a entender esto un poco mejor. Queremos que la flecha indicada en amarillo acabe muy cerca de $f(\bar{a}+\bar{v})$.

El vector $T(\bar{v}-\bar{a})+f(\bar{a})$ es el vector $T(\bar{v})$ transportado hasta el plano tangente el cual está en color rosa. La idea es que $f(\bar{a}+\bar{v})-f(\bar{a})$, que es el vector señalado con amarillo abajo, se aproxime mucho en el sentido señalado por el límite mencionado en el párrafo de arriba. De esta manera tenemos la mejor aproximación lineal. Esta definición se inspira en el polinomio de Tylor de grado 1 para funciones de una variable real.

Por supuesto, la discusión que hemos tenido sólo aplica para cuando estamos trabajando cerca del punto $\bar{a}$, así que más bien la transformación lineal de la que estamos hablando dependerá del punto $\bar{a}$. Todo esto nos lleva a nuestra primera definición formal de diferenciabilidad.

Definición. Sea $f:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ un campo vectorial. Decimos que $f$ es diferenciable en $\bar{a}\in Int(S)$ si existe una transformación lineal $T_{\bar{a}}:\mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ tal que

$$\lim_{\bar{v}\to \bar{0}}\frac{||f(\bar{a}+\bar{v})-f(\bar{a})-T_{\bar{a}}(\bar{v})||}{||\bar{v}||}=0.$$

En este caso, a $T_{\bar{a}}$ le llamamos la derivada de $f$ en el punto $\bar{a}$.

Antes de empezar a demostrar propiedades de esta noción, nos conviene tener una versión alternativa y totalmente equivalente.

Definición. Sea $f:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ un campo vectorial. Decimos que $f$ es diferenciable en $\bar{a}\in Int(S)$ si existe una transformación lineal $T_{\bar{a}}:\mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ y una función $E:\mathbb{R}^n\times \mathbb{R}^n\to \mathbb{R}^m$ de manera que $$f(\bar{a}+\bar{v})=f(\bar{a})+T_{\bar{a}}(\bar{v})+||\bar{v}||E(\bar{a};\bar{v})$$ con $$\lim_{||\bar{v}||\to 0}E(\bar{a};\bar{v})=0.$$

Esta definición es equivalente a la anterior pues si despejamos tenemos: \[E(\bar{a};\bar{v})=\frac{f(\bar{a}+\bar{v})-f(\bar{a})-T_{\bar{a}}(\bar{v})}{||\bar{v}||},\] de donde se puede verificar que se cumple una definición si y sólo si se cumple la otra. Los detalles quedan como tarea moral.

Ejemplo. Consideremos la función $f(x,y)=(x^2y^2,xy)$ y tomemos el punto $a=(1,1)$. ¿Será $f$ diferenciable en $a$? Afirmamos que sí, que la función lineal $T_a(x,y)=(2x+2y, x+y)$ cumple con la definición de límite que se pide. Veamos esto en la primera versión de la definición. Tendríamos, usando $\bar{v}=(h,k)$, que

\begin{align*}
f((1,1)&+(h,k))-f(1,1)-T_a(h,k)\\
&=((h+1)^2(k+1)^2,(h+1)(k+1))-(1,1)-(2h+2k,h+k)\\
&=(h^2k^2+2h^2k+2hk^2+h^2+k^2+4hk,hk)
\end{align*}

Dividiendo entre $\sqrt{h^2+k^2}$ que es la norma de $v$, y haciendo manipulaciones algebraicas, se obtiene

$$\left(\frac{h^2k^2+2h^2k+2hk^2+h^2+k^2+4hk}{\sqrt{h^2+k^2}},\frac{hk}{\sqrt{h^2+k^2}}\right).$$

Por la desigualdad entre la media cuadrática y la media geométrica, $$\frac{|hk|}{\sqrt{h^2+k^2}}\leq \sqrt{\frac{|hk|}{2}},$$

de modo que cuando $(h,k)\to (0,0)$, la segunda coordenada del vector que nos interesa converge a cero. La primera coordenada también se puede ver que converge a cero: el primero, segundo, tercero y sexto sumandos se acotan de manera similar, pues tienen factores $h$ o $k$ adicionales. El cuarto y quinto sumando se acotan notando que $\frac{h^2+k^2}{\sqrt{h^2+k^2}}=\sqrt{h^2+k^2}$, que también converge a cero con $h$ y $k$. Los detalles quedan de tarea moral.

$\triangle$

Diferenciabilidad implica continuidad

En el caso de las funciones de una variable real teníamos claramente que diferenciabilidad implica continuidad. Como es de esperarse, lo mismo se cumple para campos vectoriales, ya que una función diferenciable es más «suave» que una continua.

Teorema. Supongamos $f:S\subseteq \mathbb{R}^n\to\mathbb{R}^m$ es un campo vectorial diferenciable en un punto $\bar{a}$ de $S$. Entonces $f$ es continuo en $\bar{a}$.

Demostración. Si $f$ es diferenciable en $\bar{a}$ entonces cumple con la ecuación \[f(\bar{a}+\bar{v})=f(\bar{a})+T_{\bar{a}}(\bar{v})+||\bar{v}||E(\bar{a};\bar{v})\] con $E(\bar{a};\bar{v})$ una función tal que $\lim_{\bar{v}\to \bar{0}} E(\bar{a}; \bar{v})=0$ (¿Por qué es válida esta última afirmación?). Por ello:

\begin{align*}
\lim\limits_{\bar{v}\to \bar{0}}f(\bar{a}+\bar{v})&=\lim\limits_{\bar{v}\to \bar{0}}\left( f(\bar{a})+T_{\bar{a}}(\bar{v})+||\bar{v}||E(\bar{a};\bar{v}) \right)\\
&= \lim\limits_{\bar{v}\to \bar{0}}f(\bar{a})+\lim\limits_{\bar{v}\to \bar{0}}T_{\bar{a}}(\bar{v})+\lim\limits_{\bar{v}\to \bar{0}}||\bar{v}||E(\bar{a};\bar{v}).
\end{align*}

El primer sumando no depende de $\bar{v}$, así que es $f(\bar{a})$. El segundo se va a cero pues las transformaciones lineales son continuas. Finalmente, el tercer sumando se va a cero por lo que sabemos de $E(\bar{a},\bar{v})$. Así, $\lim\limits_{\bar{v}\to \bar{0}}f(\bar{a}+\bar{v})=f(\bar{a})$. Por lo tanto $f$ es continua.

$\square$.

Derivadas direccionales y derivadas parciales

Si bien tenemos dos definiciones de diferenciabilidad, aún no tenemos una manera muy práctica de encontrar o describir a la transformación lineal $T_{\bar{a}}$, que es la mejor aproximación lineal. En el ejemplo después de nuestra definición, nos dieron la transformación y funcionó, pero hasta donde hemos platicado, todavía es un misterio cómo obtenerla.

Nos gustaría tener una descripción más explícita pues queremos resolver problemas específicos como encontrar, por ejemplo, la ecuación de un hiperplano tangente. Este problema ya lo habíamos resuelto para campos escalares: si tenemos suficiente regularidad, entonces podemos construir la derivada a través de las derivadas parciales (que a su vez son derivadas direccionales). La teoría que ya desarrollamos prácticamente se puede copiar, considerando que ahora tendremos derivadas en cada función coordenada.

Lo primero que notaremos es que así como para campos escalares, para campos vectoriales también podemos definir la noción de derivadas direccionales. Pensemos en una función $f:S\subseteq \mathbb{R}^{n}\to \mathbb{R}^n$. Tomemos un vector fijo $\bar{a}\in Int=(S)$. Coloquemos una flecha que comience en $\bar{a}$ y tenga dirección dada por otro vector dado $\bar{y}\in \mathbb{R}^{n}$. Si multiplicamos a $\bar{y}$ por un escalar $h$ positivo, esto estira o encoge al vector $\bar{y}$, pero lo deja con la misma dirección. En el ejemplo de la Figura 3, al variar sobre todos los valores de $h$ se genera la recta $\bar{a}+h\bar{y}$. Si a los puntos de esta recta le aplicamos la función $f$, se obtiene un cierto lugar geométrico $$f(\bar{a}+h\bar{y})=(f_1(\bar{a}+h\bar{y}),\ldots,f_m(\bar{a}+h\bar{y})),$$ conforme se varían los valores de $h$. Lo que definiremos como derivada direccional nos permitirá hablar de un espacio afín tangente de dimensión $m$ a este lugar geométrico en el punto $f(\bar{a})$.

Figura 3

A continuación tenemos nuestra definición de derivada direccional para campos vectoriales.

Definición. Sea $f:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ un campo vectorial. Tomemos $\bar{a}\in Int(S)$, $\bar{y}\in \mathbb{R}^{n}$. Definimos la derivada direccional de $f$ en $\bar{a}$ en la dirección $\bar{y}$ como: \[ f'(\bar{a};\bar{y})=\lim\limits_{h\to 0}\frac{f(\bar{a}+h\bar{y})-f(\bar{a})}{h}, \] siempre y cuando el límite exista.

Notemos que $f'(\bar{a};\bar{y})$ es un vector de $\mathbb{R}^{m}$.

En los campos escalares teníamos derivadas parciales. En este caso también las tenemos y describen a las derivadas direccionales en el mismo sentido que en el caso escalar. Para formalizar las cosas, damos la definición a continuación.

Definición. Sea $f:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ un campo vectorial. Tomemos $\bar{a}\in Int(S)$, $\bar{y}\in \mathbb{R}^{n}$. Definimos la derivada direccional de $f$ en la coordenada $x_i$ en $a$ como la derivada parcial $f'(\bar{a};\hat{e}_i)$, donde $\hat{e}_i$ es el $i$-ésimo vector de la base canónica, siempre y cuando esta exista.

Como en el caso de los campos escalares, las derivadas direccionales pueden entenderse en términos de las derivadas parciales bajo suficiente regularidad. Tomemos $\hat{e}_1,\ldots,\hat{e}_n$ la base canónica de $\mathbb{R}^n$. Tomemos $f:S\subseteq \mathbb{R}^n\to \mathbb{R}^m$. Pensemos que todas las derivadas parciales de $f$ existen en un punto dado $\bar{a}$ y que son continuas. Expresemos a $\bar{y}$ como $\bar{y}=\alpha_1\hat{e}_1+\alpha_2\hat{e}_2+\ldots+\alpha_n\hat{e}_n$ con $\hat{e}_1,\ldots,\hat{e}_n$ la base canónica de $\mathbb{R}^n$. En esta entrada discutiremos hacia el final que bajo estas condiciones tendremos que $f'(\bar{a};\bar{y})$ existe y de hecho que $$f'(\bar{a};\bar{y})=\sum_{i=1}^n \alpha_i f'(\bar{a};\bar{e}_i).$$

El tener derivadas parciales continuas resultará una hipótesis muy fuerte y de hecho implicará todavía más que la existencia de derivadas direccionales. De hecho, como en el caso de campos escalares, esta hipótesis implicará diferenciabilidad. Antes de discutir esto, veremos en la siguiente sección qué pasa componente a componente.

Si las derivadas parciales no son continuas, no deberíamos esperar que las derivadas direccionales existan: ¡hay muchas posibles direcciones y sólo sabemos que pasa en dos de ellas! Como tarea moral, puedes pensar en un contraejemplo de un campo escalar $f:\mathbb{R}^2\to \mathbb{R}^2$ con derivadas parciales en cierto punto $\bar{a}$, pero sin alguna (o algunas) derivadas direccionales en $\bar{a}$.

Derivadas por componente

Las derivadas direccionales pueden entenderse mediante las derivadas parciales, pero también, como en el caso de las trayectorias, pueden entenderse mediante las derivadas por componente. Para pensar en ello, tomemos $\hat{e}_1,\ldots,\hat{e}_m$ la base canónica de $\mathbb{R}^m$. Tomemos $f:S\subseteq \mathbb{R}^n\to \mathbb{R}^m$ con funciones coordenadas $f(\bar{x})=\left( f_{1}(\bar{x}),\dots ,f_{m}(\bar{x})\right)$. Pensemos que las derivadas direccionales de $f_1,\ldots, f_m$ en $\bar{a}$ en la dirección $\bar{y}$ existen.

Tenemos entonces:

\begin{align*} \lim\limits_{h\to 0}\frac{f(\bar{a}+h\bar{y})-f(\bar{a})}{h} &=\lim\limits_{h\to 0}\frac{\left( f_{1}(\bar{a}+h\bar{y}),\dots ,f_{m}(\bar{a}+h\bar{y})\right) -\left( f_{1}(\bar{a}),\dots ,f_{m}(\bar{a})\right)}{h}\\ &=\lim\limits_{h\to 0}\left( \frac{f_{1}(\bar{a}+h\bar{y})-f_{1}(\bar{a})}{h},\dots ,\frac{f_{m}(\bar{a}+h\bar{y})-f_{m}(\bar{a})}{h}\right)\\ &=\lim\limits_{h\to 0}\sum_{i=1}^{m}\frac{f_{i}(\bar{a}+h\bar{y})-f_{i}(\bar{a})}{h}{\hat{e}_{i}}\\
&=\sum_{i=1}^{m}\lim\limits_{h\to 0}\frac{f_{i}(\bar{a}+h\bar{y})-f_{i}(\bar{a})}{h}{\hat{e}_{i}}\\ &=\sum_{i=1}^{m}f_{i}'(\bar{a};\bar{y}){\hat{e}_{i}}. \end{align*}

En la última igualdad estamos usando la suposición de que las derivadas existen componente a componente. Como mostramos que el límite planteado inicialmente existe, obtenemos entonces que
\begin{equation} \label{eq:porcomponente} f'(\bar{a};\bar{y})=\sum_{i=1}^{m}f_{i}'(\bar{a};\bar{y}){\hat{e}_{i}} .\end{equation}

Lo que tenemos aquí es que la derivada direccional de $f$ en $\bar{a}$ en dirección de $\bar{y}$ es la suma vectorial de cada vector de la base escalado por la derivada direccional del campo escalar $f_{i}$ en $\bar{a}$ con respecto a la dirección de $\bar{y}$.

Diferenciabilidad implica derivadas direccionales

La noción de diferenciabilidad que dimos implica la diferenciabilidad de cada una de las funciones componente $f_i$ de una función $f:\mathbb{R}^n\to \mathbb{R}^m$. Es decir, si el campo vectorial es diferenciable, entonces cada uno de los campos escalares $f_1,\ldots,f_m$ componentes son también diferenciables, pues el límite $$\lim_{\bar{v}\to \bar{0}}\frac{||f(\bar{a}+\bar{v})-f(\bar{a})-T_{\bar{a}}(\bar{v})||}{||\bar{v}||}=0$$ se cumple, y por lo tanto se cumple componente a componente. En el caso de $T_{\bar{a}}$ el $i$-ésimo componente es precisamente hacer el producto interior del $i$-ésimo renglon de la matriz que representa a $T_{\bar{a}}$ con $\bar{v}$, y entonces la derivada $\triangledown f_i(\bar{a})$ del campo escalar $f_i$ está dada precisamente por dicho $i$-ésimo renglón.

A su vez, sabemos que si un campo escalar es diferenciable, entonces existen todas las derivadas parciales. Por lo que hemos platicado en unidades anteriores, si $\bar{y}\in \mathbb{R}^{n}$ se escribe en la base canónica como $\bar{y}=\sum_{j=1}^{n}y_{j}{\hat{e}_{j}}$, al aplicar $\triangledown f_i(\bar{a})$ obtenemos

\begin{align*}
\triangledown f_i(\bar{a})(\bar{y})&=\sum_{j=1}^n y_j\triangledown f_i(\bar{a})(\hat{e}_j)\\
&=\sum_{j=1}^n y_j \frac{\partial f_i}{\partial x_j}(\bar{a}),\\
\end{align*}

lo cual abreviamos como

$$f_i'(\bar{a};\bar{y})=\left(\frac{\partial f_i}{\partial x_1}(\bar{a}), \ldots, \frac{\partial f_i}{\partial x_n}(\bar{a})\right) \cdot \bar{y}.$$

Usando esta igualdad para cada $i$ y sustituyendo la ecuación \eqref{eq:porcomponente} que obtuvimos al analizar componente por componente, obtenemos entonces que

$$f^{\prime}(\bar{a};\bar{y})=\sum_{i=1}^m \left(\left(\frac{\partial f_i}{\partial x_1}(\bar{a}), \ldots, \frac{\partial f_i}{\partial x_n}(\bar{a})\right) \cdot \bar{y}\right)\hat{e}_i.$$

¡Pero esto se puede denotar de manera mucho más compacta mediante un producto matricial! Reflexiona un poco por qué la expresión anterior dice exactamente lo mismo que la siguiente:

$$f'(\bar{a};\bar{y})= \begin{pmatrix} \frac{\partial f_{1}}{\partial y_{1}}(\bar{a}) & \dots & \frac{\partial f_{1}}{\partial y_{n}}(\bar{a}) \\ \vdots & \ddots & \vdots \\ \frac{\partial f_{m}}{\partial x_{1}}(\bar{a}) & \dots & \frac{\partial f_{m}}{\partial x_{n}}(\bar{a}) \end{pmatrix}\begin{pmatrix} y_{1} \\ \vdots \\ y_{n} \end{pmatrix}.$$

Como tarea moral, tendrás que verificar que en un campo vectorial diferenciable en $\bar{a}$ se debe cumplir que $f'(\bar{a};\bar{y})=T_{\bar{a}}(\bar{y})$. Por lo discutido, debe pasar entonces para cada $y$ que \[ T_{\bar{a}}(\bar{y})=\begin{pmatrix} \frac{\partial f_{1}}{\partial x_{1}}(\bar{a}) & \dots & \frac{\partial f_{1}}{\partial x_{n}}(\bar{a}) \\ \vdots & \ddots & \vdots \\ \frac{\partial f_{m}}{\partial x_{1}}(\bar{a}) & \dots & \frac{\partial f_{m}}{\partial x_{n}}(\bar{a}) \end{pmatrix}\begin{pmatrix} y_{1} \\ \vdots \\ y_{n} \end{pmatrix}.\]

Esto precisamente nos está diciendo que si $f$ es diferenciable en $a$, entonces sus derivadas parciales deben existir y se debe cumplir que la forma matricial de $T_{\bar{a}}$ en las bases canónicas de $\mathbb{R}^n$ y $\mathbb{R}^m$ debe ser \begin{equation}\label{eq:jacobiana}\begin{pmatrix} \frac{\partial f_{1}}{\partial x_{1}}(\bar{a}) & \dots & \frac{\partial f_{1}}{\partial x_{n}}(\bar{a}) \\ \vdots & \ddots & \vdots \\ \frac{\partial f_{m}}{\partial x_{1}}(\bar{a}) & \dots & \frac{\partial f_{m}}{\partial x_{n}}(\bar{a}) \end{pmatrix}.\end{equation}

Matriz jacobiana

Toda la discusión anterior nos lleva a lo siguiente.

Definición. Dado un campo vectorial $f:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ diferenciable en un punto $\bar{a}\in Int(S)$ con derivada $T_{\bar{a}}$, a la matriz que representa a $T_{\bar{a}}$ en las bases canónicas la denotamos por $Df(\bar{a})$ y le llamamos la matriz jacobiana de $f$ en $\bar{a}$.

Por lo discutido en la sección anterior,

$$Df(\bar{a})=\begin{pmatrix} \frac{\partial f_{1}}{\partial x_{1}}(\bar{a}) & \dots & \frac{\partial f_{1}}{\partial x_{n}}(\bar{a}) \\ \vdots & \ddots & \vdots \\ \frac{\partial f_{m}}{\partial x_{1}}(\bar{a}) & \dots & \frac{\partial f_{m}}{\partial x_{n}}(\bar{a}) \end{pmatrix}.$$

Escribiremos $Df(\bar{a})(\bar{x})$ para referirnos al producto de la matriz $Df(\bar{a})$ con el vector (columna) $\bar{x}$, que precisamente coincide con $T_{\bar{a}}(\bar{x})$. Así, bajo la hipótesis de diferenciabilidad, hemos recuperado entonces lo que hace $T_{\bar{a}}$ como una multiplicación matricial, donde la matriz tiene como elementos a las derivadas parciales de las funciones coordenada en el punto $\bar{a}$.

Ejemplos de diferenciabilidad en campos vectoriales

Con todo lo discutido hasta ahora, obtenemos un método para obtener la derivada para campos vectoriales, lo que nos permitirá, por ejemplo, encontrar la transformación lineal de forma explícita y encontrar hiperplanos tangentes.

Ejemplo. Consideremos $f(x,y)=(x^{2},xy,y^{2}).$ Calculemos su diferencial en el punto $(1,-1)$. Las funciones coordenada son

\begin{align*}
f_{1}(x,y)&=x^{2}\\
f_{2}(x,y)&=xy\\
f_{3}(x,y)&=y^{2},
\end{align*}

de donde tenemos: \[ \frac{\partial f_{1}}{\partial x}(1,-1)=\left. 2x\right|_{_{(1,-1)}}=2;\hspace{3cm} \frac{\partial f_{1}}{\partial y}(1,-1)=0;\hspace{3cm}\frac{\partial f_{2}}{\partial x}(1,-1)=\left. y\right|_{_{(1,-1)}}=-1;\] \[ \frac{\partial f_{2}}{\partial y}(1,-1)=\left. x\right|_{_{(1,-1)}}=1;\hspace{3cm}\frac{\partial f_{3}}{\partial x}(1,-1)=0;\hspace{3cm}\frac{\partial f_{3}}{\partial y}(1,-1)=\left. 2y\right|_{_{(1,-1)}}=-2.\] Así \[ Df(1,-1)=\begin{pmatrix} \frac{\partial f_{1}}{\partial x}(1,-1) & \frac{\partial f_{1}}{\partial y}(1,-1) \\ \frac{\partial f_{2}}{\partial x}(1,-1) & \frac{\partial f_{2}}{\partial y}(1,-1) \\ \frac{\partial f_{3}}{\partial x}(1,-1) & \frac{\partial f_{3}}{\partial y}(1,-1) \end{pmatrix}= \begin{pmatrix} 2 & 0 \\ -1 & 1 \\ 0 & -2 \end{pmatrix}.\]

$\triangle$

Ejemplo. Ahora obtengamos el plano tangente a una superficie dada en un punto dado. Sea $\mathcal{S}$ la superficie de $\mathbb{R}^{3}$ descrita por la imagen de la función $f(x,y)=(x,y,xy^{2})$. Vamos a determinar el plano tangente a dicha superficie en el punto $(1,1,1)$. Comencemos calculando $Df(1,1)$. En primer lugar calculemos las parciales: \[ \frac{\partial f_{1}}{\partial x}(1,1)=1;\hspace{3cm}\frac{\partial f_{1}}{\partial y}(1,1)=0;\hspace{3cm}\frac{\partial f_{2}}{\partial x}(1,1)=0 \] \[ \frac{\partial f_{2}}{\partial y}(1,1)=1;\hspace{3cm}\frac{\partial f_{3}}{\partial y}(1,1)=1;\hspace{3cm}\frac{\partial f_{3}}{\partial y}(1,1)=2.\]

Por lo tanto \[ Df(1,1)=\begin{pmatrix} 1 & 0 \\ 0 & 1 \\ 1 & 2 \end{pmatrix}.\]

Esta transformación manda al punto $(x,y)$ del plano $\mathbb{R}^2$ al punto\[ \begin{pmatrix} 1 & 0 \\ 0 & 1 \\ 1 & 2 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}=\begin{pmatrix} x \\ y \\ x+2y \end{pmatrix}.\]

De modo que el plano centrado en el origen es el conjunto $$H=\{(x,y,x+2y)\in \mathbb{R}^{3}|(x,y)\in \mathbb{R}^{2}\}.$$

Pero este plano debemos todavía trasladarlo por el vector $(1,1,1)$ para que pase por el punto $f(1,1)$. Concluimos entonces que el plano tangente buscado es el conjunto

$$\{(x+1,y+1,x+2y+1)\in \mathbb{R}^{3}|(x,y)\in \mathbb{R}^{2}\}.$$

En la Figura 4 tenemos la en rojo la imagen del campo vectorial de este ejemplo y en verde la del plano tangente, el punto negro es el punto $(1,1,1)$.

Figura 4

$\triangle$

¿Y derivadas parciales implica diferenciabilidad?

Cuando un campo vectorial es diferenciable, existen todas las derivadas parciales de todos sus campos escalares coordenados. El regreso no es cierto. Sin embargo, sí se vale bajo una condición adicional de regularidad.

Definición. Diremos que un campo vectorial $f:S\subseteq \mathbb{R}^n\to \mathbb{R}^m$ es de clase $C^1$ (o simplemente es $C^1$) en un punto $\bar{a}\in S$ si todas las derivadas parciales de todas las funciones componentes de $f$ existen y son continuas en $\bar{a}$. Definimos de manera análoga lo que significa que $f$ sea de clase $C^1$ en todo $S$.

Teorema. Si $f:S\subseteq \mathbb{R}^n\to \mathbb{R}^m$ es un campo vectorial, $\bar{a}\in S$ y $f$ es $C^1$ en $\bar{a}$, entonces $f$ es diferenciable y su derivada $T_a$ tiene como forma matricial a la matriz jacobiana \eqref{eq:jacobiana}.

La prueba de este resultado se hace coordenada a coordenada, aplicando en cada una de ellas el teorema de diferenciabilidad y derivadas parciales para campos escalares que demostramos en la entrada del teorema del valor medio para campos escalares.

Más adelante

En esta entrada introdujimos el concepto de diferenciabilidad, de derivadas parciales, direccionales y por componente. Además, mostramos que cuando una función es diferenciable, entonces su derivada tiene una forma matricial muy sencilla, dada por las derivadas parciales de las componentes. Esto es nuestra primera señal de que las derivadas y las matrices están muy relacionadas entre sí. Lo que veremos en la siguiente entrada es que esta conexión se sigue dando, y de hecho nos permitirá enunciar de manera muy elegante la regla de la cadena para campos vectoriales: ¡será una multiplicación de matrices!

Después de entender mejor la diferenciabilidad, presentaremos y demostraremos teoremas clásicos e importantes de campos vectoriales: el teorema de la función inversa, y el teorema de la función implícita.

Tarea moral

  1. Completa los detalles faltantes del primer ejemplo que dimos de diferenciabilidad.
  2. Calcula la matriz jacobiana de la función $g(x,y,z)=(xz,xy,x^{2}y^{2}z^{2})$. Úsala para encontrar la ecuación del espacio tangente a la gráfica en el punto $g(2,1,0)$.
  3. Halla el campo vectorial cuya imagen es el plano tangente a la superficie dada por la ecuación $F(x,y)=x^{2}y^{2}+1$ en el punto $(1,1)$. Como ayuda al graficar $F$ en $\mathbb{R}^{3}$ nos dibuja la misma superficie que obtenemos de la imagen del campo vectorial $f(x,y)=(x,y,x^{2}y^{2}+1)$ que esta contenida en $\mathbb{R}^{3}$.
  4. Verifica que en efecto las dos definiciones de diferenciabilidad que dimos son equivalentes.
  5. Demuestra que si las parciales de cada componente de un campo vectorial existen, y son continuas, entonces la función es diferenciable. Tendrás que seguir la sugerencia dada en la última sección. Después, justifica la igualdad que dimos que escribe a las derivadas direccionales en términos de las parciales.
  6. Explica a detalle por qué la expresión a la que llegamos para $f^{\prime}(\bar{a};\bar{y})$ en efecto se puede pensar como el producto matricial mencionado.
  7. Encuentra un ejemplo de campo vectorial $f:\mathbb{R}^2\to \mathbb{R}^2$ en donde las derivadas parciales existen en algún punto $\bar{a}$, pero no todas las derivadas direccionales existen.

Entradas relacionadas