1.11. SUMA Y SUMA DIRECTA DE SUBESPACIOS: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

La suma entre espacios vectoriales se construye con la suma de vectores, sin embargo, al ser subespacios, lo que resulta de esta operación, dónde vive y cómo se comporta es algo que que debe analizarse de forma particular.

La suma directa, una vez que aprendemos a distinguirla y manejarla, nos permite expresar a nuestro espacio vectorial en términos de algunos de sus subespacios. De este modo es más clara la estructura que tienen todos los elementos del espacio.

SUMA DE SUBESPACIOS

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. La suma de $U$ y $W$ es $U+W=\{u+w|u\in U, w\in W\}$ (donde $+$ es la suma del espacio $V$).

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m=\{u_1+u_2+…+u_m|u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$

Propiedades

Justificación. Veamos que $U+W$ contiene a $\theta_V$ y conserva suma y producto por escalar.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$.
Así, $\theta_V =\theta_V+\theta_V\in U+W$
$\therefore \theta_V\in U+W$

Como $U,W\subseteq V$, entonces $u_1,u_2,w_1,w_2\in V$, así que $$(u_1+w_1)+\lambda (u_2+w_2)=(u_1+w_1)+(\lambda u_2 + \lambda_2 w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) $$ y como $U,W\leqslant V$, entonces tanto $U$ como $W$ conservan suma y producto por escalar así que $u_1+\lambda u_2 \in U$ y $w_1+\lambda w_2 \in W$.
Por lo cual, $(u_1+w_1)+\lambda(u_2+w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) \in U+W$
$\therefore (u_1+w_1)+\lambda(u_2+w_2)\in U+W$

Justificación. Recordando que $\theta_V\in U,W$ (porque $U,V\leqslant V$) tenemos que $\forall u\in U(u=u+\theta_V\in U+W)$ y $\forall w\in W(w=\theta_V+w\in U+W)$

Justificación. Sea $\tilde{V}\leqslant V$ tal que $U,W\subseteq \tilde{V}$
Sea $u+w\in U+W$ con $u\in U$ y $w\in W$.
Entonces $u\in U\subseteq \tilde{V}$ y $w\in W\subseteq \tilde{V}$.
De donde $u,w\in\tilde{V}$ y como $\tilde{V}\leqslant V$, entonces $\tilde{V}$ es cerrado bajo suma. Así, $u+w\in\tilde{V}$.
$\therefore U+W\subseteq\tilde{V}$

Teorema: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Demostración: Sea $\beta=\{v_1,v_2,…,v_m\}$ una base de $U\cap W$ con $dim_K U\cap W=m$.
Podemos completar a una base de $U$ y a una base de $W$:

Sea $A=\{v_1,v_2,…,v_m,u_1,u_2,…,u_r\}$ una base de $U$.
Sea $\Gamma =\{v_1,v_2,…,v_m,w_1,w_2,…,w_s\}$ una base de $W$.

donde $dim_K U=m+r$ y $dim_K W =m+s$.

Veamos que $\Delta =A\cup\Gamma =\{v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s\}$ es base de $U+W$ con $m+r+s$ elementos.

Tenemos que $A$ es base de $U$, por lo que $A\subseteq U$.
Tenemos que $\Gamma$ es base de $W$, por lo que $\Delta\subseteq W$.
Así, $\Delta =A\cup\Gamma \subseteq U\cup W$. Y como $U,W\subseteq U+W$, entonces $U\cup W\subseteq U+W$.
Por lo tanto $\Delta\subseteq U+W$ y como $U+W\leqslant V$ concluimos que $\langle\Delta\rangle\subseteq U+W.$

Ahora bien, sea $u+w\in U+W$ con $u\in U$ y $w\in W$.
Entonces $u\in U=\langle A\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$ y $w\in W=\langle\Gamma\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$.
De donde $u,w\in\langle\Delta\rangle$ y como $\langle\Delta\rangle\leqslant V$, entonces $u+w\in\langle\Delta\rangle$.
Por lo tanto, $U+W\subseteq\langle\Delta\rangle$.

$\therefore\langle\Delta\rangle =U+W$

Veamos que la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. Como consecuencia de ello se tendrá que $\Delta$ es linealmente independiente y $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ son distintos y por lo tanto son $m+r+s$ elementos.

Sean $\kappa_1,\kappa_2,…,\kappa_m,\lambda_1,\lambda_2,…,\lambda_r,\mu_1,\mu_2,…,\mu_s\in K$ tales que:
$\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(1)$

Como $W\leqslant V$, entonces $\sum_{i=1}^s\mu_iw_i\in W$ $…(2)$
Como $U=\langle A\rangle$, entonces $-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i\in U$ $…(3)$

De $(1)$ tenemos que $\sum_{i=1}^s\mu_iw_i=-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i$ y en consecuencia, por $(2)$ y $(3)$, concluimos que $\sum_{i=1}^s\mu_iw_i$ es un elemento que está tanto en $U$ como en $W$.

Así, $\sum_{i=1}^s\mu_iw_i\in U\cap W=\langle\beta\rangle$ y por tanto existen $\gamma_1,\gamma_2,…,\gamma_m\in K$ tales que $\sum_{i=1}^s\mu_iw_i=\sum_{i=1}^m\gamma_iv_i$ $…(4)$

De $(4)$ tenemos que $\sum_{i=1}^s\mu_iw_i-\sum_{i=1}^m\gamma_iv_i=\theta_V$, y como $\Gamma$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,s\}(\mu_i=0_K)$ y $\forall i\in\{1,2,…,m\}(-\gamma_i=0_K)$. Por lo tanto, $\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(5)$

De $(1)$ y $(5)$ tenemos que $\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\theta_V=\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i+\sum_{i=1}^s\mu_iw_i=\theta_V$. De donde $\sum_{i=1}^m\kappa_iv_i+\sum_{i=1}^r\lambda_iu_i=\theta_V$, y como $A$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,m\}(\kappa_i=0_K)$ y $\forall i\in\{1,2,…,r\}(-\lambda_i=0_K)$ $…(6)$

Hemos probado que $\kappa_1,=\kappa_2=…=\kappa_m=\lambda_1=\lambda_2=…=\lambda_r=\mu_1=\mu_2=…=\mu_s=0_K$.

Así, la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. y en consecuencia $\Delta$ es un conjunto l.i. con $m+r+s$ elementos.

$\therefore\Delta$ es l.i.

Concluimos que $\Delta$ es base de $U+W$ con $m+r+s$ elementos.

Finalmente sabemos que $dim_KU=m+r$, $dim_KW=m+s$ y $dim_K(U\cap W)=m.$
Además $\Delta$ es base de $U+W$ con $m+r+s$ elementos, entonces $dim_K(U+W)=m+r+s=(m+r)+(m+s)-m.$

Por lo tanto $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Ejemplos

Justificación. Es claro que $U_1,U_2,U_3\leqslant V$. Veamos el resultado de cada suma entre estos subespacios.
$U_1+U_2=\{(x,0)+(0,y)|x,y\in\mathbb{R}\}=\{(x,y)|x,y\in\mathbb{R}\}=V$
$U_2+U_3=\{(0,y)+(a,a)|y,a\in\mathbb{R}\}=\{(a,a+y)|a,y\in\mathbb{R}\}=\{(a,b)|a,b\in\mathbb{R}\}=V$
$U_3+U_1=\{(a,a)+(x,0)|a,x\in\mathbb{R}\}=\{(a+x,a)|a,x\in\mathbb{R}\}=\{(b,a)|b,a\in\mathbb{R}\}=V$

Verifiquemos para la suma $U_1+U_2$ el teorema previo:

Sabemos que $dim_KV=2$. Además $U_1\cap U_2=\{(0,0)\}$ y así $dim_K(U_1\cap U_2)=dim_K\{(0,0)\}=0$.
Como $\{(1,0)\}$ es base de $U_1$, entonces $dim_KU_1=1$.
Como $\{(0,1)\}$ es base de $U_2$, entonces $dim_KU_2=1$.
Así, $2=dim_KV=dim_K(U_1+U_2)=2=1+1+0=dim_KU_1+dim_KU_2-dim_K(U_1\cap U_2).$

Justificación. Dado que $dim_KV=3$ y $U+W$ es un subespacio de $V$
bastará probar entonces que $dim_K(U+W)=3$.

Como $\{(1,0,0),(0,1,0)\}$ es base de $U$, entonces $dim_KU=2$
Como $\{(0,1,0),(0,0,1)\}$ es base de $W$, entonces $dim_KW=2$
Como $\{(0,1,0)\}$ es base de $U\cap W$, entonces $dim_K(U\cap W)=1$
Así, \begin{align*}dim_K(U+W)&=dim_KU+dim_KW-dim_K(U\cap W)\\&=2+2-dim_K(U\cap W)=4-1=3,\end{align*} de donde $dim_K(U+W)=3=dim_KV$.

$\therefore U+W=V$.

SUMA DIRECTA

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. Decimos que $U+W$ es una suma directa si cada $v\in U+W$ se escribe como $v=u+w$ (con $u\in U,w\in W$) de forma única. En ese caso, escribiremos a $U+W$ como $U\oplus W$.

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m$ es suma directa si cada $v\in U_1+U_2+…+U_m$ se escribe como $v=u_1+u_2+…+u_m$ (con $u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$) de forma única. Se denotará como $U_1\oplus U_2\oplus …\oplus U_m$.

Ejemplo

Justificación. Es claro que $U,W\leqslant V$.
Sea $(a,b)\in\mathbb{R}^2$.
Entonces $a,b\in\mathbb{R}$.

Tenemos que $$(a,b)=\left( \frac{a+b}{2}+\frac{a-b}{2} ,\frac{a+b}{2}-\frac{a-b}{2}\right)=\left( \frac{a+b}{2} ,\frac{a+b}{2}\right)+\left( \frac{a-b}{2} ,-\frac{a-b}{2}\right)\in U+W,$$
de donde $\mathbb{R}^2\subseteq U+W$. Sabemos que $U+W\subseteq V$ y demostramos que $V\subseteq U+W$
$\therefore U+ W=V$

Veamos ahora que dicha suma es directa, es decir que si $u\in U, w\in W$ son tales que $(a,b)=u+w$, entonces $u,w$ son únicos. Bastará para ello verificar que la descomposición anterior de $(a,b)$ como suma de un elemento en $U$ y uno en $W$ es la única posible.

Sean $u\in U, w\in W$ son tales que $(a,b)=u+w$.
Entonces $u=(x,x)$ para algún $x\in\mathbb{R}$ y $w=(y,-y)$ para algún $y\in\mathbb{R}$, donde $(a,b)=(x,x)+(y,-y)=(x+y,x-y)$.

De aquí se deduce que $a=x+y$ y $b=x-y$. Así, $a+b=2x$ y por lo tanto $x=\frac{a+b}{2}$, mientras que $a-b=2y$ y por lo tanto $y=\frac{a-b}{2}$.

$\therefore U+W$ es suma directa.
$\therefore U\oplus W=V$

Proposición: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $U+W$ es suma directa si y sólo si $U\cap W=\{\theta_V\}$

Demostración: Veamos ambas implicaciones.

$\Rightarrow )$ Supongamos que $U+W$ es suma directa.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$. Por lo que $\{\theta_V\}\subseteq U\cap W$.

Sea $v\in U\cap W$.
Sabemos que $\theta_V+v,v+\theta_V\in U\oplus W$ y son formas de escribir a $v$.
Como $U+W$ es suma directa, entonces la forma de escribir a $v$ debe ser única.
Por lo tanto, $v=\theta_V$

$\therefore U\cap W=\{\theta_V\}$

$\Leftarrow )$ Supongamos que $U\cap W=\theta_V$

Sea $v\in U+W$ tal que $u_1+w_1=v=u_2+w_2$ con $u_1,u_2\in U$ y $w_1,w_2\in W$

Como $U,W\leqslant V$, entonces $u_1-u_2\in U$ y $w_2-w_1\in W$.
Como $u_1+w_1=u_2+w_2$, entonces $u_1-u_2=w_2-w_1$.
Por lo tanto, $u_1-u_2,w_2-w_1\in U\cap W=\{\theta_V\}$

Así, $u_1-u_2=\theta_V$ lo que implica que $ u_1=u_2$T ambién $w_2-w_1=\theta_V$ lo que implica que $w_2=w_1$.
Es decir, cada elementos en $U+W$ se escribe de forma única.

$\therefore U+W$ es una suma directa.

Tarea Moral

Más adelante…

A partir de la siguiente entrada, analizaremos un tipo de funciones muy especial y útil que va de espacios vectoriales a espacios vectoriales y aunque la definición sólo le pide abrir dos operaciones, esto implica muchas propiedades que otorgan a este tipo de funciones un papel central en el Álgebra lineal.

Entradas relacionadas

Diferencial de orden N, Teorema de Taylor

Por Angélica Amellali Mercado Aguilar

Diferencial de orden n

$$d^{n}f=\frac{\partial^{n} f}{\partial x^{n}}dx^{n}+\left(\begin{matrix}n\\1\end{matrix}\right)\frac{\partial^{n-1} f}{\partial x^{n-1}\partial y}dx^{n-1}dy+\left(\begin{matrix}n\\2\end{matrix}\right)\frac{\partial^{n-2} f}{\partial x^{n-2}\partial y^{2}}dx^{n-2}dy^{2}+\cdots+$$ $$\left(\begin{matrix}n\\k\end{matrix}\right)\frac{\partial^{n-k} f}{\partial x^{n-k}\partial y^{k}}dx^{n-k}dy^{k}+\cdots+\frac{\partial^{n}f}{\partial y^{n}}dy^{n}$$
que se puede escribir
$$d^{n}f=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$

Ejercicio. Probar usando inducción
$$d^{n}f=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$

Solución. Para n=1 se tiene
$$df=\frac{\partial f}{\partial x}dx+\frac{\partial f}{\partial y}dy$$
Suponemos valido para n

$$d^{n}f=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$
Por demostrar que es valida para n+1
$$d^{n+1}f=d(d^{n}f)=\frac{\partial}{\partial x}\left(\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}\right)dx+\frac{\partial}{\partial y}\left(\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}\right)dy=$$

$$\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n-j}\partial y^{j+1}}dx^{n-j}dy^{j+1}=$$
$$\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\sum_{j=1}^{n+1}\left(\begin{matrix}n\\j-1\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}=$$

$$\frac{\partial^{n+1}f}{\partial x^{n+1}}dx^{n+1}+\sum_{j=1}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\sum_{j=1}^{n}\left(\begin{matrix}n\\j-1\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\frac{\partial^{n+1}f}{\partial y^{n+1}}dy^{n+1}=$$

$$\frac{\partial^{n+1}f}{\partial x^{n+1}}dx^{n+1}+\sum_{j=1}^{n}\left(\left(\begin{matrix}n\\j\end{matrix}\right)+\left(\begin{matrix}n\\j-1\end{matrix}\right)\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\frac{\partial^{n+1}f}{\partial y^{n+1}}dy^{n+1}=$$

$$\frac{\partial^{n+1}f}{\partial x^{n+1}}dx^{n+1}+\sum_{j=1}^{n}\left(\begin{matrix}n+1\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\frac{\partial^{n+1}f}{\partial y^{n+1}}dy^{n+1}=\sum_{j=0}^{n+1}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$

La última fórmula puede expresarse simbólicamente por la ecuación
$$d^{n}f=\left(\frac{\partial}{\partial x}dx+\frac{\partial}{\partial y}dy\right)^{n}f$$

donde primero debe desarrollarse le expresión de la derecha formalmente por medio del teorema del binomio y, a continuación deben sustituirse los términos
$$\frac{\partial^{n}f}{\partial x^{n}}dx^{n},\frac{\partial^{n}f}{\partial x^{n-1}\partial y}dx^{n-1}dy,\cdots,\frac{\partial^{n}f}{\partial y^{n}}dy^{n}$$
por los términos
$$\left(\frac{\partial}{\partial x}dx\right)^{n}f,\left(\frac{\partial}{\partial x}dx\right)^{n-1}\left(\frac{\partial}{\partial y}dy\right)f,\cdots,\left(\frac{\partial}{\partial y}dy\right)^{n}f$$

Teorema de Taylor para funciones $f:A\subset\mathbb{R}^{2}\rightarrow\mathbb{R}$}

Recordando el Teorema de Taylor para funciones $f:\mathbb{R}\rightarrow\mathbb{R}$

Teorema. Si $f(x)$ tiene n-ésima derivada continua en una vecindad de $x_{0}$, entonces en esa vecindad
$$f(x)=f(x_{0})+\frac{1}{1!}f'(x_{0})(x-x_{0})+\frac{1}{2!}f»(x_{0})(x-x_{0})^{2}+\frac{1}{3!}f»'(x_{0})(x-x_{0})^{3}+…+\frac{1}{n!}f^{n}(x_{0})(x-x_{0})^{n}+R_{n}$$
donde
$$R_{n}=\frac{f^{n+1}(\epsilon)}{(n+1)!}(x-x_{0})^{n+1},~donde~\epsilon\in(x_{0},x)$$

Sea $f:A\subset\mathbb{R}^{2}\rightarrow\mathbb{R}$ y sea $F(t)=f(x_{0}+h_{1}t,y_{0}+h_{2}t)$ con $t\in[0,1]$, de esta manera f recorre el segmento de $[x_{0},y_{0}]$ a $[x_{0}+h_{1}t,y_{0}+h_{2}t]$. Se tiene entonces que usando la regla de la cadena
$$F'(t)=\frac{\partial f}{\partial x}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot \frac{d(x_{0}+h_{1}t)}{dt}+\frac{\partial f}{\partial y}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot \frac{d(y_{0}+h_{2}t)}{dt}=$$

$$\frac{\partial f}{\partial x}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot h_{1}+\frac{\partial f}{\partial y}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot h_{2}$$
Vamos ahora a calcular $F^{´´}(t)$

$$F^{´´} ( t )=\frac{\partial}{\partial x}\left(\frac{\partial f}{\partial x}h_{1}+ \frac{\partial f}{\partial y}h_{2}\right)h_{1}+\frac{\partial}{\partial y}\left(\frac{\partial f}{\partial x}h_{1}+ \frac{\partial f}{\partial y}h_{2}\right)h_{2}=$$
$$\frac{\partial^{2} f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}h_{2}^{2}$$

simbólicamente se puede escribir
$$F^{»}(t)=\left(\frac{\partial }{\partial x}\cdot h_{1}+\frac{\partial }{\partial y}\cdot h_{2}\right)^{2}f$$
y en general

$$F^{n}(t)=\frac{\partial^{n} f}{\partial x^{n}}h_{1}^{n}+\left(\begin{matrix}n\\1\end{matrix}\right)\frac{\partial^{n-1} f}{\partial x^{n-1}\partial y}h_{1}^{n-1}h_{2}+\left(\begin{matrix}n\\2\end{matrix}\right)\frac{\partial^{n-2} f}{\partial x^{n-2}\partial y^{2}}h_{1}^{n-2}h_{2}^{2}+\cdots+\left(\begin{matrix}n\\k\end{matrix}\right)\frac{\partial^{n-k} f}{\partial x^{n-k}\partial y^{k}}h_{1}^{n-k}h_{2}^{k}+\cdots+\frac{\partial^{n}f}{\partial y^{n}}h_{2}^{n}$$

que simbólicamente se puede escribir
$$F^{n}=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}h_{1}^{n-j}h_{2}^{j}=\left(\frac{\partial }{\partial x}\cdot h_{1}+\frac{\partial }{\partial y}\cdot h_{2}\right)^{n}f$$

Ahora bien si se aplica la fórmula de Taylor con la forma del residuo de Lagrange a la función $$F(t)=f(x_{0}+h_{1}t,y_{0}+h_{2}t)$$ y ponemos $t=0$, se tiene
$$F(t)=F(0)+\frac{1}{1!}F'(0)t+\frac{1}{2!}F^{»}(0)t^{2}+\frac{1}{3!}F»'(0)t^{3}+…++\frac{1}{n!}F^{^{n}}(0)t^{n}+R_{n}$$
ahora bien con $t=1$
$$f(x_{0}+h_{1},y_{0}+h_{2})=f(x_{0},y_{0})+\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot h_{1}+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot h_{2}\right)+\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})h_{2}^{2}\right)$$
$$+\cdots+\frac{1}{n!}\left(\sum_{j=0}^{n+1}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}(x_{0},y_{0})h_{1}^{n-j}h_{2}^{j}\right)$$

$x=x_{0}+h_{1}$, $y_{0}+h_{2}=y$ por lo que $h_{1}=x-x_{0}$ y $h_{2}=y-y_{0}$ entonces

$$f(x,y)=f(x_{0},y_{0})+\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)+$$

$$\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})(x-x_{0})^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})(x-x_{0})(y-y_{0})+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})(y-y_{0})^{2}\right)+$$

$$\cdots+\frac{1}{n!}\left(\sum_{j=0}^{n+1}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}(x_{0},y_{0})(x-x_{0})^{n-j}(y-y_{0})^{j}\right)+R_{n}$$

donde
$$R_{n}=\frac{1}{n+1!}\left((x-x_{0})^{n+1}\frac{\partial^{n+1}f}{\partial x^{n+1}}(\xi,\eta)+\cdots+(y-y_{0})^{n+1}\frac{\partial^{n+1}f}{\partial y^{n+1}}(\xi,\eta)\right)$$ donde $\xi\in(x_{0},x_{0}+h_{1})$ y $\eta\in(y_{0},y_{0}+h_{2})$\En general el residuo $R_{n}$ se anula en un orden mayor que el término $d^{n}f$

Ejemplo. Desarrollar la fórmula de Taylor en $(x_{0},y_{0})=(0,0)$ con $n=3$ para la función $$f(x,y)=e^{y}\cos x$$

Solución. En este caso tenemos que
$$f(0,0)=e^{0}\cos(0)=1$$
Para la diferencial de orden 1
$$\frac{\partial f}{\partial x}(0,0)~\Rightarrow~\frac{\partial (e^{y}\cos(x))}{\partial x}(0,0)~\Rightarrow~-e^{y} sen\left( x\right) \big{|}{(0,0)}=0$$ $$\frac{\partial f}{\partial y}(0,0)~\Rightarrow~\frac{\partial (e^{y} \cos x)}{\partial y}(0,0)~\Rightarrow~-e^{y}\cos(x)\big{|}{(0,0)}=1$$
por lo tanto
$$\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)=\frac{1}{1!}\left((0)(x)+(1)(y)\right)=y$$
Para la diferencial de orden 2
$$\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\ cos x)}{\partial x^{2}}(0,0)~\Rightarrow~-e^{y} \cos~x\big{|}{(0,0)}=-1$$ $$\frac{\partial^{2} f}{\partial y^{2}}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y} \cos x)}{\partial y^{2}}(0,0)~\Rightarrow~e^{y} \cos~x\big{|}{(0,0)}=1$$ $$\frac{\partial^{2} f}{\partial x~\partial y}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial x~\partial y}(0,0)~\Rightarrow~-e^{y} sen~x~ \big{|}{(0,0)}=0$$ Por lo tanto $$\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x{0},y_{0})h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})h_{2}^{2}\right)=\frac{1}{2!}((-1)x^{2}+2(0)xy+(1)y^{2})$$
Para la diferencial de orden 3

$$\frac{\partial^{3} f}{\partial x^{3}}(x_{0},y_{0})~\Rightarrow~e^{y} sen~x\big{|}_{(0,0)}=0$$

$$\frac{\partial^{3} f}{\partial y^{3}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial y^{3}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(0,0)}=1$$

$$\frac{\partial^{3} f}{\partial x^{2}~\partial y}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial x^{2}~\partial y}(0,0)~\Rightarrow~-e^{y}\cos~x\big{|}_{(0,0)}=-1$$

$$\frac{\partial^{3} f}{\partial y^{3}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial y^{3}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(0,0)}=1$$

$$\frac{\partial^{3} f}{\partial x~\partial y^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial x~\partial y^{2}}(0,0)~\Rightarrow~-e^{y} sen~x\big{|}_{(0,0)}=0$$

Por lo tanto
$$\frac{1}{3!}\left(\frac{\partial^{3} f}{\partial x^{3}}h_{1}^{3}+3\frac{\partial^{3} f}{\partial x^{2}\partial y}h_{}1^{2}h_{2}+3\frac{\partial^{3} f}{\partial x\partial y^{2}}h_{1}h_{2}^{2}+\frac{\partial^{3} f}{\partial y^{3}}h_{}2^{3}\right)=$$

$$\frac{1}{3!}\left((0)(x^{3})+3(-1)x^{2}y+3(0)xy^{2}+(1)y^{3}\right)$$
Finalmente para el residuo se tiene

$$\frac{\partial^{4} f}{\partial x^{4}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos(x))}{\partial y^{3}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(\xi,\eta)}=e^{\eta}\cos~\xi$$

$$\frac{\partial^{4} f}{\partial x^{2}\partial y^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos x)}{\partial x^{2}\partial y^{2}}(0,0)~\Rightarrow~-e^{y}\cos~x\big{|}_{(\xi,\eta)}=-e^{\eta}\cos~\xi$$

$$\frac{\partial^{4} f}{\partial x\partial y^{3}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos x)}{\partial x\partial y^{3}}(0,0)~\Rightarrow~-e^{y} sen~x\big{|}_{(\xi,\eta)}=-e^{\eta} sen~\xi$$

$$\frac{\partial^{4} f}{\partial y^{4}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos x)}{\partial y^{4}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(\xi,\eta)}=e^{\eta}\cos~\xi$$

$$R_{3}=\frac{1}{4!}\left(\frac{\partial^{4} f}{\partial x^{4}}h_{1}^{4}+4\frac{\partial^{4} f}{\partial x^{3}\partial y}h_{1}^{3}h_{2}+6\frac{\partial^{4} f}{\partial x^{2}\partial y^{2}}h_{1}^{2}h_{2}^{2}+4\frac{\partial^{4} f}{\partial x\partial y^{3}}h_{1}h_{2}^{3}+\frac{\partial^{4} f}{\partial h_{2}^{4}}dy^{4}\right)$$

$$=\frac{1}{4!}\left(x^{4}e^{\eta}\cos~\xi+4x^{3}ye^{\eta} sen~xi-6x^{2}y^{2}e^{\eta}\cos~\xi-4xy^{3}e^{\eta} sen~\xi+y^{4}e^{\eta}\cos~\xi\right)$$

Por lo que nuestro desarrollo de Taylor nos queda
$$e^{y}\cos~x=1+y+\frac{1}{2}(x^{2}-y^{2})+\frac{1}{6}(x^{3}-3xy^{2})+R_{3}$$
donde
$$R_{3}=\frac{1}{4!}\left(x^{4}e^{\eta}\cos~\xi+4x^{3}ye^{\eta} sen~xi-6x^{2}y^{2}e^{\eta}\cos~\xi-4xy^{3}e^{\eta} sen~\xi+y^{4}e^{\eta}\cos~\xi\right)$$
$\textbf{Ejercicio}$ Use la fórmula de Taylor en
$$f(x,y)=\cos~(x+y)$$
en el punto $(x_{0},y_{0})=(0,0)$ con $n=2$ para comprobar que
$$\lim_{(x,y)\rightarrow(0,0)}\frac{1-\cos~(x+y)}{(x^{2}+y^{2})^{2}}=\frac{1}{2}$$

En este caso para
$$f(x,y)=\cos(x+y)$$
se tiene
$$f(0,0)=\cos(0+0)=1$$
Para la diferencial de orden 1
$$\frac{\partial f}{\partial x}(0,0)~\Rightarrow~\frac{\partial (\cos x+y)}{\partial x}(0,0)~\Rightarrow~- sen(x+y)\big{|}{(0,0)}=0$$ $$\frac{\partial f}{\partial y}(0,0)~\Rightarrow~\frac{\partial (\cos x+y)}{\partial y}(0,0)~\Rightarrow~- sen(x+y)\big{|}{(0,0)}=0$$
por lo tanto

$$\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)=\frac{1}{1!}\left((0)(x)+(0)(y)\right)=0$$

Para la diferencial de orden 2
$$\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (\cos x+y)}{\partial x^{2}}(0,0)~\Rightarrow~-\cos~x+y\big{|}{(0,0)}=-1$$ $$\frac{\partial^{2} f}{\partial y^{2}}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (\cos x+y)}{\partial y^{2}}(0,0)~\Rightarrow~-\cos~x+y\big{|}{(0,0)}=-1$$ $$\frac{\partial^{2} f}{\partial x~\partial y}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (\cos x+y)}{\partial x~\partial y}(0,0)~\Rightarrow~-\cos~x+y\big{|}_{(0,0)}=-1$$
Por lo tanto

$$\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})h_{2}^{2}\right)=\frac{1}{2!}((-1)x^{2}-2xy+(-1)y^{2})$$
Por lo que nuestro desarrollo de Taylor nos queda
$$\cos(x+y)=1-\frac{x^{2}}{2}-xy-\frac{y^{2}}{2}$$
De manera que

$$\lim_{(x,y)\rightarrow(0,0)}\frac{1-\cos~(x+y)}{(x^{2}+y^{2})^{2}}=\lim_{(x,y)\rightarrow(0,0)}\frac{1-(1-\frac{x^{2}}{2}-xy-\frac{y^{2}}{2})}{(x^{2}+y^{2})^{2}}$$
$$=\lim_{(x,y)\rightarrow(0,0)}\frac{1}{2}\frac{(x^{2}+y^{2})^{2}}{(x^{2}+y^{2})^{2}}=\frac{1}{2}$$

Geometría Moderna II: Razón Cruzada por la Circunferencia

Por Armando Arzola Pérez

Introducción

Como ya se vio, la razón cruzada tiene varias propiedades, desde seis tipos de razón cruzada hasta la construcción del cuarto elemento, pero falta analizar su relación con la circunferencia.

Propiedades de razón cruzada por la circunferencia

Se abordarán 3 propiedades en relación con una circunferencia dada.

Propiedad 1. Sean cuatro puntos en una circunferencia (con cíclicos) cualesquiera $A,B,C,D$, si unimos estos puntos a dos puntos $O$ y $O’$ que están en la misma circunferencia, entonces los haces $O\{ABCD\}$ y $O’\{ABCD\}$ tienen iguales razones cruzadas.

Razón cruzada por la circunferencia propiedad 1

Demostración. Las razones cruzadas son:

$O\{ABCD\}=\frac{sen(AOC)/sen(COB)}{sen(AOD)/sen(DOB)}=k$ y

$O’\{ABCD\}=\frac{sen(AO’C)/sen(CO’B)}{sen(AO’D)/sen(DO’B)}=k’$.

Notemos la igualdad de ángulos correspondientes de los dos haces $\angle{AOC}=\angle{AO’C}$, $\angle{COB}=\angle{CO’B}$, $\angle{DOB}=180-\angle{DO’B}$ y $\angle{AOD}=180-\angle{AO’D}$.

Por lo cual los ángulos formados serán iguales o suplementarios, por ello los senos de los ángulos serán iguales.

$\frac{sen(AOC)/sen(COB)}{sen(AOD)/sen(DOB)}=\frac{sen(AO’C)/sen(CO’B)}{sen(AO’D)/sen(DO’B)}$

$\Rightarrow O\{ABCD\}=k=k’=O’\{ABCD\}$

$\square$

Propiedad 2. Sea $C(O,r)$ una circunferencia en la cual se tienen cuatro puntos fijos $A,B,C,D$ por los cuales pasan tangentes por cada uno de estos y cortan la tangente en un punto variable $X$, entonces la razón cruzada de los cuatro puntos de intersección es una constante.

Es decir, $\{A’B’C’D’\}$ es constante independientemente de $X$.

Razón cruzada por la circunferencia propiedad 2

Demostración. Se tiene por teorema visto de razón que $\{A’B’C’D’\}=O\{A’B’C’D’\}$, entonces:

$O\{A’B’C’D’\}=\frac{sen(A’OC’)}{sen(C’OB’)}/\frac{sen(A’OD’)}{sen(D’OB’)}$

Ahora, como los lados correspondientes de los ángulos $C’OB’$ y $CXB$ son perpendiculares, entonces los senos de estos ángulos son iguales, esto ocurre de igual manera para los otros ángulos de los haces $O\{A’B’C’D’\}$ y $X\{ABCD\}$.

$\Rightarrow \frac{sen(A’OC’)}{sen(C’OB’)}/\frac{sen(A’OD’)}{sen(D’OB’)} = \frac{sen(AXC)}{sen(CXB)}/\frac{sen(AXD)}{sen(DXB)} $
$\Rightarrow O\{A’B’C’D’\} =X\{ABCD\}$

Observemos que esto ocurre para cualquier $X’$ entonces $X\{ABCD\}=X’\{ABCD\}$, y por ende se tiene $\{A’B’C’D’\}=O\{A’B’C’D’\}=X’\{ABCD\}$.
Por lo tanto, $\{A’B’C’D’\}=cte$ independientemente de $X$.

$\square$

Propiedad 3. Sea un haz el cual tiene su vértice fuera de una circunferencia $C(O,r)$ y la cual sus cuatro líneas cortan a la circunferencia en los pares de puntos $A,A’$, $B,B’$, $C,C’$ y $D,D’$. Si se tienen dos puntos distintos $E$ y $E’$ sobre la circunferencia, entonces las razones cruzadas de los haces $E\{ABCD\}$ y $E’\{A’B’C’D’\}$ son iguales.

Razón cruzada por la circunferencia propiedad 3

Demostración. Unamos los puntos $A,B,C,D$ a $A’$ y $A’,B’,C’,D’$ a $A$, esto nos dará las intersecciones de $AB’$ y $A’B$ en un punto $X$, $AC’$ y $A’C$ en un punto $y$, $AD’$ y $A’D$ en un punto $Z$, los cuales están en la polar del vértice $O$ del haz dado, por lo cual se tiene por propiedad 1 de razón cruzada en la circunferencia:

$E’\{ABCD\}=E’\{A’B’C’D’\}=A\{A’B’C’D’\}$

Por propiedad de razón cruzada:

$A\{A’B’C’D’\}=\{wxyz\}=A’\{wxyz\}=A’\{ABCD\}$

Y por propiedad 1 de razón cruzada en la circunferencia:

$A’\{ABCD\}=E\{ABCD\}$

Por lo tanto, $E’\{A’B’C’D’\}=E\{ABCD\}$ .

$\square$

Más adelante…

Ahora se abordará el tema de la regla de la falsa proposición.

Entradas relacionadas

Derivadas Parciales de Orden Superior.

Por Angélica Amellali Mercado Aguilar

Derivadas Parciales de Orden Superior

Si $f$ es una función de doas variables $x,y$ $\Rightarrow$ $\displaystyle\frac{\partial f}{\partial x}, \displaystyle\frac{\partial f}{\partial y}$ son funciones de las mismas variables, cuando derivamos $\displaystyle\frac{\partial f}{\partial x}$ y $ \displaystyle\frac{\partial f}{\partial y}$ obtenemos las derivadas parciales de segundo orden, las derivadas de $\displaystyle\frac{\partial f}{\partial x}$ están definidas por:

$$\displaystyle\frac{\partial^{2}f}{\partial x^{2}}(x,y)=\displaystyle\lim_{h\to 0}{\displaystyle\frac{\displaystyle\frac{\partial f}{\partial x}(x+h,y)-\displaystyle\frac{\partial f}{\partial x}(x,y)}{h}}$$

$$\displaystyle\frac{\partial^{2}f}{\partial y \partial x}(x,y)=\displaystyle\lim_{k\to 0}{\displaystyle\frac{\displaystyle\frac{\partial f}{\partial x}(x,y+k)-\displaystyle\frac{\partial f}{\partial x}(x,y)}{k}}$$

Si $f$ es una función de dos variables entonces hay cuatro derivadas parciales de segundo orden.

Consideremos las diferentes notaciones para las derivadas parciales:

$$f_{1,1}=\displaystyle\frac{\partial^{2}f}{\partial x^{2}}=f_{xx}$$

$$f_{1,2}=\displaystyle\frac{\partial^{2}f}{\partial y \partial x}=\frac{\partial}{\partial y}\bigg(\frac{\partial f}{\partial x}\bigg)=f_{xy}$$

$$f_{2,1}=\displaystyle\frac{\partial^{2}f}{\partial x \partial y}=\frac{\partial}{\partial x}\bigg(\frac{\partial f}{\partial y}\bigg)=f_{yx}$$

$$f_{2,2}=\displaystyle\frac{\partial^{2}f}{\partial y^{2}}=\frac{\partial}{\partial y}\bigg(\frac{\partial f}{\partial y}\bigg)=f_{yy}$$

Ejemplo. $z=x^{3}+3x^{2}y-2x^{2}y^{2}-y^{4}+3xy$ hallar $\displaystyle\frac{\partial z}{\partial x}, \displaystyle\frac{\partial z}{\partial y},\displaystyle\frac{\partial^{2} z}{\partial x^{2}},\displaystyle\frac{\partial^{2}z}{\partial x \partial y},\displaystyle\frac{\partial^{2}z}{\partial y \partial x},\displaystyle\frac{\partial^{2} z}{\partial y^{2}}$

$$\displaystyle\frac{\partial z}{\partial x}=3x^{2}+6xy-4xy^{2}+3y$$

$$\displaystyle\frac{\partial z}{\partial y}=3x^{2}-4x^{2}y-4y^{3}+3x$$

$$\displaystyle\frac{\partial^{2} z}{\partial x^{2}}=6x+6y-4y^{2}$$

$$\displaystyle\frac{\partial^{2} z}{\partial y^{2}}=-4x^{2}-12y^{2}$$

$$\displaystyle\frac{\partial^{2}z}{\partial y \partial x}=6x-8xy+3$$

$$\displaystyle\frac{\partial^{2}z}{\partial x \partial y}=6x-8xy+3$$

Teorema 1.Teorema de schwarz

Sea $f:A\subset \mathbb{R}^{2}\rightarrow\mathbb{R}$ una función definida en el abierto A de $\mathbb{R}^{2}$. Si las derivadas parciales

$$\frac{\partial^{2} f}{\partial y\partial x}~y~\frac{\partial^{2} f}{\partial x\partial y}$$

existen y son continuas en $A$, entonces

$$\frac{\partial^{2} f}{\partial y\partial x}=\frac{\partial^{2} f}{\partial x\partial y}$$

Demostración. Sea

$\displaystyle{M=f(x+h_{1},y+h_{2})-f(x+h_{1},y)-f(x,y+h_{2})+f(x,y)}$ y definimos $$\varphi(x)=f(x,y+h_{2})-f(x,y)$$de manera que
$$\varphi(x+h_{1})-\varphi(x)=f(x+h_{1},y+h_{2})-f(x+h_{1},y)-(f(x,y+h_{2})-f(x,y))=M$$

Aplicando el TVM a $\varphi$ en el intervalo $[x,x+h_{1}]$ se tiene que existe $\theta~\in~(x,x+h_{1})$ tal que

$$\varphi(x+h_{1})-\varphi(x)=\varphi'(\theta)h_{1}$$

por otro lado
$$\varphi'(x)=\frac{\partial f}{\partial x}(x,y+h_{2})-\frac{\partial f}{\partial x}(x,y)$$
por lo tanto
$$\varphi'(\theta)=\frac{\partial f}{\partial x}(\theta,y+h_{2})-\frac{\partial f}{\partial x}(\theta,y)$$
tenemos entonces que

$$M=\varphi(x+h_{1})-\varphi(x)=\varphi'(\theta)h_{1}=\left(\frac{\partial f}{\partial x}(\theta,y+h_{2})-\frac{\partial f}{\partial x}(\theta,y)\right)h_{1}$$
Consideremos ahora $\displaystyle{\psi(y)=\frac{\partial f}{\partial x}(x,y)}$. Aplicando el TVM a $\psi$ en el intervalo $[y,y+h_{2}]$ se tiene que existe $\eta~\in~(y,y+h_{2})$ tal que
$$\psi(y+h_{2})-\psi(y)=\psi'(\eta)h_{2}$$
por otro lado

$$\psi'(y)=\frac{\partial }{\partial y}\left(\frac{\partial f}{\partial x}\right)(x,y)=\frac{\partial^{2}f}{\partial y\partial x}(x,y)$$
por lo tanto
$$\psi'(\eta)=\frac{\partial^{2}f}{\partial y\partial x}(x,\eta)$$
de esta manera

$$\psi(y+h_{2})-\psi(y)=\psi'(\eta)h_{2}=\left(\frac{\partial^{2}f}{\partial y\partial x}(x,\eta)\right)h_{2}$$
y si $\theta\in (x,x+h_{1})$ tenemos entonces que

$$\frac{\partial f}{\partial x}(\theta,y+h_{2})-\frac{\partial f}{\partial x}(\theta,y)=\left(\frac{\partial^{2}f}{\partial y\partial x}(\theta,\eta)\right)h_{2}$$
en consecuencia
$$M=\left(\frac{\partial f}{\partial x}(\theta,y+h_{2})-\frac{\partial f}{\partial x}(\theta,y)\right)h_{1}=\left(\frac{\partial^{2}f}{\partial y\partial x}(\theta,\eta)\right)h_{2}h_{1}$$

Consideremos ahora $$\overline{\varphi}(y)=f(x+h_{1},y)-f(x,y)$$de manera que
$$\overline{\varphi}(y+h_{2})-\overline{\varphi}(y)=f(x+h_{1},y+h_{2})-f(x+h_{1},y)-(f(x,y+h_{2})-f(x,y))=M$$

Aplicando el TVM a $\overline{\varphi}$ en el intervalo $[y,y+h_{2}]$ se tiene que existe $\overline{\eta}~\in~(y,y+h_{2})$ tal que
$$\overline{\varphi}(y+h_{2})-\overline{\varphi}(y)=\overline{\varphi}'(\overline{\eta})h_{2}$$
por otro lado
$$\overline{\varphi}'(y)=\frac{\partial f}{\partial y}(x+h_{1},y)-\frac{\partial f}{\partial y}(x,y)$$
por lo tanto

$$\overline{\varphi}'(\overline{\eta})=\frac{\partial f}{\partial y}(x+h_{1},\overline{\eta})-\frac{\partial f}{\partial y}(x,\overline{\eta})$$
tenemos entonces que
$$M=\overline{\varphi}(y+h_{2})-\overline{\varphi}(y)=\overline{\varphi}'(\overline{\eta})h_{2}=\left(\frac{\partial f}{\partial y}(x+h_{1},\overline{\eta})-\frac{\partial f}{\partial y}(x,\overline{\eta})\right)h_{2}$$

Consideremos ahora $\displaystyle{\overline{\psi}(x)=\frac{\partial f}{\partial y}(x,y)}$. Aplicando el TVM a $\psi$ en el intervalo $[x,x+h_{1}]$ se tiene que existe $\overline{\theta}~\in~(x,x+h_{1})$ tal que
$$\overline{\psi}(x+h_{1})-\overline{\psi}(x)=\overline{\psi}'(\overline{\theta})h_{1}$$
por otro lado

$$\overline{\psi}'(x)=\frac{\partial }{\partial x}\left(\frac{\partial f}{\partial y}\right)(x,y)=\frac{\partial^{2}f}{\partial x\partial y}(x,y)$$
por lo tanto
$$\overline{\psi}'(\overline{\theta})=\frac{\partial^{2}f}{\partial y\partial x}(\overline{\theta},y)$$
de esta manera

$$\overline{\psi}(x+h_{1})-\overline{\psi}(x)=\overline{\psi}'(\overline{\theta})h_{1}=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},y)\right)h_{1}$$
es decir
$$\frac{\partial f}{\partial y}(x+h_{1},y)-\frac{\partial f}{\partial y}(x,y)=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},y)\right)h_{1}$$
y si $\overline{\eta}\in (y,y+h_{2})$ tenemos entonces que
$$\frac{\partial f}{\partial y}(x+h_{1},\overline{\eta})-\frac{\partial f}{\partial y}(x,\overline{\eta})=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},\overline{\eta})\right)h_{1}$$
en consecuencia

$$M=\left(\frac{\partial f}{\partial y}(x+h_{1},\overline{\eta})-\frac{\partial f}{\partial y}(x,\overline{\eta})\right)h_{1}h_{2}=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},\overline{\eta})\right)h_{2}h_{1}$$
igualando ambas expresiones de M se tiene
$$\left(\frac{\partial^{2}f}{\partial y\partial x}(\theta,\eta)\right)h_{2}h_{1}=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},\overline{\eta})\right)h_{2}h_{1}$$
donde
$$\left(\frac{\partial^{2}f}{\partial y\partial x}(\theta,\eta)\right)=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},\overline{\eta})\right)$$
Tomando limite cuando $h_{1},h_{2}\rightarrow 0$ y usando la continuidad asumida de las parciales mixtas se tiene que $\theta,\overline{\theta}\rightarrow x$ y $\eta,\overline{\eta}\rightarrow y$ se concluye
$$\frac{\partial^{2}f}{\partial y\partial x}(x,y)=\frac{\partial^{2}f}{\partial x\partial y}(x,y)$$ $\square$

Ejemplo. Sea $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$ dada por $f(x,y)=x^{3}+3x^{2}y-2x^{2}y^{2}-y^{4}+3xy$\
En este caso
$$\frac{\partial f}{\partial x}=3x^{2}+6xy-4xy^{2}+3y$$
$$\frac{\partial f}{\partial y}=3x^{2}-4x^{2}y-4y^{3}+3x$$
$$\frac{\partial^{2} f}{\partial x^{2}}=6x+6y-4y^{2}$$
$$\frac{\partial^{2} f}{\partial y^{2}}=-4x^{2}-12y^{2}$$
$$\frac{\partial^{2} f}{\partial x\partial y}=6x-8xy+3$$
$$\frac{\partial^{2} f}{\partial y\partial x}=6x-8xy+3$$

Ejemplo. Dada la función

tenemos que para $(x,y)\neq (0,0)$
$$\frac{\partial f}{\partial x}=y\frac{x^{4}+4x^{2}y^{2}-y^{4}}{(x^{2}+y^{2})^{2}}$$
$$\frac{\partial f}{\partial y}=x\frac{x^{4}-4x^{2}y^{2}-y^{4}}{(x^{2}+y^{2})^{2}}$$
para el primer caso hacemos $x=0$ y tenemos
$$\frac{\partial f}{\partial x}=y\frac{x^{4}+4x^{2}y^{2}-y^{4}}{(x^{2}+y^{2})^{2}}\underbrace{=}{x=0}-y$$ para el segundo caso hacemos $y=0$ y tenemos $$\frac{\partial f}{\partial y}=x\frac{x^{4}-4x^{2}y^{2}-y^{4}}{(x^{2}+y^{2})^{2}}\underbrace{=}{y=0}1$$
Calculamos ahora
$$\frac{\partial^{2} f}{\partial y\partial x}=\frac{\partial^{2} (-y)}{\partial y\partial x}=-1$$
$$\frac{\partial^{2} f}{\partial x\partial y}=\frac{\partial^{2} (1)}{\partial x\partial y}=1$$
por lo tanto
$$\frac{\partial^{2} f}{\partial y\partial x}=-1\neq 1=\frac{\partial^{2} f}{\partial x\partial y}$$
En este caso las parciales segundas no son contiuas en $(0,0)$

Teorema. Caso General

Sea $f:A\subset\mathbb{R}^{n}\rightarrow\mathbb{R}$ definida en el abierto A de $\mathbb{R}^{n}$ tal que
$$\frac{\partial^{2} f}{\partial x_{i}\partial x_{j}}$$ sean continuas en A, entonces
$$\frac{\partial^{2} f}{\partial x_{i}\partial x_{j}}=\frac{\partial^{2} f}{\partial x_{j}\partial x_{i}}$$

Regla de la Cadena. Plano tangente.

Por Angélica Amellali Mercado Aguilar

Caso particular de la regla de la cadena

Supongamos que $C:\mathbb{R}\rightarrow\mathbb{R}^{3}$ es una trayectoria diferenciable y $f:\mathbb{R}^{3}\rightarrow\mathbb{R}$.

Sea $h(t)$=$f(x(t), y(t), z(t))$ donde $c(t)$=$(x(t),y(t), z(t))$.
Entonces

$$\displaystyle\frac{\partial{h}}{\partial{t}} = \displaystyle\frac{\partial{f}}{\partial{x}}\cdot \frac{\partial{x}}{\partial{t}}+\frac{\partial{f}}{\partial{y}}\cdot
\frac{\partial{y}}{\partial{t}}+\frac{\partial{f}}{\partial{z}}\cdot
\frac{\partial{z}}{\partial{t}}$$

Esto es:
$\displaystyle\frac{\partial{h}}{\partial{t}}$=$\nabla{f(c(t))}\cdot
{c'(t)}$, ~donde $c'(t)$=$((x'(t), y'(t), z'(t))$

Demostración. Por definición
$\displaystyle\frac{\partial{h}}{\partial{t}}(t_{0})$=$\displaystyle\lim_{t\rightarrow0}\displaystyle\frac{h(t)-h(t_{0})}{t-t_{0}}$
Sumando y restando tenemos que

$\displaystyle\frac{h(t)-h(t_{0})}{t-t_{0}}$=$\displaystyle\frac{f(c(t))-f(c(t_{0}))}{t-t_{0}}$=$\displaystyle\frac{f(x(t), y(t), z(t)) – f(x(t_{0}), y(t_{0}), z(t_{0}))}{t-t_{0}}$=

=$\frac{f(x(t), y(t), z(t))~-~f(x(t_{0}), y(t),
z(t))~+~f(x(t_{0}), y(t), z(t))~-~f(x(t_{0}), y(t_{0}),
z(t))~+~f(x(t_{0}), y(t_{0}), z(t))~-~f(x(t_{0}), y(t_{0}),
z(t_{0}))}{t-t_{0}}$…$\ast$

Aplicando el Teorema del valor medio $\textbf{(T.V.M.)}$

$f(~x(t),~y(t),~z(t))-f(~x(t_{0}),~y(t),~z(t))=\displaystyle\frac{\partial{f}}{\partial{x}}(~c,~y(t),~z(t))~(x(t)-x(t_{0}))$

$f(~x(t_{0}),~y(t),~z(t))-f(~x(t_{0}),~y(t_{0}),~z(t))=\displaystyle\frac{\partial{f}}{\partial{y}}~(x(t),~ d, ~z(t))~(y(t)-y(t_{0}))$

$f(~x(t_{0}),~y(t_{0}),~z(t))-f(~x(t_{0}),~y(t_{0}),~z(t_{0}))=\displaystyle\frac{\partial{f}}{\partial{z}}(~x(t),~y(t),~e)~(z(t)-z(t_{0}))$

$\therefore$$\ast$=$\displaystyle\frac{\partial{f}}{\partial{x}}(~c,~y(t),~z(t))~\displaystyle\frac{x(t)-x(t_{0})}{t-t_{0}}+\displaystyle\frac{\partial{f}}{\partial{y}}~(~x(t),~d,~z(t))~\displaystyle\frac{y(t)-y(t_{0})}{t-t_{0}}$+

$+\displaystyle\frac{\partial{f}}{\partial{z}}~(~x(t),~y(t),~e))~\displaystyle\frac{z(t)-z(t_{0})}{t-t_{0}}$

Tomando $\displaystyle\lim_{t\rightarrow{t_{0}}}$ y por la continuidad de las parciales

$\displaystyle\frac{\partial{h}}{\partial{t}}$=$\displaystyle\frac{\partial{f}}{\partial{x}}~\frac{\partial{x}}{\partial{t}}+ \displaystyle\frac{\partial{f}}{\partial{y}}~\frac{\partial{y}}{\partial{t}}+\displaystyle\frac{\partial{f}}{\partial{z}}~\frac{\partial{z}}{\partial{t}}$

Ejemplos: Caso particular de la regla de la cadena

Ejemplo. Verificar la regla de la cadena para $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$ dada por $f(x,y)=x^{2}+3y^{2}$ y $c:\mathbb{R}\rightarrow\mathbb{R}^{2}$ dada por $c(t)=(e^{t},\cos(t))$

Solución. En este caso $\displaystyle{h(t)=f\circ c(t)~\Rightarrow~h'(t)=\frac{\partial h}{\partial t}}$ y aplicando la regla de la cadena se tiene
$$\frac{\partial f}{\partial x}(c(t))\cdot \frac{d x(t)}{dt}=\frac{\partial (x^{2}+3y^{2})}{\partial x}\left|{(e^{t},\cos(t))}\right.\cdot\frac{d (e^{t})}{dt}=2x\left|{(e^{t},\cos(t))}\cdot e^{t}\right.=2e^{t}\cdot e^{t}=2e^{2t}$$

$$\frac{\partial f}{\partial y}(c(t))\cdot \frac{d y(t)}{dt}=\frac{\partial (x^{2}+3y^{2})}{\partial y}\left|{(e^{t},\cos(t))}\right.\cdot\frac{d (\cos(t))}{dt}=6y\left|{(e^{t},\cos(t))}\cdot (-sen(t))\right.=6 cos(t) \cdot (- sen(t))$$
por lo tanto
$$h'(t)=2e^{2t}-6\cos(t)\cdot (sen(t))$$

Ejemplo. Verificar la regla de la cadena para $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$ dada por $f(x,y)=xy$ y $c:\mathbb{R}\rightarrow\mathbb{R}^{2}$ dada por $c(t)=(e^{t},\cos(t))$

Solución. En este caso $\displaystyle{h(t)=f\circ c(t)~\Rightarrow~h'(t)=\frac{\partial h}{\partial t}}$ y aplicando la regla de la cadena se tiene
$$\frac{\partial f}{\partial x}(c(t))\cdot \frac{d x(t)}{dt}=\frac{\partial (xy)}{\partial x}\left|{(e^{t},\cos(t))}\right.\cdot\frac{d (e^{t})}{dt}=y\left|{(e^{t},\cos(t))}\cdot e^{t}\right.=\cos(t)\cdot e^{t}$$

$$\frac{\partial f}{\partial y}(c(t))\cdot \frac{d y(t)}{dt}=\frac{\partial (xy)}{\partial y}\left|{(e^{t},\cos(t))}\right.\cdot\frac{d (cos(t))}{dt}=x\left|{(e^{t},cos(t))}\cdot (-sen(t))\right.=e^{t}\cdot (-sen(t))$$

por lo tanto
$$h'(t)=\cos(t)e^{t}-e^{t}\cdot sen(t)$$

Ejemplo.Verificar la regla de la cadena para $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$ dada por $f(x,y)=e^{xy}$ y $c:\mathbb{R}\rightarrow\mathbb{R}^{2}$ dada por $c(t)=(3t^{2},t^{3})$

Solución. En este caso $\displaystyle{h(t)=f\circ c(t)~\Rightarrow~h'(t)=\frac{\partial h}{\partial t}}$ y aplicando la regla de la cadena se tiene

$$\frac{\partial f}{\partial x}(c(t))\cdot \frac{d x(t)}{dt}=\frac{\partial (e^{xy})}{\partial x}\left|{(3t^{2},t^{3})}\right.\cdot\frac{d (3t^{2})}{dt}=ye^{xy}\left|{(3t^{2},t^{3})}\cdot 6t\right.=t^{3}e^{3t^{5}}6t=6t^{4}e^{3t^{5}}$$

$$\frac{\partial f}{\partial x}(c(t))\cdot \frac{d x(t)}{dt}=\frac{\partial (e^{xy})}{\partial y}\left|{(3t^{2},t^{3})}\right.\cdot\frac{d (t^{3})}{dt}=xe^{xy}\left|{(3t^{2},t^{3})}\cdot 3t^{2}\right.=3t^{2}e^{3t^{5}}3t^{2}=9t^{4}e^{3t^{5}}$$
por lo tanto
$$h'(t)=6t^{4}e^{3t^{5}}+9t^{4}e^{3t^{5}}=15t^{4}e^{3t^{5}}$$

Teorema 1. El gradiente es normal a las superficies de nivel. Sea $f:\mathbb{R}^{3}\rightarrow\mathbb{R}$ una aplicación $C^{1}$ y sea
$(x_{0},y_{0},z_{0})$ un punto sobre la superficie de nivel $S$ definida por $f(x,y,z)$=$k$, $k$=$cte$. Entonces $\nabla{f}(x_{0},~y_{0},~z_{0})$ es normal a la superficie de nivel en el siguiente sentido: si $v$ es el vector tangente en $t$=$t_{0}$ de
una trayectoria $c(t)$ con $c(t_{0})$=$(x_{0},~y_{0},~z_{0})$ Entonces $\nabla{f}\cdot {v}$=$0$

que se puede escribir como
$$\left(\frac{\partial f}{\partial x}(x(t),y(t)z(t)),\frac{\partial f}{\partial y}(x(t),y(t)z(t)),\frac{\partial f}{\partial z}(x(t),y(t)z(t))\right)\cdot\left(\frac{dx}{dt},\frac{dy}{dt},\frac{dz}{dt}\right)=0$$
en $t=t_{0}$
$$\nabla f(x(0),y(0),z(0))\cdot c'(t_{0})=0$$

Plano Tangente

Sea $f:A\subset\mathbb{R}^{3}\rightarrow\mathbb{R}$ una función diferenciable definida en A, y sea
$$S={(x,y,z)\in\mathbb{R}^{3}~|~f(x,y,z)=c}$$

una superficie de nivel de f y $\hat{x}{0}=(x{0},y_{0},z_{0})$ un punto de ella. Considere además, una curva
$$\alpha(t)=(x(t),y(t),z(t))$$
y una curva
$$\beta(t)=(x_{1}(t),y_{1}(t),z_{1}(t))$$

que pasen por $\hat{x}{0}$ con $t\in[a,b]$ en ambos casos y tanto $\alpha$ como $\beta$ diferenciables, se tiene entonces $$(f\circ\alpha)'(t)=f'(\alpha(t))\alpha'(t)=\nabla f(\alpha(t))\cdot \alpha'(t)=0$$ $$(f\circ\beta)'(t)=f'(\beta(t))\beta'(t)=\nabla f(\beta(t))\cdot \beta'(t)=0$$ pues el gradiente $\nabla f(\hat{x}{0})$ en ambos casos es ortogonal tanto al vector $\alpha'(t_{0})$ como al vector $\beta'(t_{0})$ en el punto $\hat{x_{0}}=\alpha(t_{0})=\beta(t_{0})$

Si $\nabla f(\hat{x}{0})\neq 0$, entonces las tangentes a las curvas $\alpha, \beta$ sobre S que pasan por $\hat{x}{0}$

están contenidas en un mismo plano; por lo que el plano tangente a
$$S=\left\{(x,y,z)\in\mathbb{R}^{3}~|~f(x,y,z)=c \right\}$$ se define

Definición. El plano tangente a S en $\hat{x}{0}$ se define $$P={\hat{x}~|~\nabla f(\hat{x}{0})\cdot (\hat{x}-\hat{x}_{0})=0}$$

Ejemplo. Hallar el plano tangente a la superficie
$$S=\left\{(x,y,z)\in\mathbb{R}^{3}~|~\frac{x^{2}}{4}-\frac{y^{2}}{9}+z^{2}=1 \right\}$$
en el punto $(2,3,1)$

Solución. En este caso el gradiente es
$$\nabla f(x,y,z)=\left(\frac{x}{2},-\frac{2}{9}y,2z\right)$$
en el punto $(2,3,1)$ es
$$\nabla f(2,3,1)=\left(1,-\frac{2}{3},2\right)$$
Por tanto la ecuación del plano tangente es
$$\left(1,-\frac{2}{3},2\right)\cdot (x-1,y-3,z-1)=0$$
es decir
$$3x-2y+6z-6=0$$