2.1. TRANSFORMACIÓN LINEAL: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

¿Por qué el uso de la palabra «transformación»?
Como veremos, una transformación lineal es una función que va de un espacio lineal a otro espacio lineal. Y toda función, básica e informalmente, transforma un elemento del dominio en uno del codominio.

Ahora bien, no es una función «cualquiera». Y aunque solo son dos condiciones las que se piden, son suficientes y necesarias para realizar estas transformaciones de un vector de un espacio en un vector de otro espacio con un comportamiento que permite aplicaciones my útiles tanto en matemáticas, como en física, ingenierías e incluso arte digital. Sus propiedades gracias a esas dos condiciones hacen de este tipo de funciones el punto focal del Álgebra Lineal.

TRANSFORMACIÓN LINEAL

Definición: Sean $V$ y $W$ $K$ – espacios vectoriales. Una función $T:V\longrightarrow W$ es una transformación lineal de $V$ en $W$ si:
$1)$ $\forall u,v\in V(T(u+v)=T(u)+T(v))$
$2)$ $\forall \lambda\in K(\forall v\in V(T(\lambda v)=\lambda T(v)))$

Nota: Al conjunto de las transformaciones lineales de $V$ a $W$ se le denota como $\mathcal{L}(V,W)$.

Observación: Si $T$ abre sumas, entonces manda al neutro de $V$ en el neutro de $W$, pues $\theta_W+T(\theta_V)=T(\theta_V)=T(\theta_V+\theta_V)=T(\theta_V)+T(\theta_V)$$\Rightarrow\theta_W+T(\theta_V)=T(\theta_V)+T(\theta_V)\Rightarrow\theta_W=T(\theta_V)$
En particular, las transformaciones lineales envían neutros en neutros.

Ejemplos

  • Sea $V$ un $K$ – espacio vectorial.
    $T:V\longrightarrow V$ donde $\forall v\in V(T(v)=\theta_V)$ es una transformación lineal de $V$ en $V$

Justificación. Sean $\lambda\in K$ y $u,v\in V$.

Entonces $T(u+v)=\theta_V=\theta_V+\theta_V=T(u)+T(v)$ y
$\lambda T(v)=\lambda\theta_V=\theta_V=T(\lambda v)$

  • Sea $K$ un campo. $T:K[x]\longrightarrow K[x]$ donde $\forall p(x)\in K[x](T(p(x))=p'(x))$ es una transformación lineal de $K[x]$ en $K[x]$

Justificación. Sean $\lambda\in K$ y $p(x),q(x)\in K[x]$.

Entonces $T(p(x)+q(x))=(p(x)+q(x))’=p'(x)+q'(x)=T(p(x))+T(q(x))$ y
$T(\lambda p(x))=(\lambda p(x))’=\lambda p'(x)=\lambda T(p(x))$

Proposición: Sean $V,W$ $K$ – espacios vectoriales, $T:V\longrightarrow W$.
$T$ es lineal si y sólo si $\forall\lambda\in K$ $\forall u,v\in V$ $(T(\lambda u+v)=\lambda T(u)+T(v))$

Demostración: $\Longrightarrow )$ Sean $T:V\longrightarrow W$ lineal, $\lambda\in K$, $u,v\in V$.

$\begin{align*}
T(\lambda u+v)&=T(\lambda u)+T(v)\tag{$1$}\\
&=\lambda T(u)+T(v)\tag{$2$}\\
\therefore T(\lambda u+v)&=\lambda T(u)+T(v)
\end{align*}$

$\Longleftarrow )$ Sea $T$ tal que $\forall\lambda\in K$ $\forall u,v\in V$ $(T(\lambda u+v)=\lambda T(u)+T(v))$. Sean $\lambda\in K$ y $u,v\in V$.

$\begin{align*}
T(u+v)&=T(1_K u+v)\tag{}\\
&=1_KT(u)+T(v)\tag{hip}\\
&=T(u)+T(v)\tag{}\\
\therefore T(u+v)&=T(u)+T(v)
\end{align*}$

$\begin{align*}
T(\lambda u)&=T(\lambda u+\theta_V)\tag{}\\
&=\lambda T(u)+T(\theta_V)\tag{hip}\\
&=\lambda T(u)+\theta_W\tag{Obs.}\\
&=\lambda T(u)\tag{}\\
\therefore T(\lambda u)&=\lambda T(u)
\end{align*}$

$\therefore T$ es lineal

Ejemplos

  • $T:\mathbb{R}^3\longrightarrow\mathbb{R}^2$ donde $\forall (x,y,z)\in\mathbb{R}^3(T(x,y,z)=(x+y+z,2x-7y))$ es una transformación lineal de $\mathbb{R}^3$ en $\mathbb{R}^3$.

Justificación. Sean $(x,y,z),(u,v,w)\in\mathbb{R}^3$ y $\lambda\in\mathbb{R}$.

$T(\lambda(x,y,z)+(u,v,w))=T((\lambda x,\lambda y,\lambda z)+(u,v,w))$$=T(\lambda x + u,\lambda y + v,\lambda z + w)$$=(\lambda x + u+\lambda y + v+\lambda z + w,2(\lambda x + u)-7(\lambda y + v))$$=(\lambda(x+y+z)+u+v+w,2\lambda x-7\lambda y+2u-7v)$$=\lambda (x+y+z,2x-7y)+(u+v+w,2u-7v)$$=\lambda T(x,y,z)+T(u,v,w)$

  • Sea $K$ un campo.
    Si $A\in\mathcal{M}_{m\times n}(K)$, entonces $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$ es una transformación lineal de $K^n$ en $K^m$.

Justificación. Sean $X,Y\in K^n,\lambda\in K$.

$T(\lambda X+Y)=A(\lambda X+Y)=\lambda AX + AY=\lambda T(X)+T(Y)$.

Tarea Moral

  1. Sean $V$ y $W$ espacios vectoriales sobre un campo $F$.
    Sea $T: V \longrightarrow W$ una transformación lineal. Demuestra que para todo $v_1,v_2,…,v_n\in V$ y para todo $\lambda_1, \lambda_2,…,\lambda_n\in F$ con $n\in\mathbb{N}^{+}$ se tiene que $T(\lambda_1 v_1 + \lambda_2 v_2 + … + \lambda_n v_n) = \lambda_1 T(v_1) + \lambda_2 T(v_2) + … + \lambda_n T(v_n)$.
  2. Sup. que $T:\mathbb{R}^2 \longrightarrow \mathbb{R}^2$ es lineal y que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. Determina la regla general de $T$, es decir, para todo $(x,y)\in\mathbb{R}^2$.

Más adelante…

Veremos ahora 4 elementos de una transformación lineal.
Núcleo e imagen son dos conjuntos relevantes para dominio y codominio.
Nulidad y rango son dos números que nos revelan dimensiones… así es, veremos que núcleo e imagen son subespacios vectoriales.

Entradas relacionadas

1.11. SUMA Y SUMA DIRECTA DE SUBESPACIOS: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

La suma entre espacios vectoriales se construye con la suma de vectores, sin embargo, al ser subespacios, lo que resulta de esta operación, dónde vive y cómo se comporta es algo que que debe analizarse de forma particular.

La suma directa, una vez que aprendemos a distinguirla y manejarla, nos permite expresar a nuestro espacio vectorial en términos de suma de subespacios. De este modo es más clara la estructura que tienen todos los elementos del espacio.

SUMA DE SUBESPACIOS

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. La suma de $U$ y $W$ es $U+W=\{u+w|u\in U, w\in W\}$ (donde $+$ es la suma del espacio $V$).

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m=\{u_1+u_2+…+u_m|u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$

Propiedades

Justificación. Veamos que $U+W$ contiene a $\theta_V$ y conserva suma y producto por escalar.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$.
Así, $\theta_V =\theta_V+\theta_V\in U+W$
$\therefore \theta_V\in U+W$

Como $U,W\subseteq V$, entonces $u_1,u_2,w_1,w_2\in V$. Así que $\lambda (u_2+w_2)=\lambda u_2 + \lambda_2 w_2$
Y como $U,W\leqslant V$, entonces tanto $U$ como $W$ conservan suma y producto por escalar. Así que $(u_1+w_1)+(\lambda u_2 + \lambda w_2) \in U+W$
Por lo cual, $(u_1+w_1)+\lambda(u_2+w_2)=(u_1+w_1)+(\lambda u_2 + \lambda w_2) \in U+W$
$\therefore (u_1+w_1)+\lambda(u_2+w_2)\in U+W$

Justificación. Recordando que $\theta_V\in U,W$ (porque $U,V\leqslant V$) tenemos que $\forall u\in U(u=u+\theta_V\in U+W)$ y $\forall w\in W(w=\theta_V+w\in U+W)$

Justificación. Sea $\tilde{V}\leqslant V$ tal que $U,W\subseteq \tilde{V}$
Sea $u+w\in U+W$.
Entonces $u\in U\subseteq \tilde{V}$ y $w\in W\subseteq \tilde{V}$.
De donde $u,w\in\tilde{V}$ y como $\tilde{V}\leqslant V$, entonces $\tilde{V}$ es cerrada bajo suma. Así, $u+w\in\tilde{V}$.
$\therefore U+W\in\tilde{V}$

Teorema: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Demostración: Sea $\beta=\{v_1,v_2,…,v_m\}$ una base de $U\cap W$.
Podemos completar a una base de $U$ y a una base de $W$.

Sea $A=\{v_1,v_2,…,v_m,u_1,u_2,…,u_r\}$ una base de $U$.
Sea $\Gamma =\{v_1,v_2,…,v_m,w_1,w_2,…,w_s\}$ una base de $W$.

Entonces, $dim_KA=m+r$ y $dim_K\Gamma =m+s$.

Veamos que $\Delta =A\cup\Gamma =\{v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s\}$ es base de $U+W$.

Tenemos que $A$ es base de $U$, por lo que $A\subseteq U$.
Tenemos que $\Gamma$ es base de $W$, por lo que $\Delta\subseteq W$.
Así, $\Delta =A\cup\Gamma \subseteq U\cup W$. Y como $U,W\subseteq U+W$, entonces $U\cup W\subseteq U+W$
Tenemos que $\Delta\subseteq U+W$ y sabemos que $U+W\leqslant V$, así que $\langle\Delta\rangle\subseteq U+W$

Ahora bien, sea $u+w\in U+W$.
Entonces $u\in U=\langle A\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$ y $w\in W=\langle\Gamma\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$.
De donde $u,w\in\langle\Delta\rangle$ y como $\langle\Delta\rangle\leqslant V$, entonces $u+w\in\langle\Delta\rangle$
Por lo tanto, $U+W\subseteq\langle\Delta\rangle$

$\therefore\langle\Delta\rangle =U+W$

Sean $\kappa_1,\kappa_2,…,\kappa_m,\lambda_1,\lambda_2,…,\lambda_r,\mu_1,\mu_2,…,\mu_s\in K$ tales que:
$\sum_{i=1}^m(\kappa_iv_i) +\sum_{i=1}^r(\lambda_iu_i) +\sum_{i=1}^s(\mu_iw_i)=\theta_V$ $…(1)$

Como $W\leqslant V$, entonces $\sum_{i=1}^s(\mu_iw_i)\in W$ $…(2)$
Como $U=\langle A\rangle$, entonces $-\sum_{i=1}^m(\kappa_iv_i)-\sum_{i=1}^r(\lambda_iu_i)\in U$ $…(3)$

De $(1)$ tenemos que $\sum_{i=1}^s(\mu_iw_i)=-\sum_{i=1}^m(\kappa_iv_i)-\sum_{i=1}^r(\lambda_iu_i)$ y por $(2)$ y $(3)$ concluímos que $\sum_{i=1}^s(\mu_iw_i)\in U,W$.

Así, $\sum_{i=1}^s(\mu_iw_i)\in U\cap W=\langle\beta\rangle$ y por tanto existen $\gamma_1,\gamma_2,…,\gamma_m\in K$ tales que $\sum_{i=1}^s(\mu_iw_i)=\sum_{i=1}^m(\gamma_iv_i)$ $…(4)$

De $(4)$ tenemos que $\sum_{i=1}^s(\mu_iw_i)-\sum_{i=1}^m(\gamma_iv_i)=\theta_V$, y como $\Gamma$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,s\}(\mu_i=0_K)$ y $\forall i\in\{1,2,…,m\}(-\gamma_i=0_K)$. Por lo tanto, $\sum_{i=1}^s(\mu_iw_i)=\theta_V$ $…(5)$

De $(1)$ y $(5)$ tenemos que $\sum_{i=1}^m(\kappa_iv_i) +\sum_{i=1}^r(\lambda_iu_i) +\theta_V=\sum_{i=1}^m(\kappa_iv_i) +\sum_{i=1}^r(\lambda_iu_i) +\sum_{i=1}^s(\mu_iw_i)=\theta_V$. De donde $\sum_{i=1}^m(\kappa_iv_i) +\sum_{i=1}^r(\lambda_iu_i)=\theta_V$, y como $A$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,m\}(\kappa_i=0_K)$ y $\forall i\in\{1,2,…,r\}(-\lambda_i=0_K)$ $…(6)$

De $(5)$ y $(6)$ tenemos que $\kappa_1,=\kappa_2=…=\kappa_m=\lambda_1=\lambda_2=…=\lambda_r=\mu_1=\mu_2=…=\mu_s=0_K$

$\therefore\Delta$ es l.i.

Por lo tanto $\Delta$ es base de $U+W$.

Como $A$ es base de $U$, ent. $dim_KU=m+r$
Como $\Gamma$ es base de $W$, ent. $dim_KW=m+s$
Como $\beta$ es base de $U\cap W$, ent. $dim_K(U\cap W)=m$
Como $\Delta$ es base de $U+W$, ent. $dim_K(U+W)=m+r+s=(m+r)+(m+s)-m$

Por lo tanto $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Ejemplos

Justificación. Es claro que $U_1,U_2,U_3\leqslant V$. Veamos el resultado de cada suma entre estos subespacios.
$U_1+U_2=\{(x,0)+(0,y)|x,y\in\mathbb{R}\}=\{(x,y)|x,y\in\mathbb{R}\}=V$
$U_2+U_3=\{(0,y)+(a,a)|y,a\in\mathbb{R}\}=\{(a,a+y)|a,y\in\mathbb{R}\}=\{(a,b)|a,b\in\mathbb{R}\}=V$
$U_3+U_1=\{(a,a)+(x,0)|a,x\in\mathbb{R}\}=\{(a+x,a)|a,x\in\mathbb{R}\}=\{(b,a)|b,a\in\mathbb{R}\}=V$

Sabemos que $dim_KV=2$
Como $\{(1,0)\}$ es base de $U_1$, entonces $dim_KU_1=1$
Como $\{(0,1)\}$ es base de $U_2$, entonces $dim_KU_2=1$
Así, $2=dim_KV=dim_K(U_1+U_2)=dim_KU_1+dim_KU_2-dim_K(U_1\cap U_2)$$=1+1-dim_K(U_1\cap U_2)=2-dim_K(U_1\cap U_2)$, de donde $0=dim_K(U_1\cap U_2)=dim_K\{(0,0)\}$

Justificación. Sabemos que $dim_KV=3$
Veamos que $dim_K(U+W)=3$

Como $\{(1,0,0),(0,1,0)\}$ es base de $U$, entonces $dim_KU=2$
Como $\{(0,1,0),(0,0,1)\}$ es base de $W$, entonces $dim_KW=2$
Como $\{(0,1,0)\}$ es base de $U\cap W$, entonces $dim_K(U\cap W)=1$
Así, $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$$=2+2-dim_K(U\cap W)=4-1=3$, de donde $dim_K(U+W)=3=dim_KV$

$\therefore U+W=V$.

SUMA DIRECTA

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. Decimos que $U+W$ es una suma directa si cada $v\in U+W$ se escribe como $v=u+w$ (con $u\in U,w\in W$) de forma única. En ese caso, escribiremos a $U+W$ como $U\oplus W$.

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m$ es suma directa si cada $v\in U_1+U_2+…+U_m$ se escribe como $v=u_1+u_2+…+u_m$ (con $u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$) de forma única y se denotaría como $U_1\oplus U_2\oplus …\oplus U_m$.

Ejemplo

Justificación. Es claro que $U,W\leqslant V$.
Sea $(a,b)\in\mathbb{R}^2$.
Entonces $a,b\in\mathbb{R}$.

Como $(a,b)=\left( \frac{a+b}{2}+\frac{a-b}{2} ,\frac{a+b}{2}-\frac{a-b}{2}\right)=\left( \frac{a+b}{2} ,\frac{a+b}{2}\right)+\left( \frac{a-b}{2} ,-\frac{a-b}{2}\right)\in U+W$
De donde $\mathbb{R}^2\subseteq U+W$.

Veamos que si $u\in U, w\in W$ son tales que $(a,b)=u+w$, entonces $u,w$ son únicos.

Sean $u\in U, w\in W$ son tales que $(a,b)=u+w$.
Entonces $u=(x,x)$ con $x\in\mathbb{R}$ y $w=(y,-y)$ con $y\in\mathbb{R}$, donde $(a,b)=(x,x)+(y,-y)=(x+y,x-y)$

Entonces $a=x+y$ y $b=x-y$. De donde $x=a-y$ y $b=(a-y)-y=a-2y$.
Así, como $a,b$ son reales arbitrarios pero fijos y $b=a-2y$, entonces $y$ es única.
Así, como $a,y$ son fijos y $x=a-y$, entonces $x$ es única.

Como $u=(x,x)$ y $w=(y,-y)$ con $x$ y $y$ únicos, entonces $u$ y $w$ son únicos.

$\therefore U+W$ es suma directa.

Sabemos que $U+W\subseteq V$ y demostramos que $V\subseteq U+W$
$\therefore U\oplus W=V$

Proposición: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $U+W$ es suma directa si y sólo si $U\cap W=\{\theta_V\}$

Demostración: Veamos ambas implicaciones.

$\Rightarrow )$ Sup. que $U+W$ es suma directa.

Como $U,W\leqslant$, entonces $\theta_V\in U,W$. Por lo que $\{\theta_V\}\subseteq U\cap W$.

Sea $v\in U\cap W\setminus U\oplus W$.
Sabemos que $\theta_V+v,v+\theta_V\in U\oplus W$ y son formas de escribir a $v$.
Como $U+W$ es suma directa, entonces la forma de escribir a $v$ debe ser única.
Por lo tanto, $v=\theta_V$

$\therefore U\cap W=\{\theta_V\}$

$\Leftarrow )$ Sup. que $U\cap W=\theta_V$

Sea $v\in U+W$ tal que $u_1+w_1=v=u_2+w_2$ con $u_1,u_2\in U$ y $w_1,w_2\in W$

Como $U,W\leqslant V$, entonces $u_1-u_2\in U$ y $w_2-w_1\in W$.
Como $u_1+w_1=u_2+w_2$, entonces $u_1-u_2=w_2-w_1$.
Por lo tanto, $u_1-u_2,w_2-w_1\in U\cap W=\{\theta_V\}$

Así, $u_1-u_2=\theta_V\leftarrow u_1=u_2$ y $w_2-w_1=\theta_V\leftarrow w_2=w_1$.
Es decir, cada elementos en $U+W$ se escribe de forma única.

$\therefore U+W$ es suma directa.

Tarea Moral

Más adelante…

A partir de la siguiente entrada, analizaremos un tipo de funciones muy especial y útil que va de espacios vectoriales a espacios vectoriales y aunque la definición solo le pide abrir dos operaciones, esto implica muchas propiedades que vuelven a este tipo de función el eje central del Álgebra Lineal.

Entradas relacionadas

Diferencial de orden N, Teorema de Taylor

Por Angélica Amellali Mercado Aguilar

$\textcolor{Red}{\textbf{Diferencial de orden n}}$

$$d^{n}f=\frac{\partial^{n} f}{\partial x^{n}}dx^{n}+\left(\begin{matrix}n\\1\end{matrix}\right)\frac{\partial^{n-1} f}{\partial x^{n-1}\partial y}dx^{n-1}dy+\left(\begin{matrix}n\\2\end{matrix}\right)\frac{\partial^{n-2} f}{\partial x^{n-2}\partial y^{2}}dx^{n-2}dy^{2}+\cdots+$$ $$\left(\begin{matrix}n\\k\end{matrix}\right)\frac{\partial^{n-k} f}{\partial x^{n-k}\partial y^{k}}dx^{n-k}dy^{k}+\cdots+\frac{\partial^{n}f}{\partial y^{n}}dy^{n}$$
que se puede escribir
$$d^{n}f=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$

$\textbf{Ejercicio}$ Probar usando inducción
$$d^{n}f=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$

$\small{Solución.}$ Para n=1 se tiene
$$df=\frac{\partial f}{\partial x}dx+\frac{\partial f}{\partial y}dy$$
Suponemos valido para n

$$d^{n}f=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$
Por demostrar que es valida para n+1
$$d^{n+1}f=d(d^{n}f)=\frac{\partial}{\partial x}\left(\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}\right)dx+\frac{\partial}{\partial y}\left(\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}\right)dy=$$

$$\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n-j}\partial y^{j+1}}dx^{n-j}dy^{j+1}=$$
$$\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\sum_{j=1}^{n+1}\left(\begin{matrix}n\\j-1\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}=$$

$$\frac{\partial^{n+1}f}{\partial x^{n+1}}dx^{n+1}+\sum_{j=1}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\sum_{j=1}^{n}\left(\begin{matrix}n\\j-1\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\frac{\partial^{n+1}f}{\partial y^{n+1}}dy^{n+1}=$$

$$\frac{\partial^{n+1}f}{\partial x^{n+1}}dx^{n+1}+\sum_{j=1}^{n}\left(\left(\begin{matrix}n\\j\end{matrix}\right)+\left(\begin{matrix}n\\j-1\end{matrix}\right)\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\frac{\partial^{n+1}f}{\partial y^{n+1}}dy^{n+1}=$$

$$\frac{\partial^{n+1}f}{\partial x^{n+1}}dx^{n+1}+\sum_{j=1}^{n}\left(\begin{matrix}n+1\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\frac{\partial^{n+1}f}{\partial y^{n+1}}dy^{n+1}=\sum_{j=0}^{n+1}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$

La última fórmula puede expresarse simbólicamente por la ecuación
$$d^{n}f=\left(\frac{\partial}{\partial x}dx+\frac{\partial}{\partial y}dy\right)^{n}f$$

donde primero debe desarrollarse le expresión de la derecha formalmente por medio del teorema del binomio y, a continuación deben sustituirse los términos
$$\frac{\partial^{n}f}{\partial x^{n}}dx^{n},\frac{\partial^{n}f}{\partial x^{n-1}\partial y}dx^{n-1}dy,\cdots,\frac{\partial^{n}f}{\partial y^{n}}dy^{n}$$
por los términos
$$\left(\frac{\partial}{\partial x}dx\right)^{n}f,\left(\frac{\partial}{\partial x}dx\right)^{n-1}\left(\frac{\partial}{\partial y}dy\right)f,\cdots,\left(\frac{\partial}{\partial y}dy\right)^{n}f$$

$\textcolor{Red}{\textbf{Teorema de Taylor para funciones $f:A\subset\mathbb{R}^{2}\rightarrow\mathbb{R}$}}$

Recordando el $\textcolor{Red}{\text{Teorema de Taylor para funciones $f:\mathbb{R}\rightarrow\mathbb{R}$}}$

$\textbf{Teorema.-}$ Si $f(x)$ tiene n-ésima derivada continua en una vecindad de $x_{0}$, entonces en esa vecindad
$$f(x)=f(x_{0})+\frac{1}{1!}f'(x_{0})(x-x_{0})+\frac{1}{2!}f»(x_{0})(x-x_{0})^{2}+\frac{1}{3!}f»'(x_{0})(x-x_{0})^{3}+…+\frac{1}{n!}f^{n}(x_{0})(x-x_{0})^{n}+R_{n}$$
donde
$$R_{n}=\frac{f^{n+1}(\epsilon)}{(n+1)!}(x-x_{0})^{n+1},~donde~\epsilon\in(x_{0},x)$$

Sea $f:A\subset\mathbb{R}^{2}\rightarrow\mathbb{R}$ y sea $F(t)=f(x_{0}+h_{1}t,y_{0}+h_{2}t)$ con $t\in[0,1]$, de esta manera f recorre el segmento de $[x_{0},y_{0}]$ a $[x_{0}+h_{1}t,y_{0}+h_{2}t]$. Se tiene entonces que usando la regla de la cadena
$$F'(t)=\frac{\partial f}{\partial x}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot \frac{d(x_{0}+h_{1}t)}{dt}+\frac{\partial f}{\partial y}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot \frac{d(y_{0}+h_{2}t)}{dt}=$$

$$\frac{\partial f}{\partial x}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot h_{1}+\frac{\partial f}{\partial y}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot h_{2}$$
Vamos ahora a calcular $F^{´´}(t)$

$$F^{´´} ( t )=\frac{\partial}{\partial x}\left(\frac{\partial f}{\partial x}h_{1}+ \frac{\partial f}{\partial y}h_{2}\right)h_{1}+\frac{\partial}{\partial y}\left(\frac{\partial f}{\partial x}h_{1}+ \frac{\partial f}{\partial y}h_{2}\right)h_{2}=$$
$$\frac{\partial^{2} f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}h_{2}^{2}$$

simbólicamente se puede escribir
$$F^{»}(t)=\left(\frac{\partial }{\partial x}\cdot h_{1}+\frac{\partial }{\partial y}\cdot h_{2}\right)^{2}f$$
y en general

$$F^{n}(t)=\frac{\partial^{n} f}{\partial x^{n}}h_{1}^{n}+\left(\begin{matrix}n\\1\end{matrix}\right)\frac{\partial^{n-1} f}{\partial x^{n-1}\partial y}h_{1}^{n-1}h_{2}+\left(\begin{matrix}n\\2\end{matrix}\right)\frac{\partial^{n-2} f}{\partial x^{n-2}\partial y^{2}}h_{1}^{n-2}h_{2}^{2}+\cdots+\left(\begin{matrix}n\\k\end{matrix}\right)\frac{\partial^{n-k} f}{\partial x^{n-k}\partial y^{k}}h_{1}^{n-k}h_{2}^{k}+\cdots+\frac{\partial^{n}f}{\partial y^{n}}h_{2}^{n}$$

que simbólicamente se puede escribir
$$F^{n}=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}h_{1}^{n-j}h_{2}^{j}=\left(\frac{\partial }{\partial x}\cdot h_{1}+\frac{\partial }{\partial y}\cdot h_{2}\right)^{n}f$$

Ahora bien si se aplica la fórmula de Taylor con la forma del residuo de Lagrange a la función $$F(t)=f(x_{0}+h_{1}t,y_{0}+h_{2}t)$$ y ponemos $t=0$, se tiene
$$F(t)=F(0)+\frac{1}{1!}F'(0)t+\frac{1}{2!}F^{»}(0)t^{2}+\frac{1}{3!}F»'(0)t^{3}+…++\frac{1}{n!}F^{^{n}}(0)t^{n}+R_{n}$$
ahora bien con $t=1$
$$f(x_{0}+h_{1},y_{0}+h_{2})=f(x_{0},y_{0})+\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot h_{1}+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot h_{2}\right)+\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})h_{2}^{2}\right)$$
$$+\cdots+\frac{1}{n!}\left(\sum_{j=0}^{n+1}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}(x_{0},y_{0})h_{1}^{n-j}h_{2}^{j}\right)$$

$x=x_{0}+h_{1}$, $y_{0}+h_{2}=y$ por lo que $h_{1}=x-x_{0}$ y $h_{2}=y-y_{0}$ entonces

$$f(x,y)=f(x_{0},y_{0})+\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)+$$

$$\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})(x-x_{0})^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})(x-x_{0})(y-y_{0})+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})(y-y_{0})^{2}\right)+$$

$$\cdots+\frac{1}{n!}\left(\sum_{j=0}^{n+1}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}(x_{0},y_{0})(x-x_{0})^{n-j}(y-y_{0})^{j}\right)+R_{n}$$

donde
$$R_{n}=\frac{1}{n+1!}\left((x-x_{0})^{n+1}\frac{\partial^{n+1}f}{\partial x^{n+1}}(\xi,\eta)+\cdots+(y-y_{0})^{n+1}\frac{\partial^{n+1}f}{\partial y^{n+1}}(\xi,\eta)\right)$$ donde $\xi\in(x_{0},x_{0}+h_{1})$ y $\eta\in(y_{0},y_{0}+h_{2})$\En general el residuo $R_{n}$ se anula en un orden mayor que el término $d^{n}f$

$\textbf{Ejemplo}$ Desarrollar la fórmula de Taylor en $(x_{0},y_{0})=(0,0)$ con $n=3$ para la función $$f(x,y)=e^{y}\cos x$$

$\small{Solución.}$

En este caso tenemos que
$$f(0,0)=e^{0}\cos(0)=1$$
Para la diferencial de orden 1
$$\frac{\partial f}{\partial x}(0,0)~\Rightarrow~\frac{\partial (e^{y}\cos(x))}{\partial x}(0,0)~\Rightarrow~-e^{y} sen\left( x\right) \big{|}{(0,0)}=0$$ $$\frac{\partial f}{\partial y}(0,0)~\Rightarrow~\frac{\partial (e^{y} \cos x)}{\partial y}(0,0)~\Rightarrow~-e^{y}\cos(x)\big{|}{(0,0)}=1$$
por lo tanto
$$\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)=\frac{1}{1!}\left((0)(x)+(1)(y)\right)=y$$
Para la diferencial de orden 2
$$\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\ cos x)}{\partial x^{2}}(0,0)~\Rightarrow~-e^{y} \cos~x\big{|}{(0,0)}=-1$$ $$\frac{\partial^{2} f}{\partial y^{2}}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y} \cos x)}{\partial y^{2}}(0,0)~\Rightarrow~e^{y} \cos~x\big{|}{(0,0)}=1$$ $$\frac{\partial^{2} f}{\partial x~\partial y}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial x~\partial y}(0,0)~\Rightarrow~-e^{y} sen~x~ \big{|}{(0,0)}=0$$ Por lo tanto $$\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x{0},y_{0})h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})h_{2}^{2}\right)=\frac{1}{2!}((-1)x^{2}+2(0)xy+(1)y^{2})$$
Para la diferencial de orden 3

$$\frac{\partial^{3} f}{\partial x^{3}}(x_{0},y_{0})~\Rightarrow~e^{y} sen~x\big{|}_{(0,0)}=0$$

$$\frac{\partial^{3} f}{\partial y^{3}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial y^{3}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(0,0)}=1$$

$$\frac{\partial^{3} f}{\partial x^{2}~\partial y}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial x^{2}~\partial y}(0,0)~\Rightarrow~-e^{y}\cos~x\big{|}_{(0,0)}=-1$$

$$\frac{\partial^{3} f}{\partial y^{3}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial y^{3}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(0,0)}=1$$

$$\frac{\partial^{3} f}{\partial x~\partial y^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial x~\partial y^{2}}(0,0)~\Rightarrow~-e^{y} sen~x\big{|}_{(0,0)}=0$$

Por lo tanto
$$\frac{1}{3!}\left(\frac{\partial^{3} f}{\partial x^{3}}h_{1}^{3}+3\frac{\partial^{3} f}{\partial x^{2}\partial y}h_{}1^{2}h_{2}+3\frac{\partial^{3} f}{\partial x\partial y^{2}}h_{1}h_{2}^{2}+\frac{\partial^{3} f}{\partial y^{3}}h_{}2^{3}\right)=$$

$$\frac{1}{3!}\left((0)(x^{3})+3(-1)x^{2}y+3(0)xy^{2}+(1)y^{3}\right)$$
Finalmente para el residuo se tiene

$$\frac{\partial^{4} f}{\partial x^{4}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos(x))}{\partial y^{3}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(\xi,\eta)}=e^{\eta}\cos~\xi$$

$$\frac{\partial^{4} f}{\partial x^{2}\partial y^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos x)}{\partial x^{2}\partial y^{2}}(0,0)~\Rightarrow~-e^{y}\cos~x\big{|}_{(\xi,\eta)}=-e^{\eta}\cos~\xi$$

$$\frac{\partial^{4} f}{\partial x\partial y^{3}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos x)}{\partial x\partial y^{3}}(0,0)~\Rightarrow~-e^{y} sen~x\big{|}_{(\xi,\eta)}=-e^{\eta} sen~\xi$$

$$\frac{\partial^{4} f}{\partial y^{4}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos x)}{\partial y^{4}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(\xi,\eta)}=e^{\eta}\cos~\xi$$

$$R_{3}=\frac{1}{4!}\left(\frac{\partial^{4} f}{\partial x^{4}}h_{1}^{4}+4\frac{\partial^{4} f}{\partial x^{3}\partial y}h_{1}^{3}h_{2}+6\frac{\partial^{4} f}{\partial x^{2}\partial y^{2}}h_{1}^{2}h_{2}^{2}+4\frac{\partial^{4} f}{\partial x\partial y^{3}}h_{1}h_{2}^{3}+\frac{\partial^{4} f}{\partial h_{2}^{4}}dy^{4}\right)$$

$$=\frac{1}{4!}\left(x^{4}e^{\eta}\cos~\xi+4x^{3}ye^{\eta} sen~xi-6x^{2}y^{2}e^{\eta}\cos~\xi-4xy^{3}e^{\eta} sen~\xi+y^{4}e^{\eta}\cos~\xi\right)$$

Por lo que nuestro desarrollo de Taylor nos queda
$$e^{y}\cos~x=1+y+\frac{1}{2}(x^{2}-y^{2})+\frac{1}{6}(x^{3}-3xy^{2})+R_{3}$$
donde
$$R_{3}=\frac{1}{4!}\left(x^{4}e^{\eta}\cos~\xi+4x^{3}ye^{\eta} sen~xi-6x^{2}y^{2}e^{\eta}\cos~\xi-4xy^{3}e^{\eta} sen~\xi+y^{4}e^{\eta}\cos~\xi\right)$$
$\textbf{Ejercicio}$ Use la fórmula de Taylor en
$$f(x,y)=\cos~(x+y)$$
en el punto $(x_{0},y_{0})=(0,0)$ con $n=2$ para comprobar que
$$\lim_{(x,y)\rightarrow(0,0)}\frac{1-\cos~(x+y)}{(x^{2}+y^{2})^{2}}=\frac{1}{2}$$

En este caso para
$$f(x,y)=\cos(x+y)$$
se tiene
$$f(0,0)=\cos(0+0)=1$$
Para la diferencial de orden 1
$$\frac{\partial f}{\partial x}(0,0)~\Rightarrow~\frac{\partial (\cos x+y)}{\partial x}(0,0)~\Rightarrow~- sen(x+y)\big{|}{(0,0)}=0$$ $$\frac{\partial f}{\partial y}(0,0)~\Rightarrow~\frac{\partial (\cos x+y)}{\partial y}(0,0)~\Rightarrow~- sen(x+y)\big{|}{(0,0)}=0$$
por lo tanto

$$\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)=\frac{1}{1!}\left((0)(x)+(0)(y)\right)=0$$

Para la diferencial de orden 2
$$\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (\cos x+y)}{\partial x^{2}}(0,0)~\Rightarrow~-\cos~x+y\big{|}{(0,0)}=-1$$ $$\frac{\partial^{2} f}{\partial y^{2}}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (\cos x+y)}{\partial y^{2}}(0,0)~\Rightarrow~-\cos~x+y\big{|}{(0,0)}=-1$$ $$\frac{\partial^{2} f}{\partial x~\partial y}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (\cos x+y)}{\partial x~\partial y}(0,0)~\Rightarrow~-\cos~x+y\big{|}_{(0,0)}=-1$$
Por lo tanto

$$\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})h_{2}^{2}\right)=\frac{1}{2!}((-1)x^{2}-2xy+(-1)y^{2})$$
Por lo que nuestro desarrollo de Taylor nos queda
$$\cos(x+y)=1-\frac{x^{2}}{2}-xy-\frac{y^{2}}{2}$$
De manera que

$$\lim_{(x,y)\rightarrow(0,0)}\frac{1-\cos~(x+y)}{(x^{2}+y^{2})^{2}}=\lim_{(x,y)\rightarrow(0,0)}\frac{1-(1-\frac{x^{2}}{2}-xy-\frac{y^{2}}{2})}{(x^{2}+y^{2})^{2}}$$
$$=\lim_{(x,y)\rightarrow(0,0)}\frac{1}{2}\frac{(x^{2}+y^{2})^{2}}{(x^{2}+y^{2})^{2}}=\frac{1}{2}$$

Geometría Moderna II: Razón Cruzada por la Circunferencia

Por Armando Arzola Pérez

Introducción

Como ya se vio, la razón cruzada tiene varias propiedades, desde seis tipos de razón cruzada hasta la construcción del cuarto elemento, pero falta analizar su relación con la circunferencia.

Propiedades de razón cruzada por la circunferencia

Se abordarán 3 propiedades en relación con una circunferencia dada.

Propiedad 1. Sean cuatro puntos en una circunferencia (con cíclicos) cualesquiera $A,B,C,D$, si unimos estos puntos a dos puntos $O$ y $O’$ que están en la misma circunferencia, entonces los haces $O\{ABCD\}$ y $O’\{ABCD\}$ tienen iguales razones cruzadas.

Razón cruzada por la circunferencia propiedad 1

Demostración. Las razones cruzadas son:

$O\{ABCD\}=\frac{sen(AOC)/sen(COB)}{sen(AOD)/sen(DOB)}=k$ y

$O’\{ABCD\}=\frac{sen(AO’C)/sen(CO’B)}{sen(AO’D)/sen(DO’B)}=k’$.

Notemos la igualdad de ángulos correspondientes de los dos haces $\angle{AOC}=\angle{AO’C}$, $\angle{COB}=\angle{CO’B}$, $\angle{DOB}=180-\angle{DO’B}$ y $\angle{AOD}=180-\angle{AO’D}$.

Por lo cual los ángulos formados serán iguales o suplementarios, por ello los senos de los ángulos serán iguales.

$\frac{sen(AOC)/sen(COB)}{sen(AOD)/sen(DOB)}=\frac{sen(AO’C)/sen(CO’B)}{sen(AO’D)/sen(DO’B)}$

$\Rightarrow O\{ABCD\}=k=k’=O’\{ABCD\}$

$\square$

Propiedad 2. Sea $C(O,r)$ una circunferencia en la cual se tienen cuatro puntos fijos $A,B,C,D$ por los cuales pasan tangentes por cada uno de estos y cortan la tangente en un punto variable $X$, entonces la razón cruzada de los cuatro puntos de intersección es una constante.

Es decir, $\{A’B’C’D’\}$ es constante independientemente de $X$.

Razón cruzada por la circunferencia propiedad 2

Demostración. Se tiene por teorema visto de razón que $\{A’B’C’D’\}=O\{A’B’C’D’\}$, entonces:

$O\{A’B’C’D’\}=\frac{sen(A’OC’)}{sen(C’OB’)}/\frac{sen(A’OD’)}{sen(D’OB’)}$

Ahora, como los lados correspondientes de los ángulos $C’OB’$ y $CXB$ son perpendiculares, entonces los senos de estos ángulos son iguales, esto ocurre de igual manera para los otros ángulos de los haces $O\{A’B’C’D’\}$ y $X\{ABCD\}$.

$\Rightarrow \frac{sen(A’OC’)}{sen(C’OB’)}/\frac{sen(A’OD’)}{sen(D’OB’)} = \frac{sen(AXC)}{sen(CXB)}/\frac{sen(AXD)}{sen(DXB)} $
$\Rightarrow O\{A’B’C’D’\} =X\{ABCD\}$

Observemos que esto ocurre para cualquier $X’$ entonces $X\{ABCD\}=X’\{ABCD\}$, y por ende se tiene $\{A’B’C’D’\}=O\{A’B’C’D’\}=X’\{ABCD\}$.
Por lo tanto, $\{A’B’C’D’\}=cte$ independientemente de $X$.

$\square$

Propiedad 3. Sea un haz el cual tiene su vértice fuera de una circunferencia $C(O,r)$ y la cual sus cuatro líneas cortan a la circunferencia en los pares de puntos $A,A’$, $B,B’$, $C,C’$ y $D,D’$. Si se tienen dos puntos distintos $E$ y $E’$ sobre la circunferencia, entonces las razones cruzadas de los haces $E\{ABCD\}$ y $E’\{A’B’C’D’\}$ son iguales.

Razón cruzada por la circunferencia propiedad 3

Demostración. Unamos los puntos $A,B,C,D$ a $A’$ y $A’,B’,C’,D’$ a $A$, esto nos dará las intersecciones de $AB’$ y $A’B$ en un punto $X$, $AC’$ y $A’C$ en un punto $y$, $AD’$ y $A’D$ en un punto $Z$, los cuales están en la polar del vértice $O$ del haz dado, por lo cual se tiene por propiedad 1 de razón cruzada en la circunferencia:

$E’\{ABCD\}=E’\{A’B’C’D’\}=A\{A’B’C’D’\}$

Por propiedad de razón cruzada:

$A\{A’B’C’D’\}=\{wxyz\}=A’\{wxyz\}=A’\{ABCD\}$

Y por propiedad 1 de razón cruzada en la circunferencia:

$A’\{ABCD\}=E\{ABCD\}$

Por lo tanto, $E’\{A’B’C’D’\}=E\{ABCD\}$ .

$\square$

Más adelante…

Ahora se abordará el tema de la regla de la falsa proposición.

Entradas relacionadas

Derivadas Parciales de Orden Superior.

Por Angélica Amellali Mercado Aguilar

$\textcolor{Red}{\textbf{Derivadas Parciales de Orden Superior}}$

Si $f$ es una función de doas variables $x,y$ $\Rightarrow$ $\displaystyle\frac{\partial f}{\partial x}, \displaystyle\frac{\partial f}{\partial y}$ son funciones de las mismas variables, cuando derivamos $\displaystyle\frac{\partial f}{\partial x}$ y $ \displaystyle\frac{\partial f}{\partial y}$ obtenemos las derivadas parciales de segundo orden, las derivadas de $\displaystyle\frac{\partial f}{\partial x}$ están definidas por:

$$\displaystyle\frac{\partial^{2}f}{\partial x^{2}}(x,y)=\displaystyle\lim_{h\to 0}{\displaystyle\frac{\displaystyle\frac{\partial f}{\partial x}(x+h,y)-\displaystyle\frac{\partial f}{\partial x}(x,y)}{h}}$$

$$\displaystyle\frac{\partial^{2}f}{\partial y \partial x}(x,y)=\displaystyle\lim_{k\to 0}{\displaystyle\frac{\displaystyle\frac{\partial f}{\partial x}(x,y+k)-\displaystyle\frac{\partial f}{\partial x}(x,y)}{k}}$$

Si $f$ es una función de dos variables entonces hay cuatro derivadas parciales de segundo orden.

Consideremos las diferentes notaciones para las derivadas parciales:

$$f_{1,1}=\displaystyle\frac{\partial^{2}f}{\partial x^{2}}=f_{xx}$$

$$f_{1,2}=\displaystyle\frac{\partial^{2}f}{\partial y \partial x}=\frac{\partial}{\partial y}\bigg(\frac{\partial f}{\partial x}\bigg)=f_{xy}$$

$$f_{2,1}=\displaystyle\frac{\partial^{2}f}{\partial x \partial y}=\frac{\partial}{\partial x}\bigg(\frac{\partial f}{\partial y}\bigg)=f_{yx}$$

$$f_{2,2}=\displaystyle\frac{\partial^{2}f}{\partial y^{2}}=\frac{\partial}{\partial y}\bigg(\frac{\partial f}{\partial y}\bigg)=f_{yy}$$

$\textbf{Ejemplo.}$ $z=x^{3}+3x^{2}y-2x^{2}y^{2}-y^{4}+3xy$ hallar $\displaystyle\frac{\partial z}{\partial x}, \displaystyle\frac{\partial z}{\partial y},\displaystyle\frac{\partial^{2} z}{\partial x^{2}},\displaystyle\frac{\partial^{2}z}{\partial x \partial y},\displaystyle\frac{\partial^{2}z}{\partial y \partial x},\displaystyle\frac{\partial^{2} z}{\partial y^{2}}$

$$\displaystyle\frac{\partial z}{\partial x}=3x^{2}+6xy-4xy^{2}+3y$$

$$\displaystyle\frac{\partial z}{\partial y}=3x^{2}-4x^{2}y-4y^{3}+3x$$

$$\displaystyle\frac{\partial^{2} z}{\partial x^{2}}=6x+6y-4y^{2}$$

$$\displaystyle\frac{\partial^{2} z}{\partial y^{2}}=-4x^{2}-12y^{2}$$

$$\displaystyle\frac{\partial^{2}z}{\partial y \partial x}=6x-8xy+3$$

$$\displaystyle\frac{\partial^{2}z}{\partial x \partial y}=6x-8xy+3$$

$\textbf{Teorema 1.}$ $\textcolor{Red}{\textbf{Teorema de schwarz}}$

Sea $f:A\subset \mathbb{R}^{2}\rightarrow\mathbb{R}$ una función definida en el abierto A de $\mathbb{R}^{2}$. Si las derivadas parciales

$$\frac{\partial^{2} f}{\partial y\partial x}~y~\frac{\partial^{2} f}{\partial x\partial y}$$

existen y son continuas en $A$, entonces

$$\frac{\partial^{2} f}{\partial y\partial x}=\frac{\partial^{2} f}{\partial x\partial y}$$

$\small{Demostración.}$ Sea

$\displaystyle{M=f(x+h_{1},y+h_{2})-f(x+h_{1},y)-f(x,y+h_{2})+f(x,y)}$ y definimos $$\varphi(x)=f(x,y+h_{2})-f(x,y)$$de manera que
$$\varphi(x+h_{1})-\varphi(x)=f(x+h_{1},y+h_{2})-f(x+h_{1},y)-(f(x,y+h_{2})-f(x,y))=M$$

Aplicando el TVM a $\varphi$ en el intervalo $[x,x+h_{1}]$ se tiene que existe $\theta~\in~(x,x+h_{1})$ tal que

$$\varphi(x+h_{1})-\varphi(x)=\varphi'(\theta)h_{1}$$

por otro lado
$$\varphi'(x)=\frac{\partial f}{\partial x}(x,y+h_{2})-\frac{\partial f}{\partial x}(x,y)$$
por lo tanto
$$\varphi'(\theta)=\frac{\partial f}{\partial x}(\theta,y+h_{2})-\frac{\partial f}{\partial x}(\theta,y)$$
tenemos entonces que

$$M=\varphi(x+h_{1})-\varphi(x)=\varphi'(\theta)h_{1}=\left(\frac{\partial f}{\partial x}(\theta,y+h_{2})-\frac{\partial f}{\partial x}(\theta,y)\right)h_{1}$$
Consideremos ahora $\displaystyle{\psi(y)=\frac{\partial f}{\partial x}(x,y)}$. Aplicando el TVM a $\psi$ en el intervalo $[y,y+h_{2}]$ se tiene que existe $\eta~\in~(y,y+h_{2})$ tal que
$$\psi(y+h_{2})-\psi(y)=\psi'(\eta)h_{2}$$
por otro lado

$$\psi'(y)=\frac{\partial }{\partial y}\left(\frac{\partial f}{\partial x}\right)(x,y)=\frac{\partial^{2}f}{\partial y\partial x}(x,y)$$
por lo tanto
$$\psi'(\eta)=\frac{\partial^{2}f}{\partial y\partial x}(x,\eta)$$
de esta manera

$$\psi(y+h_{2})-\psi(y)=\psi'(\eta)h_{2}=\left(\frac{\partial^{2}f}{\partial y\partial x}(x,\eta)\right)h_{2}$$
y si $\theta\in (x,x+h_{1})$ tenemos entonces que

$$\frac{\partial f}{\partial x}(\theta,y+h_{2})-\frac{\partial f}{\partial x}(\theta,y)=\left(\frac{\partial^{2}f}{\partial y\partial x}(\theta,\eta)\right)h_{2}$$
en consecuencia
$$M=\left(\frac{\partial f}{\partial x}(\theta,y+h_{2})-\frac{\partial f}{\partial x}(\theta,y)\right)h_{1}=\left(\frac{\partial^{2}f}{\partial y\partial x}(\theta,\eta)\right)h_{2}h_{1}$$

Consideremos ahora $$\overline{\varphi}(y)=f(x+h_{1},y)-f(x,y)$$de manera que
$$\overline{\varphi}(y+h_{2})-\overline{\varphi}(y)=f(x+h_{1},y+h_{2})-f(x+h_{1},y)-(f(x,y+h_{2})-f(x,y))=M$$

Aplicando el TVM a $\overline{\varphi}$ en el intervalo $[y,y+h_{2}]$ se tiene que existe $\overline{\eta}~\in~(y,y+h_{2})$ tal que
$$\overline{\varphi}(y+h_{2})-\overline{\varphi}(y)=\overline{\varphi}'(\overline{\eta})h_{2}$$
por otro lado
$$\overline{\varphi}'(y)=\frac{\partial f}{\partial y}(x+h_{1},y)-\frac{\partial f}{\partial y}(x,y)$$
por lo tanto

$$\overline{\varphi}'(\overline{\eta})=\frac{\partial f}{\partial y}(x+h_{1},\overline{\eta})-\frac{\partial f}{\partial y}(x,\overline{\eta})$$
tenemos entonces que
$$M=\overline{\varphi}(y+h_{2})-\overline{\varphi}(y)=\overline{\varphi}'(\overline{\eta})h_{2}=\left(\frac{\partial f}{\partial y}(x+h_{1},\overline{\eta})-\frac{\partial f}{\partial y}(x,\overline{\eta})\right)h_{2}$$

Consideremos ahora $\displaystyle{\overline{\psi}(x)=\frac{\partial f}{\partial y}(x,y)}$. Aplicando el TVM a $\psi$ en el intervalo $[x,x+h_{1}]$ se tiene que existe $\overline{\theta}~\in~(x,x+h_{1})$ tal que
$$\overline{\psi}(x+h_{1})-\overline{\psi}(x)=\overline{\psi}'(\overline{\theta})h_{1}$$
por otro lado

$$\overline{\psi}'(x)=\frac{\partial }{\partial x}\left(\frac{\partial f}{\partial y}\right)(x,y)=\frac{\partial^{2}f}{\partial x\partial y}(x,y)$$
por lo tanto
$$\overline{\psi}'(\overline{\theta})=\frac{\partial^{2}f}{\partial y\partial x}(\overline{\theta},y)$$
de esta manera

$$\overline{\psi}(x+h_{1})-\overline{\psi}(x)=\overline{\psi}'(\overline{\theta})h_{1}=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},y)\right)h_{1}$$
es decir
$$\frac{\partial f}{\partial y}(x+h_{1},y)-\frac{\partial f}{\partial y}(x,y)=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},y)\right)h_{1}$$
y si $\overline{\eta}\in (y,y+h_{2})$ tenemos entonces que
$$\frac{\partial f}{\partial y}(x+h_{1},\overline{\eta})-\frac{\partial f}{\partial y}(x,\overline{\eta})=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},\overline{\eta})\right)h_{1}$$
en consecuencia

$$M=\left(\frac{\partial f}{\partial y}(x+h_{1},\overline{\eta})-\frac{\partial f}{\partial y}(x,\overline{\eta})\right)h_{1}h_{2}=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},\overline{\eta})\right)h_{2}h_{1}$$
igualando ambas expresiones de M se tiene
$$\left(\frac{\partial^{2}f}{\partial y\partial x}(\theta,\eta)\right)h_{2}h_{1}=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},\overline{\eta})\right)h_{2}h_{1}$$
donde
$$\left(\frac{\partial^{2}f}{\partial y\partial x}(\theta,\eta)\right)=\left(\frac{\partial^{2}f}{\partial x\partial y}(\overline{\theta},\overline{\eta})\right)$$
Tomando limite cuando $h_{1},h_{2}\rightarrow 0$ y usando la continuidad asumida de las parciales mixtas se tiene que $\theta,\overline{\theta}\rightarrow x$ y $\eta,\overline{\eta}\rightarrow y$ se concluye
$$\frac{\partial^{2}f}{\partial y\partial x}(x,y)=\frac{\partial^{2}f}{\partial x\partial y}(x,y)$$ $\square$

$\textbf{Ejemplo}$

Sea $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$ dada por $f(x,y)=x^{3}+3x^{2}y-2x^{2}y^{2}-y^{4}+3xy$\
En este caso
$$\frac{\partial f}{\partial x}=3x^{2}+6xy-4xy^{2}+3y$$
$$\frac{\partial f}{\partial y}=3x^{2}-4x^{2}y-4y^{3}+3x$$
$$\frac{\partial^{2} f}{\partial x^{2}}=6x+6y-4y^{2}$$
$$\frac{\partial^{2} f}{\partial y^{2}}=-4x^{2}-12y^{2}$$
$$\frac{\partial^{2} f}{\partial x\partial y}=6x-8xy+3$$
$$\frac{\partial^{2} f}{\partial y\partial x}=6x-8xy+3$$
$\textbf{Ejemplo.}$ Dada la función

tenemos que para $(x,y)\neq (0,0)$
$$\frac{\partial f}{\partial x}=y\frac{x^{4}+4x^{2}y^{2}-y^{4}}{(x^{2}+y^{2})^{2}}$$
$$\frac{\partial f}{\partial y}=x\frac{x^{4}-4x^{2}y^{2}-y^{4}}{(x^{2}+y^{2})^{2}}$$
para el primer caso hacemos $x=0$ y tenemos
$$\frac{\partial f}{\partial x}=y\frac{x^{4}+4x^{2}y^{2}-y^{4}}{(x^{2}+y^{2})^{2}}\underbrace{=}{x=0}-y$$ para el segundo caso hacemos $y=0$ y tenemos $$\frac{\partial f}{\partial y}=x\frac{x^{4}-4x^{2}y^{2}-y^{4}}{(x^{2}+y^{2})^{2}}\underbrace{=}{y=0}1$$
Calculamos ahora
$$\frac{\partial^{2} f}{\partial y\partial x}=\frac{\partial^{2} (-y)}{\partial y\partial x}=-1$$
$$\frac{\partial^{2} f}{\partial x\partial y}=\frac{\partial^{2} (1)}{\partial x\partial y}=1$$
por lo tanto
$$\frac{\partial^{2} f}{\partial y\partial x}=-1\neq 1=\frac{\partial^{2} f}{\partial x\partial y}$$
En este caso las parciales segundas no son contiuas en $(0,0)$

$\textbf{Teorema.}$ $\textcolor{Red}{\textbf{Caso General}}$

Sea $f:A\subset\mathbb{R}^{n}\rightarrow\mathbb{R}$ definida en el abierto A de $\mathbb{R}^{n}$ tal que
$$\frac{\partial^{2} f}{\partial x_{i}\partial x_{j}}$$ sean continuas en A, entonces
$$\frac{\partial^{2} f}{\partial x_{i}\partial x_{j}}=\frac{\partial^{2} f}{\partial x_{j}\partial x_{i}}$$