Álgebra Moderna I: Teorema fundamental de los grupos abelianos finitos.

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

El temario de este curso consiste principalmente en el estudio de la Teoría de grupos, comenzamos su construcción desde las operaciones binarias, estudiamos distintos tipos de grupos y funciones entre ellos (homomorfismos) y seguimos intentando describir a los grupos. El primer gran escalón de nuestro curso fueron los Teoremas de isomorfía, luego los Teoremas de Sylow y ahora llegamos al tercero: el Teorema fundamental de los grupos abelianos finitos.

Otros dos teoremas fundamentales que seguramente conoces son el Teorema fundamental del álgebra y el Teorema fundamental de la aritmética, conviene recordar el segundo. Básicamente nos dice que a todo número entero lo podemos ver como un producto de primos, además nos dice que estos primos son únicos excepto por el orden en que aparecen. Este teorema es importante porque intuitivamente nos dice que los números primos son los ladrillos básicos para construir a cualquier número.

¿Cuáles son estos mismos ladrillos para los grupos abelianos finitos? En la entrada de Producto directo interno vimos un teorema en el que para ciertos casos podemos descomponer a un grupo finito $G$ en sus $p$-subgrupos de Sylow, donde cada $p$ corresponde a un factor primo del orden del grupo. ¿Qué podría ser más fundamental que eso?

Usaremos el teorema que vimos en Producto directo interno y veremos que un grupo abeliano finito $G$ es isomorfo a un producto directo de grupos ajenos a $G$ en lugar de los $p$-subgrupos de Sylow que dependen del grupo que los contiene. ¿Qué grupos finitos relacionados con primos conocemos aparte de los $p$-subgrupos? Los candidatos ideales son $\z_n$, con $n$ una potencia de un primo, que de acuerdo a lo que hemos estudiado son abelianos y finitos.

Así, el Teorema fundamental de los grupos abelianos finitos nos presenta a los $\z_n$, con $n$ una potencia de un primo, como nuestros ladrillos elementales para describir cualquier grupo abeliano finito $G$.

Último lema numerado

Como prometimos en la entrada anterior, siguiendo con el desarrollo hecho por Judson (2022, capítulo 13), aquí está el tercer lema numerado que usaremos para demostrar el Teorema fundamental de los grupos abelianos finitos.

Lema 3. Sean $p\in\z^+$ un primo y $G$ un $p$-grupo abeliano. Tenemos que $G$ es un producto directo interno de grupos cíclicos.

Demostración.
Por el segundo principio de inducción.

Sean $p\in\z^+$ un primo y $G$ un $p$-grupo abeliano.

Sea $g\in G$ un elemento de orden máximo (podemos suponer que $g\neq e$ ya que si $g = e$, entonces $G = \{e\}$).

H.I. Supongamos que todo $p$-grupo abeliano de orden menor que el orden de $G$ es un producto directo interno de grupos cíclicos.

Por el lema 2, $G$ es el producto directo de $\left< g \right>$ y un subgrupo $H$ de $G$. Entonces $|G| = |\left< g \right>|\,|H|$ lo que implica que $\displaystyle |H| = \frac{|G|}{|\left< g \right>|}$ y, esto implica que $ \displaystyle |H| < |G|$.

Además, $H$ también es un $p$-grupo abeliano. Así que por la hipótesis de inducción $H$ es el producto directo de grupos cíclicos.

Por lo tanto $G$ es producto directo de grupos cíclicos, a saber $\left< g \right>$ y los grupos cíclicos cuyo producto directo es $H$.

$\blacksquare$

Teorema fundamental de los grupos abelianos finitos

Recordemos que los isomorfismos preservan la estructura algebraica de los grupos. Recordemos que los grupos $\z_n$, con $n$ una potencia de un primo, son abelianos y finitos, por lo que sólo pueden ser isomorfos a otros grupos abelianos y finitos. Más aún, todo grupo abeliano finito es isomorfo a un producto directo de este tipo de grupos.

Teorema. (Fundamental de los Grupos Abelianos Finitos) Todo grupo abeliano finito $G$ es isomorfo a un producto directo de grupos cíclicos de la forma $$\z_{p_1^{\alpha_1}} \times \cdots \times \z_{p_r^{\alpha_r}}$$ con $p_1,\dots, p_r,\alpha_1,\dots, \alpha_r \in \z^+$ y $p_1,\dots,p_r$ primos no necesariamente distintos.

Demostración.

Sea $G$ un grupo abeliano finito. Por ser $G$ abeliano todos sus subgrupos son normales, en particular sus subgrupos de Sylow.

Por el teorema de la entrada Producto directo interno, $G$ es isomorfismo al producto directo de sus subgrupos de Sylow, y por el lema 3 cada uno de ellos es un producto directo de subgrupos cíclicos. Además, como los subgrupos de Sylow son de orden una potencia de un primo, sus subgrupos también, por lo que son isomorfos a $\z_{p^\alpha}$ con $p,\alpha \in \z^+$ y $p$ un primo.

Así, $G$ es isomorfo a un producto directo de la forma
\begin{align*}
\z_{p_1^{\alpha_1}} \times \cdots \times \z_{p_r^{\alpha_r}}
\end{align*}
con $p_1,\dots,p_r,\alpha_1,\dots, \alpha_r \in\z^+$, $p_1,\dots,p_r$ primos no necesariamente distintos.

$\blacksquare$

Apreciemos cómo la demostración de los lemas anteriores, nos facilitó la demostración de este teorema fundamental de los grupos abelianos finitos.

Ejemplo.

Sea $G$ un grupo abeliano de orden $180 = 4\cdot 45 = 2^2\cdot 3^2 \cdot 5$.

Entonces, de acuerdo con el Teorema fundamental de los grupos abelianos finitos, $G$ es isomorfo a alguno de

  • $\z_2\times\z_2\times\z_3\times\z_3\times\z_5$,
  • $\z_4\times\z_3\times\z_3\times\z_5$,
  • $\z_2\times\z_2\times\z_9\times\z_5$ o
  • $\z_4\times\z_9\times\z_5$.

Podría ser isomorfo a cualquiera de ellos, pero para saber a cuál requeriríamos más información. De cualquier modo este primer análisis nos ayuda mucho a entender cómo debe ser el grupo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Si $G$ es un grupo abeliano finito, definimos $v_k(G)$ como el número de elementos de $G$ de orden $k.$
    Prueba que si dos grupos finitos abelianos, $G$ y $G^*$ son isomorfos si y sólo si $v_k(G) = v_k(G^*)$ para todo entero $k$. (Este resultado no es cierto para grupos no abelianos).
  2. Prueba el Teorema fundamental de la aritmética aplicando el Teorema fundamental de grupos abelianos finitos a $G = \z_n$, con $n\in\n$.
  3. Usa el Teorema fundamental de grupos abelianos finitos para describir a…
    • un grupo de orden $144$,
    • un grupo de orden $360$, y a
    • un grupo de orden $2783.$
  4. Encuentra para cuáles $n \in \z^+$ los grupos de orden $n$ son cíclicos.
  5. Prueba que $A$ es un grupo abeliano finito de orden $n$ si y sólo si para cada $d$ divisor de $n$, hay a lo más $d$ elementos $a\in A$ tales que $a^d = 1_A.$

Más adelante…

Esta entrada fue un tema muy anticipado. Ahora comenzaremos otro tema que, aunque sea corto, es igual de importante que el Teorema fundamental de grupos finitos abelianos. De hecho, comparte que también es semejante con el Teorema fundamental de la aritmética. Comenzaremos a estudiar el Teorema de Jordan-Hölder.

Entradas relacionadas

2.3. TEOREMA DE LA DIMENSIÓN: demostración e implicaciones

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

El primero de los teoremas en esta entrada es uno de los más importantes del curso. Este teorema nos simplifica cálculos, ya que en ocasiones nos permite calcular la dimensión de ciertos subespacios sin necesidad de hacer una descripción explícita de una de sus bases.

El segundo de los teoremas resulta también muy útil ya que nos da otra manera de estudiar si una transformación lineal es o no inyectiva.

Para dibujar un cuadrado solo necesitamos largo y ancho, es decir, está en 2D
Para dibujar un cubo necesitamos largo, ancho y alto, es decir, está en 3D

Teorema (2.3.1.): Sean $K$ un campo y $V,W$ $K$ – espacios vectoriales, $T\in\mathcal{L}(V,W)$.
Si $V$ es de dimensión finita, entonces se cumple que:

a) $Núc\,T$ es de dimensión finita
b) $Im\,T$ es de dimensión finita
c) $dim_K Núc\,T+dim_KIm\,T=dim_KV.$

Demostración: Supongamos que $V$ es de dimensión finita, digamos $dim_K\,V=n$.

a) Como $Núc\,T\subseteq V$ y $V$ es de dimensión finita, entonces $Núc\,T$ también es de dimensión finita, digamos que $dim_KNúc\,T=m$.

b) Consideremos $\Delta =\{v_1,v_2,…,v_m\}$ una base de $Núc\,T$.
Como es un conjunto linealmente independiente en $V,$ podemos completar $\Delta$ a una base de $V,$ digamos $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$.

Veamos que $\Gamma = \{ T(v_{m+1}),T(v_{m+2}),…,T(v_{n})\}$ es una base de $Im\,T$ con $n-m$ elementos:

  1. P.D. $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i.

Sean $\lambda_{m+1},\lambda_{m+2},…,\lambda_n\in K$ tales que $\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.

Como $T$ es lineal $T \left( \sum_{i=m+1}^n \lambda_iv_i \right) =\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.
Por lo cual, $\sum_{i=m+1}^n \lambda_iv_i\in Núc\,T$.

Como $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$, existen $\mu_1,\mu_2,…,\mu_m\in K$ tales que $\sum_{i=m+1}^n \lambda_iv_i=\sum_{j=1}^m \mu_jv_j$.
De donde $- \sum_{j=1}^m \mu_jv_j + \sum_{i=m+1}^n \lambda_iv_i =\theta_W$.

Tenemos igualada a $\theta_W$ una combinación lineal de elementos de $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$ que es linealmente independiente.
Por lo tanto, todos los coeficientes de esta combinación lineal son $0_K$ y en particular llegamos a que $\lambda_{m+1}=\lambda_{m+2}=…=\lambda_n=0_K$.

Concluimos que $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i., en consecuencia el conjunto $\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$ es l.i. y tiene $n-m$ elementos.

  1. P.D. $\langle\Gamma\rangle =Im\,T$

Sabemos que $\Gamma\subseteq Im\,T$ y que $Im\,T$ es un espacio vectorial. Por lo tanto, $\langle\Gamma\rangle\subseteq Im\,T$.

Ahora bien, sea $w\in Im\,T$. Por definición de $Im\,T$, existe $v\in V$ tal que $T(v)=w$.

Como $\beta =\{v_1,v_2,…,v_n\}$ es base de $V$, entonces existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^n \lambda_iv_i$.

Así, obtenemos que $w=T(v)=T\left( \sum_{i=1}^n \lambda_iv_i\right)$.
Y como $T$ es lineal, podemos concluir de las igualdades anteriores que $w=\sum_{i=1}^n \lambda_iT(v_i)$.

Tenemos que $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$ y por lo tanto $\Delta\subseteq Núc(T)$. Es decir, $T(v_1)=T(v_2)=…=T(v_m)=\theta_W$.

Así, $w=\sum_{i=1}^n \lambda_iT(v_i)=\sum_{i=1}^m \lambda_iT(v_i)+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i=1}^m \lambda_i\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)=\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i={m+1}}^n \lambda_iT(v_i)$.

Obtuvimos a $w$ expresado como una combinación lineal de términos de $\Gamma =\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$. Por lo tanto, $Im\,T\subseteq\Gamma$.

Concluimos que $\Gamma$ es base de $Im\,T$.
Como $|\Gamma|=n-m$, entonces $Im\,T$ es de dimensión finita y $dim_KIm\,T=n-m.$

c) Tenemos por el inciso anterior que $dim_KNúc\,T=m$, $dim_KIm\,T=n-m$ y $dim_K\,V=n$.
Así, $dim_KV-dim_KNúc\,T=n-m=dim_KIm\,T$, lo que implica que $dim_KV=dim_KNúc\,T+dim_KIm\,T$.

Teorema (2.3.2.): Sean $K$ un campo y $V,W$ $K$-espacios vectoriales y $T\in\mathcal{L}(V,W)$.
Entonces $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}.$

Demostración: Veamos ambas implicaciones.

$\Longrightarrow$ Supongamos que $T$ es inyectiva.
P.D. $Núc\,T=\{\theta_V\}$.

Dado que $\theta_V\in Núc\,T$ se tiene que $\{\theta_V\}\subseteq Núc\,T$ por lo que basta en realidad verificar la otra contención.

Sea $v\in Núc\,T$.
Por definición de núcleo tenemos que $T(v)=\theta_W$.
Además, sabemos que $T(\theta_V)=\theta_W$.
Así, tenemos que $T(v)=T(\theta_V)$ con $T$ inyectiva.
Por lo tanto, $v=\theta_V$.

Llegamos a que el único elemento del núcleo de $T$ es $\theta_V$.

$\Longleftarrow$ Supongamos que $Núc\,T=\{\theta_V\}$.
P.D. $T$ es inyectiva.

Sean $u,v\in V$ tales que $T(u)=T(v)$.
Entonces $T(u)-T(v)=\theta_W$.
Como $T$ es lineal, tenemos que $T(u-v)=T(u)-T(v)$.
Así que $T(u-v)=\theta_W$ y por lo tanto, $u-v\in Núc\,T$ donde (por hipótesis) el único elemento que existe es $\theta_V$.
Así, $u-v=\theta_V$ y concluimos que $u=v$.

Partiendo de que $T(u)=T(v)$ llegamos a que $u$ debe ser igual a $v$ y por lo tanto, $T$ es inyectiva.

Corolario (2.3.3.): Sean $K$ un campo y $V,W$ $K$-espacios vectoriales, $T\in\mathcal{L}(V,W)$. Si $V,W$ son de dimensión finita y de la misma dimensión, entonces $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Demostración: Supongamos que $V,W$ son $K$-espacios vectoriales de dimensión finita y $dim_KV=dim_KW.$

Tenemos por el teorema anterior que $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}$.
Podemos utilizar este resultado porque nuestras nuevas hipótesis no afectan.

Observemos además que $Núc\,T=\{\theta_V\}$ si y sólo si $dim_KNúc\,T=0$ porque el único conjunto que no tiene elementos es el conjunto vacío, que es una base del espacio trivial.

Por el teorema de la dimensión tenemos que $dim_KNúc\,T+dim_hIm\,T=dim_KV$.
Así, que $dim_KNúc\,T=0$ si y sólo si $dim_KIm\,T=dim_KV$.

Como tenemos por hipótesis que $dim_KV=dim_KW$, entonces $dim_KIm\,T=dim_KV$ si y sólo si $dim_KIm\,T=dim_KW$.

Recordando que $Im\,T\leqslant W$ se cumple que $dim_KIm\,T=dim_KW$ si y sólo si $Im\,T=W$.

Y dentro de las equivalencias de que $T$ sea suprayectiva está que $Im\,T=W$.

Por la cadena de dobles implicaciones concluimos que, bajo nuestras hipótesis, $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Tarea Moral

  1. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ verifica que se cumple el primer teorema de esta entrada y determina si $T$ es inyectiva o suprayectiva.
  2. Si $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ es lineal y sabemos que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. ¿Es $T$ inyectiva?

Más adelante…

El último ejercicio de la Tarea Moral en la entrada anterior, 2.1. TRANSFORMACIÓN LINEAL: definición y ejemplos, pregunta la existencia de una transformación lineal de acuerdo a dos valores dados y a continuación veremos cómo podemos plantear y resolver este problema de manera más general.

Entradas relacionadas

Versión cuatro del Teorema de la Función Implícita

Por Angélica Amellali Mercado Aguilar

Ejemplo. Se da el nivel cero de una función diferenciable $F:\mathbb{R}^{4}\rightarrow \mathbb{R}$ y un punto P perteneciente a este nivel. Diga en cada caso si en los alrededores del punto p es posible ver la gráfica de F como la gráfica de una función diferenciable del tipo

$$a)~u=u(x,y,z)$$ $$b)~z=z(x,y,u)$$$$c)~y=y(x,u,z)$$ $$d)~x=x(y,z,u)$$ para $x^{2}+y^{2}+z^{2}+u^{u}=4$ en $p=(1,1,1,1)$

Solución. En este caso para todos los incisos podemos definir $f(x,y,z,u)=x^{2}+y^{2}+z^{2}+u^{u}-4=0$ y para el inciso a, se tiene
$$\frac{\partial F}{\partial u}=2u\left.\right|_{(1,1,1,1)}=2\neq0$$ por lo tanto es posible ver a la gráfica de F como una función diferenciable del tipo $u=u(x,y,z)$ y sus derivadas parciales seran:

$$\frac{\partial u}{\partial x}(1,1,1,1)=-\frac{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}=-\frac{2x}{2u}=-1$$
$$\frac{\partial u}{\partial y}(1,1,1,1)=-\frac{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}=-\frac{2y}{2u}=-1$$
$$\frac{\partial u}{\partial z}(1,1,1,1)=-\frac{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}=-\frac{2z}{2u}=-1$$

para el inciso b, se tiene

$$\frac{\partial F}{\partial z}=2z\left.\right|{(1,1,1,1)}=2\neq0$$ por lo tanto es posible ver a la gráfica de F como una función diferenciable del tipo $z=z(x,y,u)$ y sus derivadas parciales seran: $$\frac{\partial z}{\partial x}(1,1,1,1)=-\frac{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}=-\frac{2x}{2z}=-1$$ $$\frac{\partial z}{\partial y}(1,1,1,1)=-\frac{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}=-\frac{2y}{2z}=-1$$ $$\frac{\partial z}{\partial z}(1,1,1,1)=-\frac{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial z}\left.\right|_{(1,1,1,1)}}=-\frac{2u}{2z}=-1$$

para el inciso c, se tiene

$$\frac{\partial F}{\partial y}=2y\left.\right|{(1,1,1,1)}=2\neq0$$ por lo tanto es posible ver a la gráfica de F como una función diferenciable del tipo $y=y(x,z,u)$ y sus derivadas parciales seran: $$\frac{\partial y}{\partial x}(1,1,1,1)=-\frac{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}=-\frac{2x}{2y}=-1$$ $$\frac{\partial y}{\partial z}(1,1,1,1)=-\frac{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}=-\frac{2z}{2y}=-1$$ $$\frac{\partial y}{\partial u}(1,1,1,1)=-\frac{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}=-\frac{2u}{2y}=-1$$ para el inciso d, se tiene $$\frac{\partial F}{\partial x}=2x\left.\right|{(1,1,1,1)}=2\neq0$$ por lo tanto es posible ver a la gráfica de F como una función diferenciable del tipo $x=x(y,z,u)$ y sus derivadas parciales seran:
$$\frac{\partial x}{\partial y}(1,1,1,1)=-\frac{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}=-\frac{2x}{2y}=-1$$
$$\frac{\partial x}{\partial z}(1,1,1,1)=-\frac{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}=-\frac{2z}{2y}=-1$$
$$\frac{\partial x}{\partial u}(1,1,1,1)=-\frac{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}=-\frac{2u}{2y}=-1$$

Teorema de la Función Implicita (version (4))

Consideremos ahora el sistema
$$au+bv-k_{1}x=0$$ $$cu+dv-k_{2}y=0$$
con $a,b,c,d,k_{1},k_{2}$ constantes. Nos preguntamos cuando podemos resolver el sistema para $u$ y $v$ en términos de $x$ y $y$.
Si escribimos el sistema como
$$au+bv=k_{1}x$$ $$cu+dv=k_{2}y$$
y sabemos que este sistema tiene solución si $det \left|\begin{array}{cc} a&b \\c&d\end{array}\right|\neq0$ en tal caso escribimos
$u=\displaystyle \frac{1}{det \left|\begin{array}{cc} a&b \\c&d\end{array}\right|}(k_{1}dx-k_{2}by)$, $~~~$ $v=\displaystyle \frac{1}{det \left|\begin{array}{cc} a&b \\c&d\end{array}\right|}(k_{2}ay-k_{1}cx)$.
Esta solución no cambiaria si consideramos
$$au+bv=f_{1}(x,y)$$ $$cu+dy=f_{2}(x,y)$$

donde $f_{1}$ y $f_{2}$ son funciones dadas de $x$ y $y$. La posibilidad de despejar las variables $u$ y $v$ en términos de $x$ y $y$ recae sobre los coeficientes de estas variables en las ecuaciones dadas.

Ahora si consideramos ecuaciones no lineales en $u$ y $v$ escribimos el sistema como
$$g_{1}(u,v)=f_{1}(x,y)$$ $$g_{2}(u,v)=f_{2}(x,y)$$

nos preguntamos cuando del sistema podemos despejar a $u$y $v$ en términos de $x$ y $y$. Mas generalmente, consideramos el problema siguiente, dadas las funciones $F$ y $G$ de las variables $u,v,x,y$ nos preguntamos cuando de las expresiones

$$F(x,y,u,v)=0$$ $$G(x,y,u,v)=0$$

podemos despejar a $u$ y $v$ en términos de $x$ y $y$ en caso de
ser posible diremos que las funciones $u=\varphi_{1}(x,y)$ y
$v=\varphi_{2}(x,y)$ son funciones implícitas dadas. Se espera que
$\exists’$n funciones $u=\varphi_{1}(x,y)$ y
$v=\varphi_{2}(x,y)$ en
$$F(x,y,\varphi_{1}(x,y),\varphi_{2}(x,y)$$ $$G(x,y,\varphi_{1}(x,y),\varphi_{2}(x,y)$$
con $(x,y)$ en alguna vecindad $V$. Suponiendo que existen $\varphi_{1}$ y $\varphi_{2}$ veamos sus derivadas

$$\displaystyle \frac{\partial F}{\partial x}\displaystyle \frac{\partial x}{\partial
x}+\displaystyle \frac{\partial F}{\partial y}\displaystyle \frac{\partial y}{\partial x}+\displaystyle \frac{\partial F}{\partial u}\displaystyle \frac{\partial u}{\partial
x}+\displaystyle \frac{\partial F}{\partial v}\displaystyle \frac{\partial v}{\partial x}=0 \Rightarrow \displaystyle \frac{\partial F}{\partial u}\displaystyle \frac{\partial u}{\partial x}+\displaystyle \frac{\partial F}{\partial v}\displaystyle \frac{\partial v}{\partial x}=-\displaystyle \frac{\partial F}{\partial x}$$

$$\displaystyle \frac{\partial G}{\partial x}\displaystyle \frac{\partial x}{\partial x}+\displaystyle \frac{\partial G}{\partial y}\displaystyle \frac{\partial y}{\partial x}+\displaystyle \frac{\partial G}{\partial u}\displaystyle \frac{\partial u}{\partial x}+\displaystyle \frac{\partial G}{\partial v}\displaystyle \frac{\partial v}{\partial x}=0 ~~ \Rightarrow ~~ \displaystyle \frac{\partial G}{\partial u}\displaystyle \frac{\partial u}{\partial x}+\displaystyle \frac{\partial G}{\partial v}\displaystyle \frac{\partial v}{\partial x}=-\displaystyle \frac{\partial G}{\partial x}$$

Lo anterior se puede ver como un sistema de 2 ecuaciones con 2 incógnitas $\displaystyle \frac{\partial u}{\partial x}$ y $\displaystyle \frac{\partial v}{\partial x}$. Aquí se ve que para que el sistema tenga solución

$det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|\neq0$ en $(P)$ (el $det$ Jacobiano) y según la regla de Cramer

$\displaystyle \frac{\partial u}{\partial x}=-\frac{\det
\left|\begin{array}{cc} \displaystyle -\frac{\partial F}{\partial
x}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle -\frac{\partial G}{\partial x}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}{\det
\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}$, $~~ $ $\displaystyle \frac{\partial v}{\partial x}=-\frac{\det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle -\frac{\partial F}{\partial x} \\ \displaystyle \frac{\partial G}{\partial u}&\displaystyle -\frac{\partial G}{\partial x}\end{array}\right|}{det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|}$ (con los dos $det$ Jacobianos).

Análogamente si derivamos con respecto a $y$ obtenemos
$$\displaystyle \frac{\partial F}{\partial
u}\displaystyle \frac{\partial u}{\partial y}+\displaystyle
\frac{\partial F}{\partial v}\displaystyle \frac{\partial
v}{\partial y}=-\displaystyle \frac{\partial F}{\partial y}$$ ,$$\displaystyle \frac{\partial G}{\partial u}\displaystyle \frac{\partial u}{\partial y}+\displaystyle
\frac{\partial G}{\partial v}\displaystyle \frac{\partial v}{\partial y}=-\displaystyle \frac{\partial G}{\partial y}$$
de donde

$\displaystyle \frac{\partial u}{\partial y}=-\frac{\det
\left|\begin{array}{cc} \displaystyle -\frac{\partial F}{\partial
y}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle -\frac{\partial G}{\partial y}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}{det
\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}$,$~~$ $\displaystyle \frac{\partial v}{\partial y}=-\frac{\det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle -\frac{\partial F}{\partial y} \\ \displaystyle \frac{\partial G}{\partial u}&\displaystyle -\frac{\partial G}{\partial y}\end{array}\right|}{det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|}$ (con los dos $det$ Jacobianos).

Al determinante $det \left|\begin{array}{cc} \displaystyle
\frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial G}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|$ lo llamamos Jacobiano y lo denotamos por $\displaystyle \frac{\partial (F,G)}{\partial (u,v)}$.

Teorema de la Función Implícita (Versión 4)

Teorema 1. Considere las funciones $z_{1}=F(x,y,u,v)$ y $z_{2}=G(x,y,u,v)$. Sea $P=(x,y,u,v) \in \mathbb{R}^{4}$ un punto tal que $F(P)=G(P)=0$.
Suponga que en una bola $\textit{B} \in \mathbb{R}^{4}$ de centro $P$ las funciones $F$ y $G$ tienen (sus cuatro) derivadas parciales continuas. Si el Jacobiano $\displaystyle \frac{\partial (F,G)}{\partial (u,v)}(P)\neq0$ entonces las expresiones
$F(x,y,u,v)=0$ y $G(x,y,u,v)=0$ definen funciones (implícitas) $u=\varphi_{1}(x,y)$ y $v=\varphi_{2}(x,y)$ definidas en una vecindad $v$ de $(x,y)$ las cuales tienen derivadas parciales continuas en $v$ que se pueden calcular como se menciona arriba.

Demostración. Dado que $$det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|\neq 0$$ entonces $\displaystyle{\frac{\partial F}{\partial u}(p)}$, $\displaystyle{\frac{\partial F}{\partial v}(p)}$, $\displaystyle{\frac{\partial G}{\partial u}(p)}$, $\displaystyle{\frac{\partial G}{\partial v}(p)}$ no son cero al mismo tiempo, podemos suponer sin pérdida de generalidad que $\displaystyle{\frac{\partial G}{\partial v}(p)}\neq0$. Entonces la función $z_{1}=G(x,y,u,v)$ satisface las hipótesis del T.F.I y en una bola abierta con centro p, v se puede escribir como $v=\psi(x,y,u)$. Hacemos ahora $$H(x,y,u)=F(x,y,u,\psi(x,y,u))$$ y tenemos que $$\frac{\partial H}{\partial u}=\frac{\partial F}{\partial x}\frac{\partial x}{\partial u}+\frac{\partial F}{\partial y}\frac{\partial y}{\partial u}+\frac{\partial F}{\partial u}\frac{\partial u}{\partial u}+\frac{\partial F}{\partial v}\frac{\partial \psi}{\partial u}=\frac{\partial F}{\partial u}+\frac{\partial F}{\partial v}\frac{\partial \psi}{\partial u}$$ por otro lado
$$\frac{\partial \psi}{\partial u}=-\frac{\frac{\partial G}{\partial u}}{\frac{\partial G}{\partial v}}$$ por lo tanto $$\frac{\partial H}{\partial u}=\frac{\partial F}{\partial u}+\frac{\partial F}{\partial v}\frac{\partial \psi}{\partial u}=\frac{\partial F}{\partial u}+\frac{\partial F}{\partial v}\left(-\frac{\frac{\partial G}{\partial u}}{\frac{\partial G}{\partial v}}\right)=\frac{\frac{\partial F}{\partial u}\frac{\partial G}{\partial v}-\frac{\partial F}{\partial v}\frac{\partial G}{\partial u}}{\frac{\partial G}{\partial v}}\neq0$$por lo tanto para $H(x,y,u)=0$ tenemos que existe una función $u=\varphi_{1}(x,y)$ y por lo tanto $v=\psi(x,y,u)=\psi(x,y,\varphi_{1}(x,y,u))=\varphi_{2}(x,y)$ y por tanto $u,v $ se pueden expresar en términos de $x,y$ en una vecindad de $p$ $\square$

Ejemplo. Analizar la solubilidad del sistema
$$e^{u}+e^{v}=x+ye$$ $$ue^{u}+ve^{v}=xye$$

Solución. En este caso definimos
$$F(x,y,u,v)=e^{u}+e^{v}-x-ye=0$$ $$G(x,y,u,v)=ue^{u}+ve^{v}-xye=0$$
por lo que el sistema tendrá solución si $\displaystyle{\det\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}\neq 0$
En este caso
$$\det\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|=\det\left|\begin{array}{cc} \displaystyle e^{u}&\displaystyle e^{v}\\ ue^{u}+e^{e^{u}}&ve^{v}+e^{v}\end{array}\right|=e^{u}\left(ve^{v}+e^{v}\right)-e^{v}\left(ue^{u}+e^{u}\right)=ve^{u+v}-ue^{v+u}\neq 0$$
por lo tanto u y v se pueden ver en términos de x,y $\therefore$ se pueden calcular sus parciales en $u=0,~v=1,~x=1, ~y=1$ que es este caso dan

$$\displaystyle \frac{\partial u}{\partial x}=-\frac{\det
\left|\begin{matrix}-1&-ye\\e^{v}&ve^{v}+e^{v}\end{matrix}\right|}{ve^{u+v}-ue^{v+u}}=-\frac{-(ve^{v}+e^{v})+e^{v}ye}{ve^{u+v}-ue^{v+u}}\left.\right|{(1,1,1,1)}=\frac{2e-e^{2}}{e}=2-e$$ $$\displaystyle \frac{\partial v}{\partial x}=-\frac{\det \left|\begin{matrix}e^{u}&ue^{u}+e^{u}\\-1&-ye\end{matrix}\right|}{ve^{u+v}-ue^{v+u}}=-\frac{-ye^{u}e+ue^{u}+e^{u}}{ve^{u+v}-ue^{v+u}}\left.\right|{(1,1,1,1)}=\frac{e-1}{e}=1-e^{-1}$$ $$\displaystyle \frac{\partial u}{\partial y}=-\frac{\det
\left|\begin{matrix}-e&-xe\\e^{v}&ve^{v}+e^{v}\end{matrix}\right|}{ve^{u+v}-ue^{v+u}}=-\frac{-e(ve^{v}+e^{v})+e^{v}xe}{ve^{u+v}-ue^{v+u}}\left.\right|{(1,1,1,1)}=\frac{e^{2}+e^{2}-e^{2}}{e}=e$$ $$\displaystyle \frac{\partial v}{\partial y}=-\frac{\det \left|\begin{matrix}e^{u}&ue^{u}+e^{u}\\-e&-xe\end{matrix}\right|}{ve^{u+v}-ue^{v+u}}=-\frac{-e^{u}xe+e(ue^{u}+e^{u})}{ve^{u+v}-ue^{v+u}}\left.\right|{(1,1,1,1)}=\frac{e-e}{e}=0$$

2.2. NÚCLEO, NULIDAD, IMAGEN Y RANGO: definiciones, ejemplos y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Analizaremos cuatro nuevos conceptos. Dos de ellos son conjuntos y los otros dos son las dimensiones de esos conjuntos.

Representación gráfica del núcleo y la imagen de una transformación lineal $T$.

NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL

Definición: Sean $V$ y $W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$.
El núcleo de $T$ es $Núc\,T=\{v\in V|T(v)=\theta_W\}$.
La imagen de $T$ es $Im\, T=\{T(v)|v\in V\}$.

  • Sean $K$ un campo y $T:K^\infty\longrightarrow K^\infty$ lineal donde $\forall (x_1,x_2,x_3,…)\in K^\infty (T(x_1,x_2,x_3,…)=(x_2,x_3,x_4,…))$.
    $Núc\,T=\{(x_1,0_K,0_K,…)\in K^\infty | x_1\in K\}$ ; $Im\,T=K^\infty$

Justificación. Para el núcleo de $T$:

\begin{align*} T(x_1,x_2,x_3,…)=(0_K,0_K,0_K,…) \\
\Leftrightarrow (x_2,x_3,x_4,…)=(0_K,0_K,0_K,…) \\
\Leftrightarrow x_i=0_K \text{ para toda }i\in\{2,3,4,…\}. \end{align*}

Para la imagen de $T$:

Sea $(y_1,y_2,y_3,…)\in K^\infty$.
Tenemos que $T(0_K,y_1,y_2,…)=(y_1,y_2,y_3,…)$, por lo cual $T$ es suprayectiva y su imagen es todo el codominio.

  • Sea $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ donde $\forall (x,y)\in\mathbb{R}^2(T(x,y)=(x,0))$
    $Núc\,T=\{(0,y)\in\mathbb{R}^2|y\in\mathbb{R}\}$ ; $Im\,T=\{(x,0)\mathbb{R}^2|x\in\mathbb{R}\}$

Justificación. Para el núcleo de $T$:

$$T(x,y)=(0,0) \Leftrightarrow (x,0)=(0,0)\Leftrightarrow x=0.$$

Para la imagen de $T$:

Sea $(a,0)\in \{ (x,0)\in\mathbb{R}^2|x\in\mathbb{R}^2\}$. Dado que $T(a,0)=(a,0)$ se tiene que $(a,0)\in Im\,T$.

A la inversa, si $(a,b)\in Im\, T$ se tiene que $T(x,y)=(a,b)$ para alguna $(x,y)\in \mathbb{R}^2$, por lo que $(x,0)=(a,b)$ y así $b=0$.

  • Sean $K$ un campo, $A\in\mathcal{M}_{m\times n}(K)$ y $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$
    $Núc\,T$ es el conjunto de las soluciones del sistema homogéneo con matriz de coeficientes $A$ ; $Im\,T$ es el espacio generado por las columnas de $A$

Justificación. Para el núcleo de $T$:

$T(X)=\theta_{m\times 1}\Leftrightarrow AX=\theta_{m\times 1}$
$\Leftrightarrow X$ es solución del sistema homogéneo con matriz de coeficientes $A$.

Para la imagen de $T$:

\begin{align*}Im\,T&=\{AX:X\in K^n\}\\&=\left\{ \begin{pmatrix} a_{11} & … & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & … & a_{mn} \end{pmatrix} \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ \begin{pmatrix} a_{11}x_1 + … + a_{1n}x_n \\ … \\ a_{m1}x_1 + … + a_{mn}x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ x_1\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} + … + x_n\begin{pmatrix} a_{1n}\\ \vdots \\ a_{mn} \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\langle \begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix},…,\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} \right\rangle\end{align*}

Proposición (2.2.1.): Sean $V,W$ $K$ – espacios vectoriales, $T\in\mathcal{L}(V,W)$. Se cumple que:

a) $Núc\,T\leqslant V$.
b) $Im\,T\leqslant W$.

Demostración: Para cada inciso es necesario demostrar dos propiedades:

a) P.D. $\theta_V\in Núc\,T$ y $\forall\lambda\in K$ $\forall u,v\in Núc\,T (\lambda u + v\in Núc\,T)$

Como $T$ es una transformación lineal tenemos que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_V\in Núc\,T.$

Sean $\lambda\in K$ y $u,v\in Núc\,T$. Entonces $T(u)=\theta_W=T(v).$ Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal. Así, $$T(\lambda u+v)=\lambda\theta_W +\theta_W=\theta_W$$
de donde $\lambda u + v\in Núc\,T.$

b) P.D. $\theta_W\in Im\,T$ y $\forall\lambda\in K$ $\forall w,z\in Im\,T (\lambda u + v\in Im\,T)$

Como $T$ es una transformación lineal tenemos que $\theta_V\in V$ cumple que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_W\in Im\,T$.

Sean $\lambda\in K$ y $w,z\in Im\,T$. Entonces $\exists u,v\in V (T(u)=w\wedge T(v)=z)$. Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal.
Así, $$T(\lambda u+v)=\lambda w+z$$
de donde $\lambda w+ z\in Im\,T.$

NULIDAD Y RANGO DE UNA TRANSFORMACIÓN LINEAL

Definición: Sea $T$ una transformación lineal con $Núc \,T$ de dimensión finita. Decimos que la dimensión de $Núc\,T$ es la nulidad de $T$.

Definición: Sea $T$ una transformación lineal con $Im \,T$ de dimensión finita. Decimos que la dimensión de $Im\,T$ es el rango de $T$.

Ejemplo

  • Sea $K=\mathbb{R}$ y sean $V=\mathcal{P}_3$ y $W=\mathcal{P}_2$ $K$ – espacios vectoriales.
    Sea $T:V\longrightarrow W$ donde $\forall p(x)\in T(p(x))=p'(x)$.
    La nulidad de $T$ es $1$ y su rango es $3$

Justificación. Los polinomios con derivada cero son únicamente las constantes. Así, $Núc(T)=\{a|a\in\mathbb{R}\}$ que tiene dimensión $1$.

Por otro lado todo polinomio de grado $2$ se puede obtener derivando un polinomio de grado $3$. Basta con integrar el polinomio de grado $2$ para encontrar cómo son los polinomios de grado $3$ que cumplen lo deseado. De modo que $W\subseteq Im(T)$ y como $Im(T)\subseteq W$ por definición, entonces $Im(T)=W$ que tiene dimensión $3$.

Por lo tanto, el núcleo y la imagen son de dimensión finita y la nulidad de $T$ es $1$ y su rango es $3.$

Tarea Moral

  1. Sean $K$ un campo, $V$ y $W$ $K$-espacios vectoriales y $T:V\longrightarrow W$ lineal. Sea $\{ w_1, w_2, …, w_k\}$ un subconjunto l.i. de $Im\,T$.
    Si $S=\{ v_1,v_2,…,v_k \}$ se selecciona de tal forma que $\forall i\in \{ 1,2,…,k\}(T(v_i)=w_i)$, demuestra que $S$ es l.i.
  2. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ encuentra bases para $Núc(T)$ e $Im(T)$.
  3. Sean $K$ un campo y $P: \mathcal{M}_{m\times m}(K) \longrightarrow \mathcal{M}_{m\times m}(K)$ definida por $\forall A\in \mathcal{M}_{m\times m}(K) \left( P(A)=\frac{A + A^{t}}{2} \right)$. Verifica que $T$ es lineal y encuentra su núcleo e imagen.

Más adelante…

En la siguiente entrada veremos el vínculo que existe entre la dimensión del núcleo, de la imagen y del espacio vectorial que aparece como dominio de una transformación lineal. Esta relación numérica nos permite calcular cualquiera de estas dimensiones si tenemos conocimiento de las otras dos.

Entradas relacionadas

Tres versiones del Tema de la Función Inversa

Por Angélica Amellali Mercado Aguilar

Teorema de la Función Implicita (version (1))

Teorema 1. Considere la función $y=f(x)$. Sea $(x_{0},y_{0}) \in
\mathbb{R}^{2}$ un punto tal que $F(x_{0},y_{0})=0$. Suponga que la función F tiene derivadas parciales en alguna bola con centro $(x_{0},y_{0})$ y que $\displaystyle \frac{\partial F}{\partial y}(x_{0},y_{0})\neq 0$. Entonces $F(x,y)=0$ se puede resolver para $y$ en términos de $x$ y definir así una función $y=f(x)$ con dominio en una vecindad de $(x_{0},y_{0})$, tal que $y_{0}=f(x_{0})$, lo cual tiene derivadas continuas en $\mathcal{V}$ que pueden calcularse como $$y’=f'(x)=-\displaystyle \frac{\displaystyle \frac{\partial F}{\partial x}(x,y)}{\displaystyle \frac{\partial F}{\partial y}(x,y)}$, $x \in \mathcal{V}$$.

Vamos ahora a probar que f es continua en $(x_{0}-h,x_{0}+h)$ haciendo ver primero que es continua en$x_{0}$ y despues mostrando que es continua en todo $x\in (x_{0}-h,x_{0}+h)$

Demostración. Sea $0<\epsilon<k$. Si se repite el proceso para determinar la funcion f, pero ahora restringidos a un cuadrado más pequeño T, centrado en $(x_{0},y_{0})$, descrito por $$T={(x,y)\in\mathbb{R}^{2}~|~|x-x_{0}<\epsilon,|y-y_{0}|<\epsilon|}$$obtenemos la misma función pero con dominio restringido a un intervalo $(x_{0}-\delta,x_{0}+\delta)$ con $\delta0$ tal que para todo x, si $|x-x_{0}|<\delta$ entonces $|f(x)-f(x_{0})|<\epsilon$. Por tanto, f es continua en $x_{0}$.\Para probar que f es continua en x $\forall~x\in (x_{0}-h,x_{0}+h)$ tómese $x_{1}$ en $(x_{0}-h,x_{0}+h)$ con $x_{1}\neq x_{0}$ y un $\epsilon>0$ lo suficientemente pequeño para garantizar que el cuadrado $$U=\left\{(x,y)\in\mathbb{R}^{2}~|~|x-x_{1}<\epsilon,|y-y_{1}|<\epsilon|\right\}$$ centrado en $(x_{1},y_{1})$ y donde $y_{1}=f(x_{1})$ este totalmente contenido en el cuadrado original S, y ademas para todo x tal que $|x-x_{1}<\epsilon$, $x\in(x_{0}-h,x_{0}+h)$. Así, repitiendo el proceso para determinar f, ahora restringiendonos a las x que cumplen $|x-x_{1}<\epsilon$, encontramos que existe una $0<\delta_{1}<\epsilon$ tal que, para todo x, si $|x-x_{1}<\delta_{1}$ entonces $|f(x)-f(x_{1})<\epsilon$. lo cual quiere decir que f es continua en $x_{1}$. Por consiguiente, f es continua en $(x_{0}-h,x_{0}+h)$

Ahora probaremos que $y’$ es continua en $I=(x_{0}-h,x_{0}+h)$ con derivada
$$y’=-\frac{\frac{\partial F}{\partial x}}{\frac{\partial F}{\partial y}}$$

Demostración. Como F tiene parciales continuas en $x_{0}$ entonces F es diferenciable en $x_{0}$ por lo tanto
$$F((x_{0},y_{0})+(h_{1},h_{2}))=F(x_{0},y_{0})+\frac{\partial F}{\partial x}(x_{0},y_{0})h_{1}+\frac{\partial F}{\partial y}(x_{0},y_{0})h_{2}+r(h_{1},h_{2})$$donde
$$\lim_{(h_{1},h_{2})\rightarrow(0,0)}\frac{r(h_{1},h_{2})}{|(h_{1},h_{2})|}=0$$
tomando $x_{0}+h_{1}\in I$ y haciendo $y_{0}+h_{2}=f(x_{0}+h_{1})$ se tiene
$$F((x_{0},y_{0})+(h_{1},h_{2}))=F(x_{0}+h_{1},f(x_{0}+h_{2}))=0$$
también
$$F(x_{0},y_{0})=0$$por lo tanto
$$F(x_{0}+h_{1},f(x_{0}+h_{2}))-F(x_{0},y_{0})=0$$esto quiere decir
$$\frac{\partial F}{\partial x}(x_{0},y_{0})h_{1}+\frac{\partial F}{\partial y}(x_{0},y_{0})h_{2}+r(h_{1},h_{2})=0$$
como
$$r(h_{1},h_{2})=0parah_{1},h_{2}$$ cercanas a 0
$$\frac{\partial F}{\partial x}(x_{0},y_{0})h_{1}+\frac{\partial F}{\partial y}(x_{0},y_{0})h_{2}=0$$
por lo tanto
$$\frac{h_{2}}{h_{1}}=-\frac{\frac{\partial F}{\partial x}(x_{0},y_{0})}{\frac{\partial F}{\partial y}(x_{0},y_{0})}$$
pero $h_{2}=\triangle y$ y $h_{1}=\triangle x$ por lo tanto
$$\frac{\triangle y}{\triangle x}=-\frac{\frac{\partial F}{\partial x}(x_{0},y_{0})}{\frac{\partial F}{\partial y}(x_{0},y_{0})}$$
haciendo $\triangle y~\triangle x~\rightarrow~0$ se tiene
$$y'(x_{0})=\frac{dy}{dx}=-\frac{\frac{\partial F}{\partial x}(x_{0},y_{0})}{\frac{\partial F}{\partial y}(x_{0},y_{0})}$$
este mismo razonamiento es valido para $x\in I$. $\quad$

Teorema de la Función Implícita ( Versión (2))

Considere la función $F(x,y,z)$. Sea $(x_{0},y_{0},z_{0}) \in \mathbb{R}^{3}$ un punto tal que $F(x_{0},y_{0},z_{0})=0$. Suponga que la función F tiene derivadas parciales $\displaystyle{\frac{\partial F}{\partial x},~\frac{\partial F}{\partial y},~\frac{\partial F}{\partial z}}$ continuas en alguna bola con centro $(x_{0},y_{0},z_{0})$ y que $\displaystyle \frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})\neq 0$.
Entonces $F(x,y,z)=0$ se puede resolver para $z$ en términos de $x,y$ y definir así una función $z=f(x,y)$ con dominio en una vecindad de $(x_{0},y_{0},z_{0})$, tal que $z_{0}=f(x_{0},y_{0})$, lo cual tiene derivadas continuas en $\mathcal{V}$ que pueden calcularse como $$\frac{d z}{dx}(x,y)=-\displaystyle \frac{\displaystyle \frac{\partial F}{\partial x}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}~~~\frac{d z}{dy}(x,y)=-\displaystyle \frac{\displaystyle \frac{\partial F}{\partial y}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}$$
$\textbf{Importante:}$ Este es un resultado que garantiza la existencia de una función $z=f(x,y)$ definida implícitamente por $F(x,y,z)=0$. Esto es, puede resolverse para $z$ en términos de $x,y$, pero no nos dice como hacer el despeje.

Ejemplo. Sea $f(x,y,z)=x+y+z-ze^{z}$ entonces $\displaystyle{\frac{\partial F}{\partial z}=1-e^{z}(z+1)}$ si el punto $P(x_{0},y_{0},z_{0}) \in \mathbb{R}^{3}$ es tal que $x_{0}+y_{0}+z_{0}e^{z_{0}}=0$ y $z\neq0$ y como $\displaystyle \frac{\partial F}{\partial z}\neq 0$. El $\textbf{T.F.Im.}$ sugiere que podamos despejar $z$ en términos de $x$ y $y$ y establecer así una función $z=f(x,y)$ con $z_{0}=f(x_{0},y_{0})$ de modo que su gráfica en los alrededores de $P$ coincide con $F(x,y,z)=0$. Las parciales de la función $f$ son

$\displaystyle \frac{\partial F}{\partial x}= \displaystyle \frac{\displaystyle \frac{-\partial F}{\partial x}}{\displaystyle \frac{\partial F}{\partial z
}}=\displaystyle \frac{-1}{1-e^{z}(z+1)}$,$~~~~$ $\displaystyle
\frac{\partial F}{\partial y}= \displaystyle \frac{\displaystyle
\frac{-\partial F}{\partial y}}{\displaystyle \frac{\partial
F}{\partial z }}=\displaystyle \frac{-1}{1-e^{z}(z+1)}$.

Ejercicio. Si $$\frac{d z}{dx}(x,y)=-\displaystyle \frac{\displaystyle \frac{\partial F}{\partial x}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}$$ calcular $$\frac{\partial^{2}F}{\partial x^{2}}$$

Solución. tenemos que
$$\frac{\partial^{2}F}{\partial x^{2}}=\frac{\partial}{\partial x}\left(-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial x}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}\right)=-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial x^{2}} \frac{dx}{d x}+ \frac{\partial^{2} F}{\partial y\partial x} \frac{dy}{dx}+ \frac{\partial^{2} F}{\partial z\partial x} \frac{dz}{dx}\right]-\left( \frac{\partial F}{\partial x}\right)\left[ \frac{\partial^{2} F}{\partial x \partial z}\frac{dx}{d x}+ \frac{\partial^{2} F}{\partial y\partial z} \frac{dy}{dx}+ \frac{\partial^{2} F}{\partial z^{2}} \frac{dz}{dx}\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial x^{2}}+ \frac{\partial^{2} F}{\partial z\partial x} \frac{dz}{dx}\right]-\left( \frac{\partial F}{\partial x}\right)\left[ \frac{\partial^{2} F}{\partial x \partial z}+\frac{\partial^{2} F}{\partial z^{2}} \frac{dz}{dx}\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial x^{2}}+ \frac{\partial^{2} F}{\partial z\partial x} \left(-\frac{\frac{\partial F}{\partial x}}{\frac{\partial F}{\partial z}}\right)\right]-\left( \frac{\partial F}{\partial x}\right)\left[ \frac{\partial^{2} F}{\partial x \partial z}+\frac{\partial^{2} F}{\partial z^{2}}\left(-\frac{\frac{\partial F}{\partial x}}{\frac{\partial F}{\partial z}}\right)\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)^{2} \frac{\partial^{2} F}{\partial x^{2}}-2 \frac{\partial^{2} F}{\partial z\partial x} \frac{\partial F}{\partial x}\frac{\partial F}{\partial z}+\left(\frac{\partial F}{\partial x}\right)^{2}{\frac{\partial^{2} F}{\partial z^{2}}}}{\left(\frac{\partial F}{\partial z}\right)^{3}}$$

Teorema de la Función Implícita (Versión (3))

Teorema 1. Considere la función $z=f(x_{1},…,x_{n})$. Sea $p=(x_{1},…,x_{n},y) \in \mathbb{R}^{n+1}$ un punto tal que $F(p)=0$. Suponga que la función $F$ tiene derivadas parciales $\displaystyle \frac{\partial F}{\partial x_{i}}$, $i=1,…,n$, y $\displaystyle \frac{\partial F}{\partial y}$ continuas en alguna bola con centro $P$ y que $\displaystyle \frac{\partial F}{\partial y}\neq 0$.
Entonces, $F(x_{1}$,…,$x_{n})=0$ puede resolverse para $y$ en términos de $x$ y definir así una vecindad $v$ de $\mathbb{R}^{n}$ del punto $(x_{1},$…,$x_{n})$, una función $y=f(x_{1}$,…,$x_{n})$ lo cual tiene derivadas parciales continuas en $v$ que se pueden calcular con las fórmulas $\displaystyle \frac{\partial F}{\partial x_{i}}(x_{1}$,…,$x_{n})=\displaystyle \frac{\displaystyle \frac{-\partial F}{\partial x_{i}}(x_{1},….,x_{n})}{\displaystyle \frac{\partial F}{\partial y}(x_{1},…,x_{n})}$ con $(x_{1},…,x_{n}) \in v$.

Demostración. Una idea de como probar lo anterior es la siguiente:
Como $\frac{\partial F}{\partial \textcolor{Red}{y}}\neq 0$ entonces tenemos que $\frac{\partial F}{\partial \textcolor{Red}{y}}> 0$ ó $\frac{\partial F}{\partial \textcolor{Red}{y}}<0$ supongamos sin perdida de generalidad que $\frac{\partial F}{\partial \textcolor{Red}{y}}> 0$ entonces tenemos que $F(x_{1},x_{2},…,x_{q},y)$ es creciente cuando $(x_{1},…,x_{q})$ es constante $F(a_{1},…,a_{q},\textcolor{Red}{y})$ es creciente $\forall y\in [b-\epsilon,b+\epsilon]$ además se tiene que $F(a_{1},…,a_{q},b)=0$ entonces $$F(a_{1},…,a_{q},b+\epsilon)>0\quad
F(a_{1},…,a_{q},b-\epsilon)<0$$ $\therefore$ Si $(x_{1},…,x_{q})\in B_{\delta}(a_{1},…,a_{q})$ entonces $$F(x_{1},…,x_{q},b+\epsilon)>0\quad
F(x_{1},…,x_{q},b-\epsilon)<0\quad y\quad F\quad continua$$ se
tiene entonces que $\exists !\quad \textcolor{Red}{y}=f(x_{1},…,x_{q})\in [b-\epsilon,b+\epsilon]$ tal que $F(x_{1},x_{2},…,x_{q},f(x_{1},x_{2},…,x_{q}))=0$ y
$b=f(x_{1},x_{2},…,x_{q})$. Hemos encontrado que si $(x_{1},…,x_{q})\in B_{\delta}(a_{1},…,a_{q})$ entonces $f(x_{1},…,x_{q})=\textcolor{Red}{y}\in (b-\epsilon,b+\epsilon)$
$\therefore$ f es continua. $\square$