2.4. TRANSFORMACIÓN LINEAL: descripción a partir de su efecto en una base

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

En ocasiones se tiene desde un inicio la regla de correspondencia de una función y a partir de ella analizamos su comportamiento y los valores que se obtienen al aplicar la función. Sin embargo, a veces sólo se conoce su comportamiento y/o su evaluación en algunos elementos de su dominio y a partir de ello se busca describir la función por completo. En el caso de las transformaciones lineales entenderemos qué información nos ayuda a comprenderlas por completo y para ello las bases de un espacio jugarán un papel fundamental, veamos de qué forma.

En una función cuadrática, sabemos cómo cada coeficiente influye en el comportamiento de la gráfica.
En una ecuación lineal, sabemos cómo la pendiente y el término independiente determinan la gráfica.
Podemos identificar las cónicas y cada uno sus elementos de acuerdo a la ecuación que se describa.

Comencemos con un resultado que nos dice que siempre podemos construir una transformación lineal que mande a los elementos de una base a cualesquiera elementos en el codominio deseado y hay una única manera de hacerlo:

Teorema: Sean $V,W$ $K$ – espacios vectoriales donde $V$ es de dimensión finita $n$. Si $\beta =\{ v_1,v_2,…,v_n\}$ es una base de $V$, entonces para cualesquiera $w_1,w_2,…,w_n\in W$ existe una única $T\in\mathcal{L}(V,W)$ tal que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Demostración: Sea $\beta =\{v_1,v_2,…,v_n\}$ una base arbitraria de $V$.
Sean $w_1,w_2,…,w_n\in W$.

Entonces para cada $v\in V$ hay una única combinación lineal de elementos de $\beta$ que es igual a $v.$ Es decir, existen únicos $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$.

Primero propondremos una función que cumpla que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.
Después veremos que esa función es una transformación lineal.
Por último probaremos que es única.

Definamos $T:V\longrightarrow W$ como $T(v)=\sum_{i=1}^{n}\lambda_iw_i$.
Como $\lambda_1,\lambda_2,…,\lambda_n$ son únicos (y por tanto ya son fijos), entonces $T$ le asigna un único valor a cada $v\in V$ y así aseguramos que $T$ está bien definida.

Notemos que para cada $i\in\{1,2,…,n\}$ tenemos que $$v_i=0v_1+0v_2+…+0v_{i-1}+1v_i+0v_{i+1}+…+0v_n,$$ lo que implica por la forma en que se definió $T$ que para cada $i\in\{1,2,…,n\}$ $$T(v_i)=0w_1+0w_2+…+0w_{i-1}+1w_i+0w_{i+1}+…+0w_n=w_i.$$ Por lo tanto, $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Sabemos que $T$ es lineal si y sólo si para cualquier $\delta\in K$ y cualesquiera $v,u\in V$ se cumple que $T(\delta v+u)=\delta T(v)+T(u)$.

Sean $\delta\in K$ y $v,u\in V$. Como $\beta$ es una base de $V$ podemos escribir a $v$ y a $u$ como combinación lineal de los elementos de $\beta$, es decir existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ y $\mu_1,\mu_2,…,\mu_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$ y $u=\sum_{i=1}^{n}\mu_iv_i$.
Entonces:

\begin{align*}
\delta v+u & =\delta \left( \sum_{i=1}^{n}\lambda_i v_i\right) + \sum_{i=1}^{n}\mu_i v_i= \sum_{i=1}^{n}\delta(\lambda_i v_i) +\sum_{i=1}^{n}\mu_i v_i
\\&= \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i\\
\therefore \delta v+u&= \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i
\end{align*}

Así,

\begin{align*}T(\delta v+u)&=T\left( \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i\right)=\sum_{i=1}^{n}(\delta\lambda_i+\mu_i) w_i\\&=\delta\left( \sum_{i=1}^{n}\lambda_i w_i\right) + \sum_{i=1}^{n}\mu_i w_i=\delta T(v)+T(u).\end{align*}

Por lo tanto, $T\in\mathcal{L}(V,W)$.

Para ver que la transformación lineal es única, tomemos $S\in\mathcal{L}(V,W)$ tal que $\forall i\in\{ 1,2,…,n\}(S(v_i)=w_i)$. Sea $v\in V$ y sean $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$.

Entonces $S(v)=S\left( \sum_{i=1}^{n}\lambda_iv_i \right)$$=\sum_{i=1}^{n}\lambda_i S(v_i)=\sum_{i=1}^{n}\lambda_iw_i=T(v)$.
Por lo tanto $S=T$.

Como consecuencia del resultado anterior se tiene que lo que una transformación lineal le haga a una base del dominio determina por completo a la transformación:

Corolario: Sean $V,W$ $K$ – espacios vectoriales con $V$ de dimensión finita $n$ y $\beta =\{v_1,v_2,…,v_n\}$ una base de $V$. Se cumple que si $T,S\in\mathcal{L}(V,W)$ son tales que $\forall i\in \{1,2,…,n\}(T(v_i)=S(v_i))$, entonces $T=S$.

Demostración: Sean $T,S\in\mathcal{L}(V,W)$ tales que $\forall i\in\{1,2,…,n\}(T(v_i)=S(v_i))$.

Para cada $i\in\{1,2,…,n\}$ $T(v_i)$ es un elemento de $W$ al que denotaremos por $w_i$. Con esta notación tenemos que $\forall i\in\{1,2,…,n\}(T(v_1)=w_i).$

Por el teorema anterior, $T$ es la única transformación lineal de $V$ a $W$ tal que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Y como por hipótesis $\forall i\in\{1,2,…,n\}(T(v_1)=S(v_i))$, entonces $\forall i\in\{1,2,…,n\}(S(v_i)=w_i)$. Por lo que $T=S$.

Tarea Moral

  1. Exhibe dos transformaciones lineales diferentes $T, U$ tales que $Núc\,T=Núc\,U$ y $Im\,T=Im\,U.$
  2. Da un ejemplo de transformación lineal $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ tal que $Núc\,T=Im\,T$.
  3. Exhibe explícitamente la regla de correspondencia de la transformación lineal tal que $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ tal que $T(2,3)=(5,-14)$ y $T(-2,3)=(-2,3)$.

Más adelante…

Veremos cómo operar transformaciones lineales y qué espacio vectorial podemos definir gracias a éstas.

Entradas relacionadas

Álgebra Moderna I: Grupos simples y series de grupos

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Como hemos visto en las entradas anteriores, muchas pruebas de grupos se realizan por inducción sobre $|G|$ usando información de un subgrupo normal $N$ y el cociente $G/N$.

Pero para poder usar $G/N$ se requiere que exista un subgrupo normal $N$ de $G$ con $1\lneq |N| \lneq |G|.$ Y en ocasiones no existe un $N$ normal que no sea el mismo $G$ o $\{e_G\}$, entonces conviene estudiar a los grupos $G$ no triviales tales que tienen sólo dos subgrupos normales.

Por otro lado, ¿es posible tener una serie de grupos normales contenidos entre sí? A esta situación lo conocemos como una serie de composición.

Esta entrada está dedicada a los conceptos de Grupos simples y Series de composición de grupos, será útil para que, más adelante, entendamos el Teorema de Jordan Hölder.

Qué simples son los grupos simples

Definición. Sea $G$ un grupo con $G\neq \{e\}$. Decimos que $G$ es simple si sus únicos subgrupos normales son $G$ y $\{e\}$.

Ejemplo.
Sea $p\in \z^+$ un número primo, $G$ un grupo con $|G| = p$. Entonces $G$ es un grupo simple ya que si $N\unlhd G$ se tiene que $|N| \Big| |G| = p$ y así $|N| = 1$ ó $|N| = p$, esto implica que $N = \{e\}$ ó $N = G$.

Observación. Todo grupo finito simple abeliano es isomorfo a $\z_p$.

Demostración.
Sea $G$ un grupo finito simple abeliano. Dado que $G\neq\{e\}$ consideremos $a\in G, a\neq e$. Como $G$ es abeliano, todo subgrupo es normal, así
\begin{align*}
\{e\} \lneq \left< a \right> \unlhd G
\end{align*}
pero $G$ es simple, entonces $\left< a \right> = G$ y $G$ es cíclico.

Más aún, $G\cong \z_n$ con $n= |G|$. Veamos que $n$ es primo.

P. D. $n$ es primo.

Supongamos por reducción al absurdo que $n$ es compuesto, es decir $n = st$ con $s,t\in \z^+$, donde $s<n$ y $t< n$.

Entonces $a^s \neq e$ ya que $s<n = o(a)$, por lo que $\{e\} \lneq \left< a^s\right>$.

Además $$(a^s)^t = e$$ y así $o(a^s)\Big| t$, lo que implica que $o(a^s) \leq t < n$ y en consecuencia $\left< a^s\right> \lneq \; G$.

Por lo tanto $\{e\} \lneq \left< a^s\right> \lneq \; G$. Pero como $G$ es un grupo abeliano todos sus subgrupos son normales, por lo que $\left< a^s\right>$ sería un subgrupo normal de $G$ distinto de $\{e\} $ y de $G$, lo que es una contradicción.

Concluimos que $n$ es primo y así $G\cong \z_n$ con $n$ primo.

$\blacksquare$

Nota. Hay grupos simples no abelianos finitos e infinitos.

Series de grupos

Definición. Sea $G$ un grupo. Una secuencia de subgrupos
\begin{align*}
G = G_1 \geq G_2 \geq \cdots \geq G_{k+1} = \{e\}
\end{align*}
es una serie de composición para $G$ si $G_{i+1} \unlhd G_{i}$ y $G_i/G_{i+1}$ es simple para toda $i\in\{1,\dots, k\}$.
Esto cocientes se llaman factores de composición.

A pesar de que estamos dando una definición, es importante señalar que en el caso de un grupo finito es el Cuarto teorema de isomorfía el que justifica que en efecto estas series de composición existen:

Observación 1. Sean $G$ un grupo finito y $N$ un subgrupo normal propio de $G$ tal que es máximo con esta propiedad, es decir tal que si $N\leq H\lneq G$ con $H$ normal en $G$, entonces $N=H$. Se tiene que $G/N$ es simple.

Demostración.

Sean $G$ un grupo finito y $N$ un subgrupo normal de $G$ tal que es máximo con esta propiedad. Supongamos que $\mathcal{H}$ es un subgrupo normal de $G/N$ con $$\{e_{G/N}\}\leq \mathcal{H}\lneq G/N.$$ Por el Cuarto teorema de isomorfía sabemos que $\mathcal{H}=H/N$ para algún $N\leq H\lneq G.$ Además, como $\mathcal{H}\unlhd G/N$ sabemos que $H\unlhd G$. Pero al ser $N$ un subgrupo normal máximo tenemos que $N=H$ por lo cual $\mathcal{H}=N/N=\{e_{G/N}\}$. Así, $G/N$ es simple.

Observación 2. Si $G$ es finito, estas series de composición existen.

Demostración (sencilla).

Si $G$ es trivial entonces $G$ mismo es una serie de composición para $G$.

Supongamos entonces que $G$ es no trivial. Consideramos $G_1=G$ y $G_2$ un subgrupo normal propio de $G$ tal que es máximo con esta propiedad. Entonces por la observación 1 $G_1/G_2$ es simple.

Si $G_2=\{e\}$, $G_1\geq G_2$ es una serie de composición para $G$.

Si $G_2\neq\{e\}$ tomamos $G_3$ un subgrupo normal propio de $G_2$, máximo, y así sucesivamente. Como $G$ es finito este proceso termina y da lugar a una serie de composición para $G$.

$\blacksquare$

Ejemplos

Ejemplo 1. Tomemos $\z_{12}$. Notemos que en este caso el grupo es abeliano por lo que todos sus subgrupos son normales. Proponemos
\begin{align}\label{ejemplo1}
\z_{12} \unrhd \left<\bar{3}\right> \unrhd \left<\bar{6}\right> \unrhd\{\bar{0}\}.
\end{align}

Como $\left| \left<\bar{3}\right>\right| = 4$, entonces $\left| \z_{12} \Big/ \left<\bar{3}\right>\right| = \frac{12}{4} = 3$ y así $\z_{12} \Big/ \left<\bar{3}\right> \cong \z_3$ que es simple.

Sabemos que $\left| \left<\bar{6}\right> \right|= 2$, así $\left| \left<\bar{3}\right> \Big/ \left<\bar{6}\right>\right| = \frac{4}{2} = 2$ y entonces $ \left<\bar{3}\right> \Big/ \left<\bar{6}\right> \cong \z_2$ que es simple.

Finalmente $ \left<\bar{6}\right> \Big/ \{\bar{0}\} \cong \left<\bar{6}\right> \cong \z_2$ que es simple. Así $(\ref{ejemplo1})$ es una serie de composición para $\z_{12}$.

También $\z_{12} \unrhd \left<\bar{2}\right> \unrhd \left<\bar{6}\right> \unrhd \{\bar{0}\}$ lo es.

Ejemplo 2. Tomemos $D_{2(4)} = \{\text{id}, a, a^2, a^3, b, ab, a^2b, a^3b\}$. Donde $a$ es la rotación de $\frac{\pi}{4}$ y $b$ es la reflexión respecto al eje $x$.

Tenemos que
\begin{align*}
\left<a^2,b\right> = \{\text{id}, a^2, b, a^2b\}
\end{align*}
es de orden cuatro, entonces $\left[ D_{2(4)} : \left<a^2,b\right> \right] = 2$. Así $D_{2(4)} \unrhd \left< a^2, b \right>$ y $D_{2(4)}/ \left< a^2,b \right> \cong \z_2$ que es simple.

También $\left[ \left<a^2,b\right> : \left< b \right> \right] = 2$ y $ \left<a^2,b\right> / \left<b\right>\cong \z_2$ que es simple. Finalmente $\left< b \right> / \{\text{id}\} \cong \z_2$ que es simple.

Así,
\begin{align*}
D_{2(4)} \unrhd \left< a^2, b\right> \unrhd \left<b\right> \unrhd \{\text{id}\}
\end{align*}
es una serie de composición para $D_{2(4)}$.

También
\begin{align*}
D_{2(4)} \unrhd \left< a \right> \unrhd \left< a^2 \right> \unrhd \{\text{id}\}.
\end{align*}

Observación 3. En una serie de composición $G_{i-1} \unrhd G_i$ pero no necesariamente $G \unrhd G_i$.

Observación 4. Puede ser que dos grupos no isomorfos tengan los mismos factores de composición salvo isomorfía.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Considera la nota que aparece en esta entrada: hay grupos simples no abelianos finitos e infinitos.
    • Encuentra un grupo simple no abeliano finito.
    • Encuentra un grupo simple no abeliano infinito.
    • ¿Qué pasará con los grupos abelianos infinitos? ¿existirán los grupos abelianos infinitos simples?
  2. Encuentra un grupo $G$ que cumpla la observación: $G_{i-1} \unrhd G_i$ pero no necesariamente $G \unrhd G_i$.
  3. Describe un ejemplo de grupos tales que no sean isomorfos y tengan los mismos factores de composición salvo isomorfía.
  4. En cada uno de los siguientes casos encuentra todas las series de composición de $G$ y compara los factores de composición obtenidos:
    • $G = \z_{60}$.
    • $G = \z_{48}$.
    • $S_3 \times \z_2.$

Más adelante…

Estos conceptos que pueden parecer muy sencillos, al combinarlos nos dan el último teorema que veremos en este curso: el Teorema de Jordan-Hölder. Una poderosa herramienta que nos dice que los factores de composición de dos series distintas de un mismo grupo son los mismos salvo isomorfía.

Entradas relacionadas

Álgebra Moderna I: Teorema fundamental de los grupos abelianos finitos.

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

El temario de este curso consiste principalmente en el estudio de la Teoría de grupos, comenzamos su construcción desde las operaciones binarias, estudiamos distintos tipos de grupos y funciones entre ellos (homomorfismos) y seguimos intentando describir a los grupos. El primer gran escalón de nuestro curso fueron los Teoremas de isomorfía, luego los Teoremas de Sylow y ahora llegamos al tercero: el Teorema fundamental de los grupos abelianos finitos.

Otros dos teoremas fundamentales que seguramente conoces son el Teorema fundamental del álgebra y el Teorema fundamental de la aritmética, conviene recordar el segundo. Básicamente nos dice que a todo número entero lo podemos ver como un producto de primos, además nos dice que estos primos son únicos excepto por el orden en que aparecen. Este teorema es importante porque intuitivamente nos dice que los números primos son los ladrillos básicos para construir a cualquier número.

¿Cuáles son estos mismos ladrillos para los grupos abelianos finitos? En la entrada de Producto directo interno vimos un teorema en el que para ciertos casos podemos descomponer a un grupo finito $G$ en sus $p$-subgrupos de Sylow, donde cada $p$ corresponde a un factor primo del orden del grupo. ¿Qué podría ser más fundamental que eso?

Usaremos el teorema que vimos en Producto directo interno y veremos que un grupo abeliano finito $G$ es isomorfo a un producto directo de grupos ajenos a $G$ en lugar de los $p$-subgrupos de Sylow que dependen del grupo que los contiene. ¿Qué grupos finitos relacionados con primos conocemos aparte de los $p$-subgrupos? Los candidatos ideales son $\z_n$, con $n$ una potencia de un primo, que de acuerdo a lo que hemos estudiado son abelianos y finitos.

Así, el Teorema fundamental de los grupos abelianos finitos nos presenta a los $\z_n$, con $n$ una potencia de un primo, como nuestros ladrillos elementales para describir cualquier grupo abeliano finito $G$.

Último lema numerado

Como prometimos en la entrada anterior, aquí está el tercer lema numerado que usaremos para demostrar el Teorema fundamental de los grupos abelianos finitos.

Lema 3. Sean $p\in\z^+$ un primo y $G$ un $p$-grupo abeliano. Tenemos que $G$ es un producto directo interno de grupos cíclicos.

Demostración.
Por el segundo principio de inducción.

Sea $p\in\z^+$ un primo, $G$ un $p$-grupo abeliano.

Sea $g\in G$ un elemento de orden máximo (podemos suponer que $g\neq e$ ya que si $g = e$, entonces $G = \{e\}$).

H.I. Supongamos que todo $p$-grupo abeliano de orden menor que el orden de $G$ es un producto directo interno de grupos cíclicos.

Por el lema 2, $G$ es el producto directo de $\left< g \right>$ y un subgrupo $H$ de $G$. Entonces $|G| = |\left< g \right>|\,|H|$ lo que implica que $\displaystyle |H| = \frac{|G|}{|\left< g \right>|}$ y, esto implica que $ \displaystyle |H| < |G|$.

Además, $H$ también es un $p$-grupo abeliano. Así que por la hipótesis de inducción $H$ es el producto directo de grupos cíclicos.

Por lo tanto $G$ es producto directo de grupos cíclicos, a saber $\left< g \right>$ y los grupos cíclicos cuyo producto directo es $H$.

$\blacksquare$

Teorema fundamental de los grupos abelianos finitos

Recordemos que los isomorfismos preservan la estructura algebraica de los grupos. Recordemos que los grupos $\z_n$, con $n$ una potencia de un primo, son abelianos y finitos, por lo que sólo pueden ser isomorfos a otros grupos abelianos y finitos. Más aún, todo grupo abeliano finito es isomorfo a un producto directo de este tipo de grupos.

Teorema. (Fundamental de los Grupos Abelianos Finitos) Todo grupo abeliano finito $G$ es isomorfo a un producto directo de grupos cíclicos de la forma $$\z_{p_1^{\alpha_1}} \times \cdots \times \z_{p_r^{\alpha_r}}$$ con $p_1,\dots, p_r,\alpha_1,\dots, \alpha_r \in \z^+$ y $p_1,\dots,p_r$ primos no necesariamente distintos.

Demostración.

Sea $G$ un grupo abeliano finito. Por ser $G$ abeliano todos sus subgrupos son normales, en particular sus subgrupos de Sylow.

Por el teorema de la entrada Producto directo interno, $G$ es isomorfismo al producto directo de sus subgrupos de Sylow, y por el lema 3 cada uno de ellos es un producto directo de subgrupos cíclicos. Además, como los subgrupos de Sylow son de orden una potencia de un primo, sus subgrupos también, por lo que son isomorfos a $\z_{p^\alpha}$ con $p,\alpha \in \z^+$ y $p$ un primo.

Así, $G$ es isomorfo a un producto directo de la forma
\begin{align*}
\z_{p_1^{\alpha_1}} \times \cdots \times \z_{p_r^{\alpha_r}}
\end{align*}
con $p_1,\dots,p_r,\alpha_1,\dots, \alpha_r \in\z^+$, $p_1,\dots,p_r$ primos no necesariamente distintos.

$\blacksquare$

Apreciemos cómo la demostración de los lemas anteriores, nos facilitaron la demostración de este teorema fundamental.

Ejemplo.

Sea $G$ un grupo abeliano de orden $180 = 4\cdot 45 = 2^2\cdot 3^2 \cdot 5$.

Entonces, de acuerdo con el Teorema fundamental de los grupos abelianos finitos, $G$ es isomorfo a alguno de

  • $\z_2\times\z_2\times\z_3\times\z_3\times\z_5$,
  • $\z_4\times\z_3\times\z_3\times\z_5$,
  • $\z_2\times\z_2\times\z_9\times\z_5$ ó
  • $\z_4\times\z_9\times\z_5$.

Podría ser isomorfo a cualquiera de ellos, pero para saber a cuál requeriríamos más información. De cualquier modo este primer análisis nos ayuda mucho a entender cómo debe ser el grupo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Si $G$ es un grupo abeliano finito, definimos $v_k(G)$ como el número de elementos de $G$ de orden $k$.
    Prueba que si dos grupos finitos abelianos, $G$ y $G^*$ son isomorfos si y sólo si $v_k(G) = v_k(G^*)$ para todo entero $k$. (Este resultado no es cierto para grupos no abelianos).
  2. Prueba el Teorema Fundamental de la Aritmética aplicando el Teorema Fundamental de Grupos Abelianos Finitos a $G = \z_n$, con $n\in\n$.
  3. Usa el Teorema Fundamental de Grupos abelianos finitos para describir a…
    • Un grupo de orden $144.$
    • Un grupo de orden $360.$
    • Un grupo de orden $2783.$
  4. Encuentra para cuáles $n \in \z^+$ los grupos de orden $n$ son cíclicos.
  5. Prueba que $A$ es un grupo abeliano finito de orden $n$ si y sólo si para cada $d$ divisor de $n$, hay a lo más $d$ elementos $a\in A$ tales que $a^d = 1_A.$

Más adelante…

Esta entrada fue un tema muy anticipado. Ahora comenzaremos otro tema que, aunque sea corto, es igual de importante que el Teorema fundamental de grupos finitos abelianos. De hecho, comparte que también es semejante con el Teorema fundamental de la aritmética. Comenzaremos a estudiar el Teorema de Jordan-Hölder

Entradas relacionadas

2.3. TEOREMA DE LA DIMENSIÓN: demostración e implicaciones

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

El primero de los teoremas en esta entrada es uno de los más importantes del curso. Este teorema nos simplifica cálculos, ya que en ocasiones nos permite calcular la dimensión de ciertos subespacios sin necesidad de hacer una descripción explícita de una de sus bases.

El segundo de los teoremas resulta también muy útil ya que nos da otra manera de estudiar si una transformación lineal es o no inyectiva.

Teorema: Sean $K$ un campo y $V,W$ $K$-espacios vectoriales, $T\in\mathcal{L}(V,W)$.
Si $V$ es de dimensión finita, entonces se cumple que:

a) $Núc\,T$ es de dimensión finita
b) $Im\,T$ es de dimensión finita
c) $dim_K Núc\,T+dim_KIm\,T=dim_KV.$

Demostración: Supongamos que $V$ es de dimensión finita, digamos $dim_K\,V=n$.

a) Como $Núc\,T\subseteq V$ y $V$ es de dimensión finita, entonces $Núc\,T$ también es de dimensión finita, digamos que $dim_KNúc\,T=m$.

b) Consideremos $\Delta =\{v_1,v_2,…,v_m\}$ una base de $Núc\,T$.
Como es un conjunto linealmente independiente en $V,$ podemos completar $\Delta$ a una base de $V,$ digamos $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$.
Veamos que $\Gamma = \{ T(v_{m+1}),T(v_{m+2}),…,T(v_{n})\}$ es una base de $Im\,T$ con $n-m$ elementos.

  1. P.D. $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i.

Sean $\lambda_{m+1},\lambda_{m+2},…,\lambda_n\in K$ tales que $\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.

Como $T$ es lineal $T \left( \sum_{i=m+1}^n \lambda_iv_i \right) =\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.
Por lo cual, $\sum_{i=m+1}^n \lambda_iv_i\in Núc\,T$.

Como $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$, existen $\mu_1,\mu_2,…,\mu_m\in K$ tales que $\sum_{i=m+1}^n \lambda_iv_i=\sum_{j=1}^m \mu_jv_j$.
De donde $- \sum_{j=1}^m \mu_jv_j + \sum_{i=m+1}^n \lambda_iv_i =\theta_W$.

Tenemos igualada a $\theta_W$ una combinación lineal de elementos de $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$ que es linealmente independiente.
Por lo tanto, todos los coeficientes de esta combinación lineal son $0_K$ y en particular llegamos a que $\lambda_{m+1}=\lambda_{m+2}=…=\lambda_n=0_K$.

Concluimos que $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i., en consecuencia el conjunto $\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$ es l.i. y tiene $n-m$ elementos.

  1. P.D. $\langle\Gamma\rangle =Im\,T$

Sabemos que $\Gamma\subseteq Im\,T$ y que $Im\,T$ es un espacio vectorial. Por lo tanto, $\langle\Gamma\rangle\subseteq Im\,T$.

Ahora bien, sea $w\in Im\,T$. Por definición de $Im\,T$, existe $v\in V$ tal que $T(v)=w$.

Como $\beta =\{v_1,v_2,…,v_n\}$ es base de $V$, entonces existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^n \lambda_iv_i$.

Así, obtenemos que $w=T(v)=T\left( \sum_{i=1}^n \lambda_iv_i\right)$.
Y como $T$ es lineal, podemos concluir de las igualdades anteriores que $w=\sum_{i=1}^n \lambda_iT(v_i)$.

Tenemos que $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$ y por lo tanto $\Delta\subseteq Núc(T)$. Es decir, $T(v_1)=T(v_2)=…=T(v_m)=\theta_W$.

Así, $w=\sum_{i=1}^n \lambda_iT(v_i)=\sum_{i=1}^m \lambda_iT(v_i)+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i=1}^m \lambda_i\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)=\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i={m+1}}^n \lambda_iT(v_i)$.

Obtuvimos a $w$ expresado como una combinación lineal de términos de $\Gamma =\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$. Por lo tanto, $Im\,T\subseteq\Gamma$.

Concluimos que $\Gamma$ es base de $Im\,T$.
Como $|\Gamma|=n-m$, entonces $Im\,T$ es de dimensión finita y $dim_KIm\,T=n-m.$

c) Tenemos por el inciso anterior que $dim_KNúc\,T=m$, $dim_KIm\,T=n-m$ y $dim_K\,V=n$.
Así, $dim_KV-dim_KNúc\,T=n-m=dim_KIm\,T$, lo que implica que $dim_KV=dim_KNúc\,T+dim_KIm\,T$.

Teorema: Sean $K$ un campo y $V,W$ $K$-espacios vectoriales y $T\in\mathcal{L}(V,W)$.
Entonces $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}.$

Demostración: Veamos ambas implicaciones.

$\Longrightarrow$ Supongamos que $T$ es inyectiva.
P.D. $Núc\,T=\{\theta_V\}$.

Dado que $\theta_V\in Núc\,T$ se tiene que $\{\theta_V\}\subseteq Núc\,T$ por lo que basta en realidad verificar la otra contención.

Sea $v\in Núc\,T$.
Por definición de núcleo tenemos que $T(v)=\theta_W$.
Además, sabemos que $T(\theta_V)=\theta_W$.
Así, tenemos que $T(v)=T(\theta_V)$ con $T$ inyectiva.
Por lo tanto, $v=\theta_V$.

Llegamos a que el único elemento del núcleo de $T$ es $\theta_V$.

$\Longleftarrow$ Supongamos que $Núc\,T=\{\theta_V\}$.
P.D. $T$ es inyectiva.

Sean $u,v\in V$ tales que $T(u)=T(v)$.
Entonces $T(u)-T(v)=\theta_W$.
Como $T$ es lineal, tenemos que $T(u-v)=T(u)-T(v)$.
Así que $T(u-v)=\theta_W$ y por lo tanto, $u-v\in Núc\,T$ donde (por hipótesis) el único elemento que existe es $\theta_V$.
Así, $u-v=\theta_V$ y concluimos que $u=v$.

Partiendo de que $T(u)=T(v)$ llegamos a que $u$ debe ser igual a $v$ y por lo tanto, $T$ es inyectiva.

Corolario: Sean $K$ un campo y $V,W$ $K$-espacios vectoriales, $T\in\mathcal{L}(V,W)$. Si $V,W$ son de dimensión finita y de la misma dimensión, entonces $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Demostración: Supongamos que $V,W$ son $K$-espacios vectoriales de dimensión finita y $dim_KV=dim_KW.$

Tenemos por el teorema anterior que $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}$.
Podemos utilizar este resultado porque nuestras nuevas hipótesis no afectan.

Observemos además que $Núc\,T=\{\theta_V\}$ si y sólo si $dim_KNúc\,T=0$ porque el único conjunto que no tiene elementos es el conjunto vacío, que es una base del espacio trivial.

Por el teorema de la dimensión tenemos que $dim_KNúc\,T+dim_hIm\,T=dim_KV$.
Así, que $dim_KNúc\,T=0$ si y sólo si $dim_KIm\,T=dim_KV$.

Como tenemos por hipótesis que $dim_KV=dim_KW$, entonces $dim_KIm\,T=dim_KV$ si y sólo si $dim_KIm\,T=dim_KW$.

Recordando que $Im\,T\leqslant W$ se cumple que $dim_KIm\,T=dim_KW$ si y sólo si $Im\,T=W$.

Y dentro de las equivalencias de que $T$ sea suprayectiva está que $Im\,T=W$.

Por la cadena de dobles implicaciones concluimos que, bajo nuestras hipótesis, $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Tarea Moral

  1. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ verifica que se cumple el primer teorema de esta entrada y determina si $T$ es inyectiva o suprayectiva.
  2. Si $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ es lineal y sabemos que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. ¿Es $T$ inyectiva?

Más adelante…

El último ejercicio de la Tarea Moral en la entrada anterior, 2.1. TRANSFORMACIÓN LINEAL: definición y ejemplos, pregunta la existencia de una transformación lineal de acuerdo a dos valores dados y a continuación veremos cómo podemos plantear y resolver este problema de manera más general.

Entradas relacionadas

Versión cuatro del Teorema de la Función Implícita

Por Angélica Amellali Mercado Aguilar

Ejemplo. Se da el nivel cero de una función diferenciable $F:\mathbb{R}^{4}\rightarrow \mathbb{R}$ y un punto P perteneciente a este nivel. Diga en cada caso si en los alrededores del punto p es posible ver la gráfica de F como la gráfica de una función diferenciable del tipo

$$a)~u=u(x,y,z)$$ $$b)~z=z(x,y,u)$$$$c)~y=y(x,u,z)$$ $$d)~x=x(y,z,u)$$ para $x^{2}+y^{2}+z^{2}+u^{u}=4$ en $p=(1,1,1,1)$

Solución. En este caso para todos los incisos podemos definir $f(x,y,z,u)=x^{2}+y^{2}+z^{2}+u^{u}-4=0$ y para el inciso a, se tiene
$$\frac{\partial F}{\partial u}=2u\left.\right|_{(1,1,1,1)}=2\neq0$$ por lo tanto es posible ver a la gráfica de F como una función diferenciable del tipo $u=u(x,y,z)$ y sus derivadas parciales seran:

$$\frac{\partial u}{\partial x}(1,1,1,1)=-\frac{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}=-\frac{2x}{2u}=-1$$
$$\frac{\partial u}{\partial y}(1,1,1,1)=-\frac{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}=-\frac{2y}{2u}=-1$$
$$\frac{\partial u}{\partial z}(1,1,1,1)=-\frac{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}=-\frac{2z}{2u}=-1$$

para el inciso b, se tiene

$$\frac{\partial F}{\partial z}=2z\left.\right|{(1,1,1,1)}=2\neq0$$ por lo tanto es posible ver a la gráfica de F como una función diferenciable del tipo $z=z(x,y,u)$ y sus derivadas parciales seran: $$\frac{\partial z}{\partial x}(1,1,1,1)=-\frac{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}=-\frac{2x}{2z}=-1$$ $$\frac{\partial z}{\partial y}(1,1,1,1)=-\frac{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}=-\frac{2y}{2z}=-1$$ $$\frac{\partial z}{\partial z}(1,1,1,1)=-\frac{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial z}\left.\right|_{(1,1,1,1)}}=-\frac{2u}{2z}=-1$$

para el inciso c, se tiene

$$\frac{\partial F}{\partial y}=2y\left.\right|{(1,1,1,1)}=2\neq0$$ por lo tanto es posible ver a la gráfica de F como una función diferenciable del tipo $y=y(x,z,u)$ y sus derivadas parciales seran: $$\frac{\partial y}{\partial x}(1,1,1,1)=-\frac{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}=-\frac{2x}{2y}=-1$$ $$\frac{\partial y}{\partial z}(1,1,1,1)=-\frac{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}=-\frac{2z}{2y}=-1$$ $$\frac{\partial y}{\partial u}(1,1,1,1)=-\frac{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}=-\frac{2u}{2y}=-1$$ para el inciso d, se tiene $$\frac{\partial F}{\partial x}=2x\left.\right|{(1,1,1,1)}=2\neq0$$ por lo tanto es posible ver a la gráfica de F como una función diferenciable del tipo $x=x(y,z,u)$ y sus derivadas parciales seran:
$$\frac{\partial x}{\partial y}(1,1,1,1)=-\frac{\frac{\partial F}{\partial y}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}=-\frac{2x}{2y}=-1$$
$$\frac{\partial x}{\partial z}(1,1,1,1)=-\frac{\frac{\partial F}{\partial z}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}=-\frac{2z}{2y}=-1$$
$$\frac{\partial x}{\partial u}(1,1,1,1)=-\frac{\frac{\partial F}{\partial u}\left.\right|{(1,1,1,1)}}{\frac{\partial F}{\partial x}\left.\right|{(1,1,1,1)}}=-\frac{2u}{2y}=-1$$

Teorema de la Función Implicita (version (4))

Consideremos ahora el sistema
$$au+bv-k_{1}x=0$$ $$cu+dv-k_{2}y=0$$
con $a,b,c,d,k_{1},k_{2}$ constantes. Nos preguntamos cuando podemos resolver el sistema para $u$ y $v$ en términos de $x$ y $y$.
Si escribimos el sistema como
$$au+bv=k_{1}x$$ $$cu+dv=k_{2}y$$
y sabemos que este sistema tiene solución si $det \left|\begin{array}{cc} a&b \\c&d\end{array}\right|\neq0$ en tal caso escribimos
$u=\displaystyle \frac{1}{det \left|\begin{array}{cc} a&b \\c&d\end{array}\right|}(k_{1}dx-k_{2}by)$, $~~~$ $v=\displaystyle \frac{1}{det \left|\begin{array}{cc} a&b \\c&d\end{array}\right|}(k_{2}ay-k_{1}cx)$.
Esta solución no cambiaria si consideramos
$$au+bv=f_{1}(x,y)$$ $$cu+dy=f_{2}(x,y)$$

donde $f_{1}$ y $f_{2}$ son funciones dadas de $x$ y $y$. La posibilidad de despejar las variables $u$ y $v$ en términos de $x$ y $y$ recae sobre los coeficientes de estas variables en las ecuaciones dadas.

Ahora si consideramos ecuaciones no lineales en $u$ y $v$ escribimos el sistema como
$$g_{1}(u,v)=f_{1}(x,y)$$ $$g_{2}(u,v)=f_{2}(x,y)$$

nos preguntamos cuando del sistema podemos despejar a $u$y $v$ en términos de $x$ y $y$. Mas generalmente, consideramos el problema siguiente, dadas las funciones $F$ y $G$ de las variables $u,v,x,y$ nos preguntamos cuando de las expresiones

$$F(x,y,u,v)=0$$ $$G(x,y,u,v)=0$$

podemos despejar a $u$ y $v$ en términos de $x$ y $y$ en caso de
ser posible diremos que las funciones $u=\varphi_{1}(x,y)$ y
$v=\varphi_{2}(x,y)$ son funciones implícitas dadas. Se espera que
$\exists’$n funciones $u=\varphi_{1}(x,y)$ y
$v=\varphi_{2}(x,y)$ en
$$F(x,y,\varphi_{1}(x,y),\varphi_{2}(x,y)$$ $$G(x,y,\varphi_{1}(x,y),\varphi_{2}(x,y)$$
con $(x,y)$ en alguna vecindad $V$. Suponiendo que existen $\varphi_{1}$ y $\varphi_{2}$ veamos sus derivadas

$$\displaystyle \frac{\partial F}{\partial x}\displaystyle \frac{\partial x}{\partial
x}+\displaystyle \frac{\partial F}{\partial y}\displaystyle \frac{\partial y}{\partial x}+\displaystyle \frac{\partial F}{\partial u}\displaystyle \frac{\partial u}{\partial
x}+\displaystyle \frac{\partial F}{\partial v}\displaystyle \frac{\partial v}{\partial x}=0 \Rightarrow \displaystyle \frac{\partial F}{\partial u}\displaystyle \frac{\partial u}{\partial x}+\displaystyle \frac{\partial F}{\partial v}\displaystyle \frac{\partial v}{\partial x}=-\displaystyle \frac{\partial F}{\partial x}$$

$$\displaystyle \frac{\partial G}{\partial x}\displaystyle \frac{\partial x}{\partial x}+\displaystyle \frac{\partial G}{\partial y}\displaystyle \frac{\partial y}{\partial x}+\displaystyle \frac{\partial G}{\partial u}\displaystyle \frac{\partial u}{\partial x}+\displaystyle \frac{\partial G}{\partial v}\displaystyle \frac{\partial v}{\partial x}=0 ~~ \Rightarrow ~~ \displaystyle \frac{\partial G}{\partial u}\displaystyle \frac{\partial u}{\partial x}+\displaystyle \frac{\partial G}{\partial v}\displaystyle \frac{\partial v}{\partial x}=-\displaystyle \frac{\partial G}{\partial x}$$

Lo anterior se puede ver como un sistema de 2 ecuaciones con 2 incógnitas $\displaystyle \frac{\partial u}{\partial x}$ y $\displaystyle \frac{\partial v}{\partial x}$. Aquí se ve que para que el sistema tenga solución

$det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|\neq0$ en $(P)$ (el $det$ Jacobiano) y según la regla de Cramer

$\displaystyle \frac{\partial u}{\partial x}=-\frac{\det
\left|\begin{array}{cc} \displaystyle -\frac{\partial F}{\partial
x}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle -\frac{\partial G}{\partial x}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}{\det
\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}$, $~~ $ $\displaystyle \frac{\partial v}{\partial x}=-\frac{\det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle -\frac{\partial F}{\partial x} \\ \displaystyle \frac{\partial G}{\partial u}&\displaystyle -\frac{\partial G}{\partial x}\end{array}\right|}{det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|}$ (con los dos $det$ Jacobianos).

Análogamente si derivamos con respecto a $y$ obtenemos
$$\displaystyle \frac{\partial F}{\partial
u}\displaystyle \frac{\partial u}{\partial y}+\displaystyle
\frac{\partial F}{\partial v}\displaystyle \frac{\partial
v}{\partial y}=-\displaystyle \frac{\partial F}{\partial y}$$ ,$$\displaystyle \frac{\partial G}{\partial u}\displaystyle \frac{\partial u}{\partial y}+\displaystyle
\frac{\partial G}{\partial v}\displaystyle \frac{\partial v}{\partial y}=-\displaystyle \frac{\partial G}{\partial y}$$
de donde

$\displaystyle \frac{\partial u}{\partial y}=-\frac{\det
\left|\begin{array}{cc} \displaystyle -\frac{\partial F}{\partial
y}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle -\frac{\partial G}{\partial y}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}{det
\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}$,$~~$ $\displaystyle \frac{\partial v}{\partial y}=-\frac{\det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle -\frac{\partial F}{\partial y} \\ \displaystyle \frac{\partial G}{\partial u}&\displaystyle -\frac{\partial G}{\partial y}\end{array}\right|}{det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|}$ (con los dos $det$ Jacobianos).

Al determinante $det \left|\begin{array}{cc} \displaystyle
\frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial G}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|$ lo llamamos Jacobiano y lo denotamos por $\displaystyle \frac{\partial (F,G)}{\partial (u,v)}$.

Teorema de la Función Implícita (Versión 4)

Teorema 1. Considere las funciones $z_{1}=F(x,y,u,v)$ y $z_{2}=G(x,y,u,v)$. Sea $P=(x,y,u,v) \in \mathbb{R}^{4}$ un punto tal que $F(P)=G(P)=0$.
Suponga que en una bola $\textit{B} \in \mathbb{R}^{4}$ de centro $P$ las funciones $F$ y $G$ tienen (sus cuatro) derivadas parciales continuas. Si el Jacobiano $\displaystyle \frac{\partial (F,G)}{\partial (u,v)}(P)\neq0$ entonces las expresiones
$F(x,y,u,v)=0$ y $G(x,y,u,v)=0$ definen funciones (implícitas) $u=\varphi_{1}(x,y)$ y $v=\varphi_{2}(x,y)$ definidas en una vecindad $v$ de $(x,y)$ las cuales tienen derivadas parciales continuas en $v$ que se pueden calcular como se menciona arriba.

Demostración. Dado que $$det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|\neq 0$$ entonces $\displaystyle{\frac{\partial F}{\partial u}(p)}$, $\displaystyle{\frac{\partial F}{\partial v}(p)}$, $\displaystyle{\frac{\partial G}{\partial u}(p)}$, $\displaystyle{\frac{\partial G}{\partial v}(p)}$ no son cero al mismo tiempo, podemos suponer sin pérdida de generalidad que $\displaystyle{\frac{\partial G}{\partial v}(p)}\neq0$. Entonces la función $z_{1}=G(x,y,u,v)$ satisface las hipótesis del T.F.I y en una bola abierta con centro p, v se puede escribir como $v=\psi(x,y,u)$. Hacemos ahora $$H(x,y,u)=F(x,y,u,\psi(x,y,u))$$ y tenemos que $$\frac{\partial H}{\partial u}=\frac{\partial F}{\partial x}\frac{\partial x}{\partial u}+\frac{\partial F}{\partial y}\frac{\partial y}{\partial u}+\frac{\partial F}{\partial u}\frac{\partial u}{\partial u}+\frac{\partial F}{\partial v}\frac{\partial \psi}{\partial u}=\frac{\partial F}{\partial u}+\frac{\partial F}{\partial v}\frac{\partial \psi}{\partial u}$$ por otro lado
$$\frac{\partial \psi}{\partial u}=-\frac{\frac{\partial G}{\partial u}}{\frac{\partial G}{\partial v}}$$ por lo tanto $$\frac{\partial H}{\partial u}=\frac{\partial F}{\partial u}+\frac{\partial F}{\partial v}\frac{\partial \psi}{\partial u}=\frac{\partial F}{\partial u}+\frac{\partial F}{\partial v}\left(-\frac{\frac{\partial G}{\partial u}}{\frac{\partial G}{\partial v}}\right)=\frac{\frac{\partial F}{\partial u}\frac{\partial G}{\partial v}-\frac{\partial F}{\partial v}\frac{\partial G}{\partial u}}{\frac{\partial G}{\partial v}}\neq0$$por lo tanto para $H(x,y,u)=0$ tenemos que existe una función $u=\varphi_{1}(x,y)$ y por lo tanto $v=\psi(x,y,u)=\psi(x,y,\varphi_{1}(x,y,u))=\varphi_{2}(x,y)$ y por tanto $u,v $ se pueden expresar en términos de $x,y$ en una vecindad de $p$ $\square$

Ejemplo. Analizar la solubilidad del sistema
$$e^{u}+e^{v}=x+ye$$ $$ue^{u}+ve^{v}=xye$$

Solución. En este caso definimos
$$F(x,y,u,v)=e^{u}+e^{v}-x-ye=0$$ $$G(x,y,u,v)=ue^{u}+ve^{v}-xye=0$$
por lo que el sistema tendrá solución si $\displaystyle{\det\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}\neq 0$
En este caso
$$\det\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|=\det\left|\begin{array}{cc} \displaystyle e^{u}&\displaystyle e^{v}\\ ue^{u}+e^{e^{u}}&ve^{v}+e^{v}\end{array}\right|=e^{u}\left(ve^{v}+e^{v}\right)-e^{v}\left(ue^{u}+e^{u}\right)=ve^{u+v}-ue^{v+u}\neq 0$$
por lo tanto u y v se pueden ver en términos de x,y $\therefore$ se pueden calcular sus parciales en $u=0,~v=1,~x=1, ~y=1$ que es este caso dan

$$\displaystyle \frac{\partial u}{\partial x}=-\frac{\det
\left|\begin{matrix}-1&-ye\\e^{v}&ve^{v}+e^{v}\end{matrix}\right|}{ve^{u+v}-ue^{v+u}}=-\frac{-(ve^{v}+e^{v})+e^{v}ye}{ve^{u+v}-ue^{v+u}}\left.\right|{(1,1,1,1)}=\frac{2e-e^{2}}{e}=2-e$$ $$\displaystyle \frac{\partial v}{\partial x}=-\frac{\det \left|\begin{matrix}e^{u}&ue^{u}+e^{u}\\-1&-ye\end{matrix}\right|}{ve^{u+v}-ue^{v+u}}=-\frac{-ye^{u}e+ue^{u}+e^{u}}{ve^{u+v}-ue^{v+u}}\left.\right|{(1,1,1,1)}=\frac{e-1}{e}=1-e^{-1}$$ $$\displaystyle \frac{\partial u}{\partial y}=-\frac{\det
\left|\begin{matrix}-e&-xe\\e^{v}&ve^{v}+e^{v}\end{matrix}\right|}{ve^{u+v}-ue^{v+u}}=-\frac{-e(ve^{v}+e^{v})+e^{v}xe}{ve^{u+v}-ue^{v+u}}\left.\right|{(1,1,1,1)}=\frac{e^{2}+e^{2}-e^{2}}{e}=e$$ $$\displaystyle \frac{\partial v}{\partial y}=-\frac{\det \left|\begin{matrix}e^{u}&ue^{u}+e^{u}\\-e&-xe\end{matrix}\right|}{ve^{u+v}-ue^{v+u}}=-\frac{-e^{u}xe+e(ue^{u}+e^{u})}{ve^{u+v}-ue^{v+u}}\left.\right|{(1,1,1,1)}=\frac{e-e}{e}=0$$