Introducción
Siguiendo el hilo de la entrada pasada, por la correspondencia entre transformaciones lineales y matrices así como la composición y su producto, podemos traducir el problema de invertibilidad de transformaciones lineales en términos de matrices, a las que llamaremos matrices invertibles. Es decir, si tenemos $\varphi: F^n\to F^n$, $\psi: F^n\to F^n$ transformaciones lineales tales que
\begin{align*}
\varphi\circ \psi= Id_{F^n}, \hspace{2mm} \psi \circ \varphi=Id_{F^n}
\end{align*}
¿cómo se traduce esto en términos de sus matrices asociadas?
Veremos que la respuesta yace en matrices que tienen inverso multiplicativo, a diferencia de un campo $F$, donde todo $x$ tiene un $x^{-1}$, cuando trabajamos con matrices no todas tienen una matriz inversa y las que si son de especial importancia.
Definición de matrices invertibles
Definición. Decimos que una matriz $A\in M_n (F)$ es invertible o bien no singular si existe una matriz $B\in M_n(F)$ tal que
\begin{align*}
AB=BA=I_n
\end{align*}
Ejemplo. Veamos que la matriz $A=\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}$ es invertible. Para ello, tenemos que exhibir una matriz $B$ tal que $AB=I_2=BA$. Proponemos a la matriz $B=\begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}$. Haciendo la multiplicación con la regla del producto, tenemos que
\begin{align*}
AB&=\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 1 \cdot 1 + 1 \cdot 0 & 1 \cdot (-1) + 1\cdot 1\\ 0 \cdot 1 + 1 \cdot 0 & 0\cdot (-1)+ 1\cdot 1\end{pmatrix}\\
&=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}\\
&=I_2.
\end{align*}
¡Aún no hemos terminado! Para satisfacer la definición, también tenemos que mostrar que $BA=I_2$:
\begin{align*}
BA&=\begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 1 \cdot 1 + (-1) \cdot 0 & 1 \cdot 1 + (-1)\cdot 1\\ 0 \cdot 1 + 1 \cdot 0 & 0\cdot 1+ 1\cdot 1\end{pmatrix}\\
&=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}\\
&=I_2.
\end{align*}
Ahora sí, podemos concluir que la matriz $A$ es invertible.
$\square$
Observación. Una primera cosa que hay que notar es que en la definición se pide que tanto $AB$ como $BA$ sean la matriz identidad $I_n$. Es importante verificar ambas, pues como sabemos, el producto de matrices no siempre conmuta.
Otra observación importante es que si la matriz $B$ como en la definición existe, entonces es necesariamente única: En efecto, si $C\in M_n(F)$ es otra matriz tal que
\begin{align*}
AC=CA=I_n,
\end{align*}
entonces manipulando las expresiones en juego:
\begin{align*}
C&= I_n C \\&= (BA)C\\
&=B(AC)\\&= B I_n \\&=B.
\end{align*}
Entonces no hay ambigüedad al hablar de la matriz inversa de $A$. Ya no tiene mucho sentido usar una letra diferente para ella. Simplemente la denotaremos por $A^{-1}$.
Primeras propiedades de matrices invertibles
Resumimos algunas propiedades de las matrices invertibles en la siguiente proposición.
Proposición.
- Para $c\in F$ es un escalar distinto de cero, se tiene que $c I_n$ es invertible.
- Si $A$ es invertible, entonces $A^{-1}$ también lo es, y $\left(A^{-1}\right)^{-1}=A$
- Si $A,B\in M_n(F)$ son invertibles, entonces $AB$ también lo es y
\begin{align*}
\left(AB\right)^{-1}= B^{-1}A^{-1}.
\end{align*}
Demostración:
- Como $c\neq 0$ y $F$ es un campo, entonces existe $c^{-1}$ en $F$ y así $c^{-1} I_n$ satisface (por la compatibilidad del producto por escalares de esta entrada)
\begin{align*}
(cI_n)\cdot (c^{-1}I_n)&= (cc^{-1})\cdot (I_n I_n)\\&= I_n\\
&= (c^{-1} c) \cdot(I_n)\\&= (c^{-1} I_n) \cdot (c I_n).
\end{align*}
Luego $c^{-1}I_n$ es la matriz inversa de $c I_n$. - Para evitar alguna confusión con la notación, denotemos a $A^{-1}$ por $B$. Así
\begin{align*}
AB=BA=I_n.
\end{align*}
Luego $B$ es invertible y su inversa es $A$. - Si $A,B\in M_n(F)$ son invertibles entonces existen $A^{-1}$ y $B^{-1}$. Sea $C= B^{-1} A^{-1}$. Así
\begin{align*}
(AB)C=ABB^{-1}A^{-1}= A I_n A^{-1}= AA^{-1} =I_n.
\end{align*}
Y análogamente
\begin{align*}
C(AB)= B^{-1}A^{-1} A B= B^{-1} I_n B= B^{-1} B=I_n.
\end{align*}
Mostrando así que $AB$ es invertible con inversa $C$.
$\square$
Observación. Es importante notar que el ‘sacar inverso’ invierte el orden de los productos. Es decir, en el producto $AB$ aparece primero $A$ y luego $B$, mientras que el inverso $(AB)^{-1}$ es $B^{-1}A^{-1}$, en donde aparece primero $B^{-1}$ y luego $A^{-1}$. Esto es muy importante en vista de que la multiplicación de matrices no es conmutativa y por lo tanto en general
\begin{align*}
(AB)^{-1}\neq A^{-1} B^{-1}.
\end{align*}
También es importante notar que si bien la invertibilidad se preserva bajo productos (el producto de matrices invertibles es invertible) ésta no se preserva bajo sumas. Por ejemplo, tanto $I_n$ como $-I_n$ son invertibles en virtud del teorema, sin embargo su suma es $I_n+(-I_n)=O_n$, que no es invertible.
Ya hablamos de cuándo una matriz $A$ en $M_n(F)$ es invertible. ¿Qué sucede si consideramos a todas las matrices invertibles en $M_n(F)$? Introducimos el siguiente objeto de importancia fundamental en muchas áreas de las matemáticas:
Definición. El conjunto de matrices invertibles $A\in M_n(F)$ es llamado el grupo lineal general y es denotado por $GL_n(F)$.
En la tarea moral hay un ejercicio en el que se pide mostrar que $GL_n(F)$ es un grupo bajo la operación de producto de matrices. En realidad en este curso no hablaremos mucho de $GL_n(F)$ como grupo. Pero es importante que sepas de su existencia y que conozcas su notación, pues será importante en tu preparación matemática futura.
Invirtiendo matrices
Si bien el concepto de invertibilidad es sencillo de introducir, gran parte de la herramienta para determinar (irónicamente, a través de los determinantes) la invertibilidad de una matriz o propiedades relacionadas (por ejemplo, una computación efectiva de matrices inversas) todavía no está a nuestra disposición. Por tanto, lo único que podemos hacer es uso de ‘fuerza bruta’ para encontrar las inversas de matrices invertibles, y eso haremos en los siguientes ejemplos para al menos familiarizarnos con los cálculos.
Problema. Sea la matriz $A=\begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}$. ¿Es $A$ invertible? De serlo, calcula su inversa.
Solución. Como mencionamos, con la teoría que hemos desarrollado hasta ahora solo podemos atacar el problema directamente. Buscamos una matriz
\begin{align*}
B= \begin{pmatrix} a & b & c\\ x & y & z\\ u & v & w\end{pmatrix}
\end{align*}
tal que $AB=I_3=BA$. Usando la regla del producto, calculamos
\begin{align*}
AB=\begin{pmatrix} x & y & z\\ a & b &c \\ u & v & w \end{pmatrix}.
\end{align*}
Igualando esta matriz a $I_3$ obtenemos las condiciones
\begin{align*}
\begin{cases} x=b=w=1\\ y=z=a=c=u=v=0. \end{cases}
\end{align*}
Esto muestra que una buena candidata a ser la inversa de $A$ es la matriz
\begin{align*}
A^{-1}= \begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}.
\end{align*}
Falta un paso más: hay que verificar que $BA=I_3$. Afortunadamente esto es cierto. Su verificación queda como tarea moral.
$\triangle$
Resaltamos que el método usado no es eficiente, y tampoco es general (pues funcionó solo por la particularidad de la matriz $A$). Dicho esto, exhibimos un método que puede ser útil cuando la matriz por invertir es suficientemente ‘bonita’ (por ejemplo si tiene muchos ceros).
Sea $A\in M_n(F)$ una matriz y $b\in F^n$ un vector. Supongamos que el sistema $AX=b$ en el vector variable $X$ tiene una única solución $X\in F^n$. Un resultado que probaremos más adelante nos dice que entonces $A$ es invertible y que la solución es $X=A^{-1}b$ (es decir, que podemos ‘despejar’ $X$ multiplicando por $A^{-1}$ del lado izquierdo ambos lados). Así, si el sistema resulta fácil de resolver, podemos obtener una expresión de $A^{-1}$ en términos de cualquier vector $b$, y ésto basta para determinar a $A^{-1}$. En la práctica, la resolución del sistema mostrará que
\begin{align*}
A^{-1} b = \begin{pmatrix}
c_{11}b_1 + c_{12} b_2 +\dots + c_{1n}b_n\\
c_{21}b_1+c_{22}b_2 + \dots + c_{2n} b_n\\
\vdots\\
c_{n1} b_1 + c_{n2} b_2 +\dots + c_{nn}b_n
\end{pmatrix}
\end{align*}
para algunos escalares $c_{ij}$ independientes de $b$. Escogiendo $b=e_i$ el $i-$ésimo vector de la base canónica, el lado izquierdo es simplemente la $i-$ésima columna de $A^{-1}$ y el lado derecho es la $i-$ésima columna de $[c_{ij}]$. Como ambas matrices son iguales columna a columna, deducimos que
\begin{align*}
A^{-1}=[c_{ij}]
\end{align*}
Subrayamos que, una vez el sistema resuelto, el resto es relativamente sencillo pues solo es fijarnos en los coeficientes. La dificultad reside entonces en resolver el sistema $AX=b$, y la dificultad de este sistema depende fuertemente de la matriz $A$, por lo que nos limitaremos por lo pronto a ejemplos sencillos.
Retomemos el problema anterior para ver cómo funciona este método recién expuesto.
Problema. Resuelve el problema anterior usando el método que acabamos de describir.
Solución. Sea $b=\begin{pmatrix} b_1 \\ b_2 \\ b3 \end{pmatrix}\in F^3$, tratemos de resolver $AX=b$ para $X=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}$. El sistema se escribe entonces
\begin{align*}
\begin{pmatrix} b_1 \\ b_2 \\ b_3\end{pmatrix}=AX= \begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3\end{pmatrix}= \begin{pmatrix} x_2 \\ x_1 \\ x_3\end{pmatrix}.
\end{align*}
O equivalentemente
\begin{align*}
\begin{cases} x_1=b_2\\ x_2= b_1 \\ x_3=b_3.\end{cases}
\end{align*}
Como el sistema siempre se puede resolver dado $b\in F^3$, podemos afirmar que $A$ es invertible, y tenemos que
\begin{align*}
A^{-1}b= X= \begin{pmatrix} x_1\\ x_2 \\ x_3\end{pmatrix}= \begin{pmatrix} b_2\\ b_1 \\ b_3\end{pmatrix}= \begin{pmatrix} 0\cdot b_1 + 1\cdot b_2 + 0 \cdot b_3\\ 1\cdot b_1 +0\cdot b_2 +0\cdot b_3\\ 0\cdot b_1 + 0\cdot b_2 +1\cdot b_3\end{pmatrix}. \end{align*}
Fijándonos en los coeficientes del lado derecho, vemos que la primera fila de $A^{-1}$ es $(0 \ 1 \ 0)$, la segunda $(1\ 0 \ 0)$ y la tercera $(0\ 0\ 1)$. Luego
\begin{align*}
A^{-1}=\begin{pmatrix}
0 & 1& 0\\
1 & 0&0\\
0 & 0 & 1\end{pmatrix}\end{align*}
$\triangle$
Problema. Sea la matriz
\begin{align*}
A= \begin{pmatrix} 1 & 1 & 1 & 1\\ 0 & 1 & 1 &1 \\ 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 1\end{pmatrix} \end{align*}
Demuestre que $A$ es invertible y encuentre su inversa.
Solución. Usamos el mismo método. Sea $b= \begin{pmatrix} b_1\\ b_2 \\ b_3 \\ b_4 \end{pmatrix}\in F^4$ y resolvemos $AX=b$ con $X=\begin{pmatrix} x_1\\ x_2 \\ x_3 \\ x_4\end{pmatrix}$. Esta vez el sistema asociado es el siguiente (omitimos los cálculos de la regla del producto):
\begin{align*}
\begin{cases}
x_1+x_2+x_3+x_4=b_1\\
x_2+x_3+x_4=b_2\\
x_3+x_4=b_3\\
x_4=b_4
\end{cases}.
\end{align*}
Este sistema lo podemos resolver de manera más o menos sencilla: De la última ecuación tenemos que $x_4=b_4$, luego sustituyendo en la penúltima obtenemos $x_3+b_4=b_3$ o bien $x_3=b_3-b_4$. Sustituyendo esto a su vez en la segunda ecuación obtenemos que $x_2+b_3=b_2$, es decir $x_2=b_2-b_3$ y finalmente $x_1= b_1-b_2$. Así el sistema siempre tiene solución y estas están dadas por
\begin{align*}
A^{-1}b= X= \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4\end{pmatrix} = \begin{pmatrix} b_1-b_2\\ b_2-b_3\\ b_3-b_4\\ b_4 \end{pmatrix}.
\end{align*}
De esto se sigue que (fijándonos en los coeficientes) la primera fila de $A^{-1}$ es $(1\ -1 \ 0 \ 0)$, y análogamente obtenemos las demás, de manera que
\begin{align*}
A^{-1}=\begin{pmatrix}
1 & -1 & 0 &0\\
0 & 1 & -1 & 0\\
0&0 &1 &-1\\
0 & 0 & 0 &1
\end{pmatrix}.
\end{align*}
Un buen ejercicio es verificar que en efecto con esta inversa propuesta se cumple que $AA^{-1}=I_4=A^{-1}A$.
$\triangle$
Matrices invertibles diagonales
Concluimos esta sección con un último problema de matrices invertibles. Para resolverlo no usamos el método expuesto, sino un argumento particular para las matrices diagonales.
Problema. Demuestre que una matriz diagonal $A\in M_n(F)$ es invertible si y sólo si todas sus entradas en la diagonal son distintas de cero. Más aún, de ser el caso, $A^{-1}$ también es diagonal.
Solución. Sea $A=[a_{ij}]\in M_n(F)$ una matriz diagonal y $B=[b_{ij}]\in M_n(F)$ cualquier matriz. Usando la regla del producto tenemos que
\begin{align*}
(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj}.
\end{align*}
Como $a_{ik}=0$ para $k\neq i$ (por ser $A$ diagonal) muchos de los términos en la suma desaparecen y nos quedamos con
\begin{align*}
(AB)_{ij}= a_{ii} b_{ij}
\end{align*}
y de manera similar se puede verificar que
\begin{align*}
(BA)_{ij}=a_{jj}b_{ij}.
\end{align*}
Aprovechemos estas observaciones para proponer a la inversa de $A$.
Si $a_{ii}\neq 0$ para todo $i\in \{1,\dots, n\}$ entonces podemos considerar a $B$ como la matriz diagonal con entradas $b_{ii}=\frac{1}{a_{ii}}$. Las fórmulas que acabamos de calcular nos dan que $AB=BA=I_n$ y así $A$ es invertible y su inversa $B$ es diagonal.
Conversamente, supongamos que $A$ es invertible y diagonal. Así, existe una matriz $B$ tal que $AB=BA=I_n$. Luego para toda $i\in \{1, \dots, n\}$ se cumple
\begin{align*}
1= (I_n)_{ii}= (AB)_{ii}= a_{ii}b_{ii}
\end{align*}
Así $a_{ii}\neq 0$ para $i\in \{1, \dots, n\}$ y así todas las entradas en la diagonal son distintas de cero.
$\square$
Más adelante…
En esta entrada hablamos del concepto de matrices invertibles, vimos algunas de sus propiedades y esbozamos un método para encontrar la inversa de una matriz. Hay mejores métodos para encontrar dicha inversa. Uno de ellos, que es muy rápido, es el método de reducción gaussiana, que sirve para mucho más que invertir matrices. Para llegar a él, aún tenemos que desarrollar algo de teoría. Pero antes de eso, hablaremos de otros tipos particulares de matrices.
Tarea moral
A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.
- Aunque para determinar inversos de matrices generales necesitamos desarrollar más teoría, las matrices invertibles de $2\times 2$ son fáciles de entender. Muestra que si se tiene una matriz $A$ en $M_2(F)$ con entradas $$A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}$$ y $ad-bc\neq 0$, entonces la matriz $$B=\frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}$$ es la inversa de $A$. Para ello verifica explícitamente usando la regla del producto que tanto $AB=I_2$, como que $BA=I_2$.
- En el primer problema de invertir matrices, muestra que $BA$ también es $I_3$.
- La matriz $$A=\begin{pmatrix} \frac{1}{2} & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & \sqrt{2}\end{pmatrix}$$ es invertible. Encuentra su inversa.
- Verifica que $GL_n(F)$ es en efecto un grupo bajo la operación de multiplicación de matrices. Debes mostrar que:
- El producto de dos matrices invertibles es invertible.
- Existe un neutro multiplicativo $E$ (¿quién sería?).
- Para matriz $A$ en $GL_n(F)$ existe una matriz $B$ en $GL_n(F)$ tal que $AB=BA=E$.
- Explica por qué la matriz $O_n$ no es invertible. Explica por que si una matriz en $M_n(F)$ tiene una columna (o fila) tal que todas sus entradas sen iguales a $0$, entonces la matriz no es invertible. Este ejercicio lo puedes hacer directamente de la definición, sin tener que recurrir a herramientas más fuertes.
- Generaliza el penúltimo problema a una matriz de tamaño $n\times n$ con puros unos sobre y por encima de la diagonal, es decir, para la cual $[a_{ij}]=1$ si $j\geq i$ y $0$ en otro caso.
Entradas relacionadas
- Ir a Álgebra Lineal I
- Entrada anterior del curso: Producto de matrices y composición de sus transformaciones
- Siguiente entrada del curso: Problemas de multiplicación de matrices y matrices invertibles
Agradecimientos
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»
En la sección «Definición y primeras propiedades», en la primera Observación, tenemos que C = I_n · C = (BA)C = B(AC) = B · I_n = C. Creo que debería ser, al final B · I_n = B.
Técnicamente sí está bien, pero creo que el punto era hacer evidente que C=B, para demostrar que la matriz inversa es única.
¡Gracias Juan Pablo! Ya quedó hecha esa corrección.
En la sección de 《Invirtiendo matrices》 creo que hay un error en el primer problema, en la matriz AB en la primera fila 3era columna debería ser «w» y no «z».
Hola Juan Angeles. La primera fila, tercer columna, de la entrada AB, sí es z. Por la regla de multiplicación de matrices, para obtenerla hay que multiplicar la primer fila de A, que es (0,1,0) , con la tercer columna de B, que es (c,z,w). Al hacer la cuenta, queda 0c + 1z + 0w = z.