Álgebra Lineal I: Reducción gaussiana para determinar inversas de matrices

Introducción

En entradas anteriores hablamos de las matrices en forma escalonada reducida y de cómo cualquier matriz puede ser llevada a esta forma usando el algoritmo de reducción gaussiana. Usamos esto para resolver sistemas de ecuaciones lineales arbitrarios, es decir, de la forma $AX=b$. en esta ocasión estudiaremos cómo ver si una matriz es invertible y cómo determinar inversas de matrices mediante el algoritmo de reducción gaussiana.

Inversas de matrices elementales

Recordemos que una matriz $A\in M_n(F)$ es invertible si existe una matriz $B$ tal que $AB=BA=I_n$. Dicha matriz $B$ es única, se conoce como la matriz inversa de $A$ y se denota por $A^{-1}$.

Es importante observar que las matrices elementales son invertibles, puesto que las operaciones elementales se pueden revertir (esto también nos dice que la inversa de una matriz elemental también es una matriz elemental). Por ejemplo, si la matriz $E$ se obtiene de $I_n$ intercambiando los renglones $i$ y $j$, entonces $E^{-1}$ se obtiene de $I_n$ haciendo la misma operación, por lo que $E^{-1}=E$. Por otro lado, si $E$ se obtiene de sumar $\lambda$ veces el renglón $j$ al renglón $i$ en $I_n$, entonces E^{-1} se obtiene de sumar $-\lambda$ veces el renglón $j$ al renglón $i$ en $I_n$. El argumento para reescalamientos queda como tarea moral.

Debido a su importancia, enunciaremos este resultado como una proposición.

Proposición. Las matrices elementales son invertibles y sus inversas también son matrices elementales. Como consecuencia, cualquier producto de matrices elementales es invertible.

Algunas equivalencias de matrices invertibles

Hasta el momento sólo tenemos la definición de matrices invertibles para verificar si una matriz es invertible o no. Esto es poco práctico, pues dada una matriz, tendríamos que sacar otra «de la nada».

El siguiente resultado empieza a decirnos cómo saber de manera práctica cuándo una matriz cuadrada es invertible. También habla de una propiedad importante que cumplen las matrices invertibles.

Teorema. Para una matriz $A\in M_n(F)$ las siguientes afirmaciones son equivalentes:
(a) $A$ es invertible.
(b) $A_{red}=I_n$.
(c) $A$ es producto de matrices elementales.

Demostración. Para empezar, notemos que el producto de matrices invertibles es invertible , pues cualquier matriz elemental es invertible y las matrices invertibles son estables bajo productos. Esto prueba que (c) implica (a).

Ahora, supongamos que (a) se satisface. Recordemos que para una matriz $A\in M_{m,n}(F)$ podemos encontrar una matriz $B\in M_m(F)$ que es producto de matrices elementales y tal que $A_{red}=BA$. Como $A$ es invertible (por hipótesis) y $B$ es invertible (por la proposición de la sección anterior), entonces $BA$ es invertible y por consiguiente $A_{red}$ también lo es. En particular, todos los renglones de $A_{red}$ son distintos de cero y por lo tanto $A_{red}$ tiene $n$ pivotes, uno en cada columna. Como $A_{red}$ está en forma escalonada reducida, necesariamente $A_{red}=I_n$. Esto prueba que (a) implica (b).

Finalmente, supongamos que $(b)$ se satisface. Entonces existe una matriz $B$, la cual es producto de matrices elementales y tal que $BA=I_n$. Por la proposición anterior $B$ es invertible y $B^{-1}$ es producto de matrices elementales. Como $BA=I_n$, tenemos que $A=B^{-1}BA=B^{-1}$ y así $A$ es producto de matrices elementales, de manera que (b) implica (c).

$\square$

Ya podemos responder de manera práctica la pregunta «¿$A$ es invertible?». Para ello, basta aplicarle reducción gaussiana a $A$. Por el teorema anterior, $A$ es invertible si y sólo si la forma escalonada reducida obtenida es $I_n$. Por supuesto, esto aún no nos dice exactamente quién es la inversa.

Invertibilidad y sistemas de ecuaciones

La siguiente proposición expresa las soluciones del sistema $AX=b$ cuando $A$ es una matriz cuadrada e invertible. Para facilitar las cosas hay que tener un algoritmo para encontrar la inversa de una matriz. Más adelante veremos uno de estos algoritmos basado en reducción gaussiana.

Proposición. Si $A\in M_n(F)$ es una matriz invertible, entonces para todo $b\in F^n$ el sistema $AX=b$ tiene una única solución, dada por $X=A^{-1}b$.

Demostración. Sea $X$ una solución del sistema. Multiplicando la igualdad $AX=b$ por la izquierda por $A^{-1}$ obtenemos $A^{-1}(AX)=A^{-1}b$. Como
\begin{align*}
A^{-1}(AX)=(A^{-1}A)X
=I_nX=X,
\end{align*}
concluimos que $X=A^{-1}b$, por lo tanto el sistema tiene a lo más una solución. Para ver que esta es en efecto una solución, calculamos
\begin{align*}
A(A^{-1}b)=(AA^{-1})b=I_nb=b.
\end{align*}

$\square$

A continuación presentamos un resultado más, que relaciona matrices invertibles con que sus sistemas lineales correspondientes tengan soluciones únicas.

Teorema. Sea $A\in M_n(F)$ una matriz. Las siguientes afirmaciones son equivalentes:
(a) $A$ es invertible.
(b) Para toda $b\in F^n$ el sistema $AX=b$ tiene una única solución $X\in F^n$.
(c) Para toda $b\in F^n$ el sistema $AX=b$ es consistente.

Demostración. Ya demostramos que (a) implica (b). Es claro que (b) implica (c) pues si el sistema tiene una única solución, en particular tiene una solución.

Así, supongamos que que (c) se satisface. Sea $A_{red}$ la forma escalonada reducida de $A$. Por una proposición ya antes mencionada en esta entrada sabemos que existe una matriz $B$ la cual es producto de matrices elementales (por lo tanto invertible) y tal que $A_{red}=BA$. Deducimos que el sistema $A_{red}X=Bb$ tiene al menos una solución para todo $b\in F^n$ (pues si $AX=b$, entonces $A_{red}X=BAX=Bb$).

Ahora, para cualquier $b’\in F^n$ podemos encontrar $b$ tal que $b’=Bb$, tomando $b=B^{-1}b’$. Aquí estamos usando que $B$ es invertible por ser producto de matrices elementales. Concluimos que el sistema $A_{red}X=b$ es consistente para cada $b\in F^n$, pero entonces cualquier renglón de $A_{red}$ debe ser distinto de cero (si la fila $i$ es cero, entonces escogiendo cada vector $b$ con la $i-$ésima coordenada igual a $1$ se obtiene un sistema inconsistente) y, como en la demostración del teorema anterior, se tiene que $A_{red}=I_n$. Usando el teorema anterior concluimos que $A$ es invertible.

$\square$

Hasta ahora, al tomar un matriz cuadrada $A$ y proponer una inversa $B$, la definición de invertibilidad nos exige mostrar ambas igualdades $AB=I_n$ y $BA=I_n$. Finalmente tenemos las herramientas necesarias para mostrar que basta mostrar una de estas igualdades para que ambas se cumplan.

Corolario. Sean $A,B\in M_n(F)$ matrices.
(a) Si $AB=I_n$, entonces $A$ es invertible y $B=A^{-1}$.
(b) Si $BA=I_n$, entonces $A$ es invertible y $B=A^{-1}$.

Demostración. (a) Para cada $b\in F^n$ el vector $X=Bb$ satisface
\begin{align*}
AX=A(Bb)
=(AB)b=b,
\end{align*}
por lo tanto el sistema $AX=b$ es consistente para cada $b\in M_n(F)$. Por el teorema anterior, $A$ es invertible. Multiplicando la igualdad $AB=I_n$ por la izquierda por $A^{-1}$ obtenemos $B=A^{-1}AB=A^{-1}$, y así $B=A^{-1}$.
(b) Por el inciso (a), sabemos que $B$ es invertible y $A=B^{-1}$, pero entonces $A$ es invertible y $A^{-1}=B$.

$\square$

Determinar inversas usando reducción gaussiana

El corolario anterior nos da una manera práctica de saber si una matriz es invertible y, en esos casos, determinar inversas de matrices. En efecto, $A$ es invertible si y sólo si podemos encontrar una matriz $X$ tal que $AX=I_n$ y de aquí $X=A^{-1}$.

La ecuación $AX=I_n$ es equivalente a los siguientes sistemas lineales:
\begin{align*}
AX_1=e_1, \hspace{2mm}, AX_2=e_2, \hspace{2mm} \dots , \hspace
{2mm} AX_n=e_n.
\end{align*}
donde $e_i$ es la $i-$ésima columna de $I_n$ y $X_i$ denota la $i-$ésima columna de $X$. Ya sabemos cómo resolver sistemas lineales usando reducción gaussiana. Esto nos da una manera práctica de calcular $X$: si al menos uno de estos sistemas es inconsistente, entonces $A$ no es invertible; si todos son consistentes, entonces las soluciones $X_1,\ldots,X_n$ son las columnas de la inversa.

En la práctica, uno puede evitar resolver $n$ sistemas lineales considerando el siguiente truco:

En lugar de tomar $n$ matrices aumentadas $[A| e_i]$ considera sólo la matriz aumentada $[A|I_n]$, en la cual agregamos la matriz $I_n$ a la derecha de $A$ (de manera que $[A|I_n]$ tiene $2n$ columnas). Finalmente sólo hay que encontrar la forma escalonada reducida $[A’|X]$ de la matriz de $n\times 2n \hspace{2mm} [A|I_n]$. Si $A’$ resulta ser distinto de $I_n$, entonces $A$ no es inverible. Si $A’=I_n$, entonces la inversa de $A$ es simplemente la matriz $X$.

Ejemplo de determinar inversas

Para ilustrar lo anterior resolveremos el siguiente ejemplo práctico.

Ejemplo. Calcula la inversa de la matriz
\begin{align*}
A= \begin{pmatrix}
1 & 5 & 1\\
2 & 11 & 5\\
9 & -3 & 0
\end{pmatrix}.
\end{align*}

Solución. Aplicamos reducción gaussiana a la matriz extendida
\begin{align*}
[A|I_3]= \begin{pmatrix}
1 & 5 & 1 & 1 & 0 &0\\
2 & 11 & 5 & 0 & 1 & 0\\
9 & -3 & 0 & 0 & 0 & 1
\end{pmatrix}
\end{align*}
\begin{align*}
R_2 -2R_1\begin{pmatrix}
1 & 5 & 1 & 1 & 0 &0\\
0 & 1 & 3 & -2 & 1 & 0\\
9 & -3 & 0 & 0 & 0 & 1
\end{pmatrix}
\end{align*}
\begin{align*}
R_3 -9R_1\begin{pmatrix}
1 & 5 & 1 & 1 & 0 &0\\
0 & 1 & 3 & -2 & 1 & 0\\
0 & -48 & -9 & -9 & 0 & 1
\end{pmatrix}
\end{align*}

\begin{align*}
R_1 -5R_2\begin{pmatrix}
1 & 0 & -14 & 11 & -5 &0\\
0 & 1 & 3 & -2 & 1 & 0\\
0 & -48 & -9 & -9 & 0 & 1
\end{pmatrix}
\end{align*}
\begin{align*}
R_3 +48R_2\begin{pmatrix}
1 & 0 & -14 & 11 & -5 &0\\
0 & 1 & 3 & -2 & 1 & 0\\
0 & 0 & 135 & -105 & 48 & 1
\end{pmatrix}
\end{align*}
\begin{align*}
\frac{1}{135}R_3\begin{pmatrix}
1 & 0 & -14 & 11 & -5 &0\\
0 & 1 & 3 & -2 & 1 & 0\\
0 & 0 & 1 & -\frac{7}{9} & \frac{16}{45} & \frac{1}{135}
\end{pmatrix}
\end{align*}
\begin{align*}
R_1+14R_3\begin{pmatrix}
1 & 0 & 0 & \frac{1}{9} & -\frac{1}{45} &\frac{14}{135}\\
0 & 1 & 3 & -2 & 1 & 0\\
0 & 0 & 1 & -\frac{7}{9} & \frac{16}{45} & \frac{1}{135}
\end{pmatrix}
\end{align*}
\begin{align*}
R_2-3R_3\begin{pmatrix}
1 & 0 & 0 & \frac{1}{9} & -\frac{1}{45} &\frac{14}{135}\\
0 & 1 & 0 & \frac{1}{3} & -\frac{1}{15} & -\frac{1}{45}\\
0 & 0 & 1 & -\frac{7}{9} & \frac{16}{45} & \frac{1}{135}
\end{pmatrix}
\end{align*}
De donde
\begin{align*}
A^{-1}=\begin{pmatrix}
\frac{1}{9} & -\frac{1}{45} &\frac{14}{135}\\
\frac{1}{3} & -\frac{1}{15} & -\frac{1}{45}\\
-\frac{7}{9} & \frac{16}{45} & \frac{1}{135}
\end{pmatrix}.
\end{align*}

$\square$

En el ejemplo anterior hicimos el algoritmo de reducción gaussiana «a mano», pero también pudimos haber usado una herramienta en línea, como la calculadora de forma escalonada reducida de eMathHelp.

Tarea moral

  • ¿Cuál sería la operación elemental inversa a aplicar un reescalamiento por un factor $c\neq 0$ en el renglón de una matriz?
  • Encuentra la inversa de la matriz
    \begin{align*}
    \begin{pmatrix}
    1 & 2 & 1\\
    2 & 0 & 2\\
    1 & 2 & 0
    \end{pmatrix}.
    \end{align*}
    mediante reducción gaussiana.
  • Resuelve el sistema de ecuaciones
    \begin{align*}
    \begin{cases}
    x+2y+2z=1\\
    2x+y+2z=4\\
    2x+2y+z=5
    \end{cases}
    \end{align*}
  • Sea $A\in M_n(F)$ una matriz tal que $A_{red}\neq I_n$. Explica por qué $A$ no es invertible.
  • Cuando $A$ no es invertible, la matriz $[A|I_n]$ tiene forma escalonada reducida $[A_{red}|X]$, con $A_{red}\neq I_n$. ¿Qué sucede si en este caso haces la multiplicación $AX$? ¿Y la multiplicación $XA$?
  • Demuestra la primera proposición de esta entrada para operaciones elementales sobre las columnas.

Más adelante…

En esta entrada vimos cómo el algoritmo de reducción gaussiana nos permite saber si una matriz es invertible o no. También nos da una forma práctica de determinar inversas. Hay otras formas de hacer esto mediante determinantes. Sin embargo, el método que describimos es bastante rápido y flexible.

Ya que entendemos un poco mejor a las matrices invertibles, el siguiente paso es usarlas para desarrollar nuestra teoría de álgebra lineal. Las matrices invertibles se corresponden con transformaciones lineales que se llaman isomorfismos, las cuales detectan cuándo dos espacios vectoriales son «el mismo».

También más adelante refinaremos el concepto de ser invertible y no. Esta es una clasificación en sólo dos posibilidades. Cuando definamos y estudiamos el rango de matrices y transformaciones lineales tendremos una forma más precisa de decir «qué tanta información guarda una transformación».

Entradas relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.