Álgebra Lineal I: Reducción gaussiana en sistemas lineales AX=b

Por Julio Sampietro

Introducción

Ya usamos el algoritmo de reducción gaussiana para estudiar sistemas de ecuaciones homogéneos. En esta entrada aplicamos lo que hemos aprendido de este método para resolver sistemas de ecuaciones no homogéneos.

Para hacer esto, adaptaremos la técnica para sistemas homogéneos (que en realidad, no es muy diferente) y la usamos para probar un resultado muy importante, llamado el teorema de existencia y unicidad. Damos unos cuantos ejemplos y concluimos con la prometida demostración de la unicidad de la forma escalonada reducida.

Adaptando el vocabulario

Consideramos un sistema lineal $AX=b$ con $A\in M_{m,n}(F)$ y $b\in F^{m}$, con variables $x_1, \dots, x_n$ que son las coordenadas de $X\in F^{n}$. Para resolver el sistema consideramos la matriz aumentada $\left(A\vert b\right)$ obtenida de $A$ al añadir al vector $b$ como columna hasta la derecha.

Ejemplo. Si

\begin{align*}
A= \begin{pmatrix} 0 & 1 & 2\\
-1 & 0 &1 \end{pmatrix} \text{ y } b= \begin{pmatrix} 12 \\ 14 \end{pmatrix}
\end{align*}

entonces

\begin{align*}
\left(A\vert b\right)= \begin{pmatrix} 0 & 1 & 2 & 12\\ -1 & 0 & 1 & 14\end{pmatrix}\end{align*}

$\triangle$

Las operaciones elementales del sistema se traducen entonces en operaciones elementales en la matriz aumentada, por lo que para resolver el sistema podemos primero llevar a la matriz aumentada a su forma escalonada y reducida y después resolver el sistema más sencillo. Esto lo podríamos hacer siempre y cuando al realizar operaciones elementales en la matriz aumentada no se modifique el conjunto de soluciones del sistema. Esto lo garantiza la siguiente proposición.

Proposición. Sea el sistema lineal $AX=b$. Supongamos que la matriz $\left(A’\vert b’\right)$ se obtiene a partir de la matriz $\left( A\vert b\right)$ realizando una sucesión finita de operaciones elementales. Entonces los sistemas $AX=b$ y $A’X=b’$ son equivalentes, es decir, tienen el mismo conjunto de soluciones.

Demostración: Como ya hemos visto anteriormente, realizar operaciones elementales en $\left(A \vert b\right)$ es equivalente a realizar operaciones elementales en las ecuaciones del sistema $AX=b$, pero ya sabemos que estas no alteran el conjunto de soluciones, pues son reversibles (es decir, podemos siempre deshacer los cambios).

$\square$

El teorema de existencia y unicidad

Llegamos ahora a otro resultado clave de nuestro estudio de ecuaciones. Es una caracterización que responde a nuestras preguntas: ¿Hay soluciones? ¿Son únicas? Además, nos puede sugerir cómo encontrarlas.

Teorema. (De existencia y unicidad) Supongamos que la matriz $\left(A\vert b\right)$ ha sido llevada a su forma escalonada reducida $\left(A’\vert b’\right)$ por operaciones elementales.

  1. (Existencia de soluciones) El sistema $AX=b$ es consistente si y sólo si $\left(A’\vert b’\right)$ no tiene ningún pivote (de filas) en su última columna.
  2. (Unicidad de soluciones) Si el sistema es consistente, entonces tiene una única solución si y sólo si $A’$ tiene pivotes (de filas) en cada columna.

Demostración:

  1. Supongamos que $\left(A’\vert b’\right)$ tiene un pivote en su última columna. Debemos ver que el sistema $AX=b$ no tiene solución. Para esto, basta ver que el sistema $A’X=b’$ no tiene solución, pues es un sistema equivalente.

    Si el pivote aparece en el $i$-ésimo renglón entonces este es de la forma $(0, \dots, 0, 1)$, pues recordemos que los pivotes son iguales a $1$ en la forma escalonada reducida. Entonces entre las ecuaciones del sistema $A’X=b’$ tenemos una de la forma $0 x_1′ +\dots +0 x_n’=1$, que no tiene solución alguna. Así el sistema $A’X=b’$ no es consistente, y por tanto $AX=b$ tampoco lo es.

    Conversamente, supongamos que $\left(A’ \vert b’\right)$ no tiene un pivote en su última columna. Digamos que $A’$ tiene pivotes en las columnas $j_1<\dots <j_k \leq n$ y sean $x_{j_1}, \dots, x_{j_k}$ las correspondientes variables pivote y todas las demás variables son libres. Dando el valor cero a todas las variables libres obtenemos un sistema en las variables $x_{j_1}, \dots, x_{j_k}$. Este sistema es triangular superior y se puede resolver empezando por la última ecuación, encontrando $x_{j_k}$, luego $x_{j_{k-1}}$ y así sucesivamente. Así encontramos una solución, por lo que el sistema es consistente. Esta solución encontrada también es una solución a $AX=b$, pues es un sistema equivalente.
  2. Como le podemos dar cualquier valor escalar a las variables libres, el argumento del párrafo anterior nos dice que la solución es única si y sólo si no tenemos variables libres, pero esto pasa si y sólo si los pivotes llegan hasta la última columna de $A’$.

$\square$

Ten cuidado. En la primer parte, la condición se verifica con $(A’|b)$. En la segunda parte, la condición se verifica con $A’$.

Encontrando y contando soluciones

Por simplicidad, asumamos que $F=\mathbb{R}$, es decir que nuestro campo de coeficientes del sistema $AX=b$ es el de los números reales. Procedemos como sigue para encontrar el número de soluciones del sistema:

  1. Consideramos la matriz aumentada $\left(A\vert b\right)$.
  2. Llevamos esta matriz a su forma escalonada reducida $\left(A’\vert b’\right)$.
  3. Si esta matriz tiene un renglón de la forma $(0, \dots, 0, 1)$, entonces el sistema es inconsistente.
  4. Si no tiene ningún renglón de esa forma, vemos si todas las columnas de $A’$ tienen al pivote de alguna fila:
    • Si en efecto todas tienen pivote, entonces el sistema tiene una única solución.
    • Si no todas tienen pivote, entonces nuestro sistema tiene una infinidad de soluciones.

En el caso en el que hay una o una infinidad de soluciones, además podemos decir exactamente cómo se ven esas soluciones:

  • Haciendo las variables libres iguales a cero (si es que hay), obtenemos una solución $X’$ al sistema $AX=b$.
  • Usamos reducción gaussiana para encontrar todas las soluciones al sistema homogéneo $AX=0$.
  • Finalmente, usamos el principio de superposición. Todas las soluciones a $AX=b$ son de la forma $X’$ más una solución a $AX=0$.

Problema. Consideremos la matriz

\begin{align*}
A= \begin{pmatrix} 1 & 2 & 2\\ 0 & 1 & 1\\ 2 & 4 &4 \end{pmatrix}.
\end{align*}

Dado $b\in \mathbb{R}^3$, encuentra condiciones necesarias y suficientes en términos de las coordenadas de $b$ para que el sistema $AX=b$ sea consistente.

Solución: Dado $b$ con coordenadas $b_1, b_2$ y $b_3$, la matriz aumentada es

\begin{align*}
\left( A\vert b\right) = \begin{pmatrix} 1 & 2 & 2 & b_1 \\ 0 & 1 & 1 & b_2 \\ 2 & 4 & 4 & b_3\end{pmatrix}.
\end{align*}

Para obtener su forma escalonada reducida sustraemos dos veces el primer renglón del tercero y luego dos veces el segundo del primero, obteniendo así:

\begin{align*}
\left( A\vert b\right) \sim \begin{pmatrix} 1 & 0 & 0 &b_1-2b_2\\ 0 & 1 & 1 & b_2\\ 0 & 0 & 0 &b_3-2b_1\end{pmatrix}.
\end{align*}

Por el teorema anterior, el sistema $AX=b$ es consistente si y sólo si esta matriz no tiene pivotes en la última columna, es decir, necesitamos que la entrada de hasta abajo a la derecha sea cero. Así, el sistema es consistente si y sólo si $b_3-2b_1=0$ o, dicho de otra manera, si y sólo si $b_3=2b_1$.

$\triangle$

Unicidad de la forma escalonada reducida

Concluimos esta entrada con una demostración de la unicidad de la forma escalonada reducida, usando que si dos matrices $A$ y $B$ que difieren por una sucesión finita de operaciones elementales entonces los sistemas $AX=0$ y $BX=0$ son equivalentes. La demostración que presentamos (corta y elegante) se debe a Thomas Yuster, publicada en el año 1983.

Teorema. La forma escalonada reducida es única.

Demostración: Procedemos por inducción sobre $n$, el número de columnas de $A\in M_{m,n}(F)$. El resultado es claro para $n=1$, pues solo tenemos una columna cero o una columna con un $1$ hasta arriba. Supongamos pues que el resultado se cumple para $n-1$, y demostremos que se cumple para $n$. Sea $A\in M_{m,n}(F)$ y sea $A’\in M_{m,n-1}(F)$ la matriz que se obtiene al quitarle la $n$-ésima columna.

Supongamos que $B$ y $C$ son ambas matrices distintas en forma escalonada reducida obtenidas de $A$. Dado que una sucesión de operaciones elementales que llevan a $A$ a una forma escalonada reducida también llevan a $A’$ a una forma escalonada reducida (si a una matriz escalonada reducida le cortamos una columna, sigue siendo escalonada reducida), podemos aplicar la hipótesis de inducción y concluir que si $B$ y $C$ son distintas entonces difieren en la columna que quitamos y solo en esa.

Sea $j$ tal que $b_{jn}\neq c_{jn}$ (por nuestra discusión previa, existe esta entrada, ya que asumimos que $B\neq C$). Si $X$ es un vector tal que $BX=0$ entonces $CX=0$, ya que $A,B$ y $C$ son matrices equivalentes. Luego $(B-C)X=0$. Como $B$ y $C$ difieren solo en la última columna, la $j$-ésima ecuación del sistema se lee $(b_{jn}-c_{jn})x_n=0$, pues los coeficientes previos son cero. Así, $x_n=0$ siempre que $BX=0$ o $CX=0$. Se sigue que $x_n$ no es una variable libre para $B$ y $C$, por lo que ambas tienen un pivote en la última columna. Como ambas están en forma escalonada reducida, entonces la última columna tiene necesariamente un $1$ en la entrada de hasta abajo y puros ceros en otras entradas, es decir, $B$ y $C$ tienen la misma última columna, una contradicción a nuestras suposiciones.

Se sigue que entonces $B=C$ y queda probado por contradicción el paso inductivo, lo que prueba el teorema.

$\square$

Más adelante…

El método que describimos en esta entrada es muy flexible y poderoso. Permite resolver sistemas de ecuaciones de la forma $AX=b$ de manera metódica. Esto no quiere decir que ya entendamos todo lo que hay que saber de sistemas lineales. Una vez que hayamos introducido los conceptos de espacio vectorial y subespacio, podremos describir con más precisión cómo son las soluciones a un sistema lineal. Además, más adelante, veremos otras formas en las que se pueden resolver sistemas de ecuaciones usando determinantes. En particular, veremos la regla de Cramer.

Por ahora, nos enfocaremos en una aplicación más de la reducción gaussiana: encontrar inversas de matrices. Veremos esto en la siguiente entrada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Determina cuántas soluciones tiene el sistema $AX=b$ con
    \begin{align*} A=\begin{pmatrix} 0 & 1 &1\\ 2& -4 & 7\\ 0 & 0 & 1 \end{pmatrix}\text{ y } b=\begin{pmatrix} 1 \\ 6 \\-1\end{pmatrix}\end{align*}
  • Si $A$ tiene estrictamente más renglones que columnas y $b$ es un vector que no tiene ninguna entrada cero, ¿puede el sistema $AX=b$ ser consistente?
  • Si $A$ tiene estrictamente más columnas que renglones, ¿puede el sistema $AX=0$ tener una única solución?
  • Si $A\in M_{m,n}(F)$ es una matriz diagonal, ¿que puedes decir de la consistencia y la unicidad de soluciones del sistema $AX=b$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

2 comentarios en “Álgebra Lineal I: Reducción gaussiana en sistemas lineales AX=b

  1. Paola Innes

    Hola, me parece que hay un error en la sección «adaptando el vocabulario», ya que pienso que b pertenece a F^(n), y en la entrada dice m en vez de n

    Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.