Archivo de la etiqueta: matrices

Álgebra Lineal I: Forma escalonada reducida

Por Julio Sampietro

Introducción

En esta entrada tratamos la forma escalonada reducida de una matriz, que es básicamente una forma «bonita» de expresar una matriz que nos permite resolver sistemas de ecuaciones lineales. Luego nos adentramos en la parte de operaciones elementales, que es el primer paso para desarrollar un algoritmo (que luego veremos es la reducción gaussiana) que nos permite llevar a cualquier matriz a su forma escalonada reducida.

En otras palabras, en esta entrada vemos cómo resolver un caso fácil de un sistema de ecuaciones. Más adelante veremos que en realidad cualquier caso puede llevarse al caso fácil con un algoritmo relativamente fácil.

¿Qué es la forma escalonada reducida?

Sea una matriz $A$ con entradas en un campo $F$. Si $R$ es un renglón de $A$, diremos que $R$ es una fila cero si todas sus entradas son cero. Si $R$ no es una fila cero, el término principal de $R$ o bien el pivote de $R$ es la primera entrada distinta de cero de la fila. Diremos que $A$ está en forma escalonada reducida si $A$ tiene las siguientes propiedades:

  1. Todas las filas cero de $A$ están hasta abajo de $A$ (es decir, no puede seguirse una fila distinta de cero después de una cero).
  2. El término principal de una fila no-cero está estrictamente a la derecha del término principal de la fila de encima.
  3. En cualquier fila distinta de cero, el término principal es $1$ y es el único elemento distinto de cero en su columna.

Ejemplo. La matriz $I_n$ está en forma escalonada reducida, así como la matriz cero $O_n$. La matriz

\begin{align*}
A= \begin{pmatrix} 1 &-1 & 0 &2\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 0 \end{pmatrix} \end{align*}

está en forma escalonada reducida. El término principal de la primer fila es $1$ y está en la primer columna. El término principal de la segunda fila también es $1$, y se encuentra más a la derecha que el término principal de la fila anterior. Además, es la única entrada distinta de cero en su columna.

Sin embargo, la matriz ligeramente distinta

\begin{align*}
B= \begin{pmatrix} 1 &-1 & 5 &2\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 0 \end{pmatrix} \end{align*}

no está en forma escalonada reducida ya que el término principal del segundo renglón no es la única entrada distinta de cero en su columna.

$\triangle$

¿Cómo la forma escalonada reducida nos permite resolver sistemas de ecuaciones?

¿Cual es la importancia de la forma escalonada con respecto al problema de resolver sistemas de ecuaciones? Veremos que cualquier matriz se puede poner (de manera algorítmica) en forma escalonada reducida y que esta forma es única. También veremos que si $A_{red}$ es la forma escalonada reducida de una matriz, entonces los sistemas $AX=0$ y $A_{red}X=0$ son equivalentes. Además, veremos que resolver el sistema $A_{red} X=0$ es muy fácil de resolver precisamente por estar en forma escalonada reducida.

Ejemplo. Resolvamos el sistema $AX=0$ donde $A$ es la matriz que dimos anteriormente, que está en forma escalonada reducida. El sistema asociado es

\begin{align*}
\begin{cases}
x_1 -x_2+2x_4&=0\\
x_3-x_4&=0
\end{cases}.
\end{align*}

De la segunda igualdad podemos expresar $x_3=x_4$ y de la primera $x_1=x_2-2x_4$. Así, podemos escoger $x_2$ y $x_4$ «libremente» y obtener $x_3$ y $x_1$ con estas ecuaciones (tenemos, de cierta manera, dos «parámetros libres»), por lo que nuestras soluciones se ven de la forma

\begin{align*}
(a-2b, a, b,b )
\end{align*}

con $a,b\in F$.

$\triangle$

En general si $A$ es una matriz en forma escalonada reducida, veamos cómo resolver el sistema $AX=0$. Las únicas ecuaciones importantes son las que resultan de renglones distintos de cero (pues las otras solo son $0=0$) y al estar en forma escalonada reducida, todos los renglones cero están hasta el final. Supongamos que el $i$-ésimo renglón de $A$ es distinto de cero y su término principal está en la $j$-ésima columna, así el término principal es $a_{ij}=1$. La $i$-ésima ecuación del sistema lineal entonces es de la forma

\begin{align*}
x_j +\sum_{k=j+1}^{n} a_{ik} x_k =0.
\end{align*}

Llamamos a $x_j$ la variable pivote del renglón $L_i$. Así, a cada renglón distinto de cero le podemos asociar una única variable pivote. Todas las demás variables del sistema son llamadas variables libres. Uno resuelve el sistema empezando desde abajo, expresando sucesivamente las variables pivote en términos de las variables libres. Esto nos da la solución general del sistema, en términos de las variables libres, que pueden tomar cualquier valor en $F$.

Si $y_1, \dots, y_s$ son las variables libres, entonces las soluciones del sistema son de la forma

\begin{align*}
X= \begin{pmatrix}
b_{11} y_1 + b_{12} y_2 + \dots+ b_{1s} y_s\\
b_{21} y_1+ b_{22} y_2 +\dots+b_{2s} y_s\\
\vdots\\
b_{n1} y_1 +b_{n2} y_2+ \dots + b_{ns} y_s\end{pmatrix}
\end{align*}

para algunos escalares $b_{ij}$. Esto también se puede escribir como

\begin{align*}
X= y_1 \begin{pmatrix} b_{11} \\ b_{21} \\ \vdots \\ b_{n1}\end{pmatrix}+\dots + y_s \begin{pmatrix} b_{1s} \\ b_{2s}\\ \vdots \\ b_{ns} \end{pmatrix} .
\end{align*}

Llamamos a

\begin{align*}
Y_1= \begin{pmatrix} b_{11}\\ b_{21}\\ \vdots \\ b_{n1}\end{pmatrix}, \dots, Y_s= \begin{pmatrix} b_{1s} \\ b_{2s} \\ \vdots \\ b_{ns}\end{pmatrix}
\end{align*}

las soluciones fundamentales del sistema $AX=0$. La motivación para su nombre es fácil de entender: $Y_1, \dots, Y_s$ son soluciones del sistema $AX=0$ que ‘generan’ todas las otras soluciones, en el sentido que todas las soluciones del sistema $AX=0$ se obtienen a través de todas las combinaciones lineales de $Y_1, \dots, Y_s$ (correspondiendo a todos los valores posibles de $y_1, \dots, y_s$).

Un ejemplo para aterrizar los conceptos

Sea $A$ la matriz en forma escalonada reducida dada como sigue

\begin{align*}
A= \begin{pmatrix}
1 & 1 & 0 & 0 &-1 & 0 & 2\\ 0 & 0 & 1 & 0 & 3 & 0 & 1\\ 0 & 0 & 0 & 1& 0 & 0 &-1\\ 0 & 0 &0 & 0 & 0 & 1 & 0 \\ 0 & 0 &0 & 0 & 0 & 0 & 0 \end{pmatrix}
\end{align*}

y consideremos el sistema homogéneo asociado $AX=0$. Este se puede escribir como

\begin{align*}
\begin{cases}
x_1+x_2-x_5+2x_7&=0\\
x_3+3x_5+x_7&=0\\
x_4-x_7&=0\\
x_6&=0
\end{cases}.
\end{align*}

Las variables pivote son $x_1, x_3, x_4$ y $x_6$, ya que los términos principales aparecen en las columnas $1,3,4$ y $6$. Eso nos deja a $x_2, x_5$ y $x_7$ como variables libres.

Para resolver el sistema, empezamos con la última ecuación y vamos «subiendo», expresando en cada paso las variables pivote en términos de las variables libres. La última ecuación nos da $x_6=0$. Después, obtenemos $x_4=x_7$, posteriormente $x_3=-3x_5-x_7$ y $x_1= -x_2+x_5-2x_7$. Nunca nos va a pasar que tengamos que expresar a una variable pivote en términos de otra variable pivote, por la condición de que cada pivote es la única entrada no cero en su columna.

Para expresar las soluciones en términos vectoriales, hacemos lo siguiente.

\begin{align*}
X&=\begin{pmatrix}
-x_2+x_5 -2x_7\\
x_2\\
-3x_5-x_7\\
x_7\\
x_5\\
0 \\
x_7
\end{pmatrix}\\ &= x_2\cdot \begin{pmatrix}-1 \\ 1 \\ 0 \\ 0\\ 0 \\ 0 \\ 0 \end{pmatrix} +x_5\cdot \begin{pmatrix} 1 \\ 0 \\ -3 \\ 0 \\ 1 \\ 0 \\ 0 \end{pmatrix}+x_7 \cdot \begin{pmatrix} -2\\ 0 \\ -1\\ 1 \\ 0 \\ 0 \\1 \end{pmatrix}.
\end{align*}

Los tres vectores columna que aparecen del lado derecho de la igualdad son entonces las soluciones fundamentales del sistema $AX=0$. Todas las soluciones están entonces dadas por la expresión de la derecha, donde $x_2, x_5$ y $x_7$ pueden tomar cualquier valor en $F$.

Una moraleja sobre el número de soluciones

El número de soluciones fundamentales del sistema $AX=0$ es igual al número total de variables menos el número de variables pivote. Deducimos que el sistema $AX=0$ tiene como única solución a $X=0$ si no hay variables libres. Esto es lo mismo que decir que el número de variables pivote es igual al número de columnas de $A$.

Combinando las observaciones anteriores con el principio de superposición obtenemos el siguiente y muy importante resultado.

Teorema.

  1. Un sistema lineal homogéneo que tiene más variables que ecuaciones tiene soluciones no triviales. Si el campo de coeficientes es infinito (como por ejemplo $\mathbb{R}$ o $\mathbb{C}$), entonces el sistema tiene infinitas soluciones.
  2. Un sistema lineal consistente $AX=b$ que tiene más variables que ecuaciones tiene al menos dos soluciones, y si el campo es infinito, tiene infinitas soluciones.

¿Cómo llevar una matriz a su forma escalonada reducida? Operaciones elementales

Ahora regresamos al problema de transformar una matriz dada en una matriz con forma escalonada reducida. Para resolver este problema introducimos tres tipos de operaciones que pueden aplicarse a las filas de una matriz. Veremos que gracias a estas operaciones, uno puede transformar cualquier matriz en una en forma escalonada reducida.

Estas operaciones surgen de las manipulaciones cuando resolvemos sistemas lineales: las operaciones más naturales que hacemos cuando resolvemos un sistema de ecuaciones lineales son:

  1. multiplicar una ecuación por un escalar distinto de cero;
  2. añadir una ecuación (o mejor aún, un múltiplo de una ecuación) a otra ecuación diferente;
  3. intercambiar dos ecuaciones.

Observamos que estas operaciones son reversibles: si por ejemplo, multiplicamos una ecuación por un escalar $a\neq 0$, podemos multiplicar la misma ecuación por $\frac{1}{a}$ para recuperar la ecuación original. Queda claro que realizando una cantidad finita de estas operaciones en un sistema obtenemos un sistema con el mismo conjunto de soluciones que el sistema original (en nuestra terminología más barroca, un sistema nuevo equivalente al original). Estas operaciones en el sistema pueden verse como operaciones directamente en la matriz. Más precisamente:

Definición. Una operación elemental en las filas de una matriz $A$ en $M_{m,n}(F)$ es una operación de uno de los siguientes tipos:

  1. cambio de filas: intercambiar dos renglones de la matriz $A$,
  2. reescalar una fila: multiplicar una fila de la matriz $A$ por un escalar $c$ en $F$ distinto de cero,
  3. transvección: reemplazar una fila $L$ por $L+cL’$ para algún escalar $c$ en $F$ y otra fila $L’$ de $A$ diferente a $L$.

La discusión previa muestra que si $A$ es una matriz y $B$ se obtiene a partir de $A$ al aplicar una sucesión finita de operaciones elementales entonces $A\sim B$ (recordamos que esa notación solo nos dice que los sistemas $AX=0$ y $BX=0$ son equivalentes).

Correspondiendo a estas operaciones definimos las matrices elementales:

Definición. Una matriz $A\in M_n(F)$ es una matriz elemental si se obtiene de $I_n$ al realizar una operación elemental.

Ejemplo 1. La matriz

\begin{align*}
B= \begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}
\end{align*}

es una matriz elemental, pues se obtiene al intercambiar el primer y segundo renglón de $I_3$.

Observamos que las matrices elementales son cuadradas. Tenemos entonces tres tipos de matrices elementales:

  1. Matrices de transposición: aquellas que resultan de intercambiar dos renglones de $I_n$.
  2. Matrices de dilatación: aquellas obtenidas de $I_n$ multiplicando uno de sus renglones por un escalar distinto de cero.
  3. Matrices de transvección: son las que obtenemos de $I_n$ al añadir el múltiplo de un renglón a otro renglón.

Una sencilla, pero crucial observación es la siguiente:

Proposición. Sea $A\in M_{m,n}(F)$ una matriz. Realizar una operación elemental en $A$ es equivalente a multiplicar a $A$ por la izquierda por la matriz elemental en $M_{m}(F)$ correspondiente a la operación.

Demostración: Si $E$ es una matriz de $m\times m$ y $A\in M_{m,n}(F)$, entonces la $i$-ésima fila de $EA$ es $e_{i1} L_1+ e_{i2} L_2+\dots + e_{im} L_m$ donde $L_1, \dots, L_m$ son las filas de $A$ y $e_{ij}$ es la $(i,j)-$ésima entrada de $E$. El resultado se sigue de las definiciones y haciendo caso por caso, de acuerdo al tipo de operación elemental que se trate.

Por ejemplo, si la operación es un intercambio de filas, entonces $E$ es una matriz de transposición en donde, digamos, se intercambiaron la fila $k$ y la fila $l$. Por lo que mencionamos arriba, las filas $L_i$ con $i\neq k$ y $i\neq l$ permanecen intactas, pues $e_{ij}=1$ si $i=j$ y $0$ en otro caso, de modo que la $i$-ésima fila de $EA$ es simplemente $L_i$. Para la fila $k$ de $EA$, tenemos que $e_{kl}=1$ y si $i\neq k$, entonces $e_{ki}=0$. De esta forma, tendríamos que dicha fila es $L_l$. El análisis de la $l$-ésima fila de $EA$ es análogo.

Los detalles de la demostración anterior, así como las demostraciones para operaciones de reescalamiento y transvección, quedan como tarea moral.

$\square$

Ejemplo 2. Consideremos la matriz $A=\begin{pmatrix} 1 & -2 & 3 & 0\\ 0 & 1 & 0 & 1 \\ -1 & 0 & 3 & 0 \end{pmatrix}$. Vamos a efectuar la transvección que suma $2$ veces la primer fila a la última.

Si la aplicamos a la matriz $A$ nos queda $$A’=\begin{pmatrix} 1 & -2 & 3 & 0 \\ 0 & 1 & 0 & 1 \\ 1 & -4 & 9 & 0 \end{pmatrix}.$$

Para obtener la matriz elemental correspondiente a la transvección, tenemos que aplicársela a la identidad $I_3$. Tras hacer esto nos queda $$\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & 0 &1 \end{pmatrix}.$$

Y en efecto, como afirma la proposición, tenemos que esta matriz que obtuvimos sirve para «aplicar» la transvección pues puedes verificar que si la multiplicamos por la izquierda, tenemos que:

$$\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & 0 &1 \end{pmatrix} \begin{pmatrix} 1 & -2 & 3 & 0\\ 0 & 1 & 0 & 1 \\ -1 & 0 & 3 & 0 \end{pmatrix} = \begin{pmatrix} 1 & -2 & 3 & 0 \\ 0 & 1 & 0 & 1 \\ 1 & -4 & 9 & 0 \end{pmatrix}.$$

$\triangle$

Más adelante…

En la entrada de reducción gaussiana terminaremos de probar que toda matriz puede llevarse mediante operaciones elementales a una matriz en forma escalonada reducida. Más aún, obtendremos un algoritmo sencillo que siempre nos permitirá hacerlo. En el transcurso de este algoritmo siempre tendremos matrices equivalentes entre sí, de modo que esta será una herramienta fundamental para resolver sistemas de ecuaciones lineales.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • En el ejemplo concreto que hicimos, verifica que en efecto las soluciones fundamentales que obtuvimos son solución al sistema. Verifica también que la suma de las tres también es una solución al sistema. Luego, elige los valores que tú quieras para $x_2,x_5,x_7$ y verifica que esa también es una solución
  • ¿Será cierto que la transpuesta de una matriz en forma escalonada reducida también está en forma escalonada reducida? ¿Será cierto que la suma de dos matrices en forma escalonada reducida también es de esta forma?
  • Termina los detalles de la demostración de la última proposición.
  • Demuestra que toda matriz elemental es invertible, y que su inversa también es una matriz elemental.
  • ¿Es cierto que la transpuesta de una matriz elemental es una matriz elemental?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Más ejemplos de reducción gaussiana

Por Ayax Calderón

Introducción

En esta entrada veremos varios ejemplos que nos ayudarán a comprender que la reducción gaussiana es una herramienta muy poderosa a la hora de resolver sistemas de ecuaciones lineales.

Problemas resueltos

Problema 1. Implementa el algoritmo de reducción gaussiana en la matriz
\begin{align*}
A=\begin{pmatrix}
0 & 2 & 1 & 1 & 2\\
1 & 1 & 0 & 2 & 1\\
-3 & 1 & 1 & 0 & 2\\
1 & 1 & 1 & 1 & 1\end{pmatrix}
\end{align*}

Solución. Para este problema usaremos la siguiente notación para indicar las operaciones elementales que estamos efectuando :

  • $R_i \leftrightarrow R_j$ para intercambiar el renglón $i$ con el renglón $j$.
  • $kR_i$ para multiplicar el renglón $i$ por el escalar $k$.
  • $R_i + kR_j$ para sumarle $k$ veces el renglón $j$ al renglón $i$.


\begin{align*}
A=&\begin{pmatrix}
0 & 2 & 1 & 1 & 2\\
1 & 1 & 0 & 2 & 1\\
-3 & 1 & 1 & 0 & 2\\
1 & 1 & 1 & 1 & 1\end{pmatrix}\\
R_1 \leftrightarrow R_2
& \begin{pmatrix}
1 & 1 & 0 & 2 & 1\\
0 & 2 & 1 & 1 & 2\\
-3 & 1 & 1 & 0 & 2\\
1 & 1 & 1 & 1 & 1\end{pmatrix}\\
R_4 – R_1
&\begin{pmatrix}
1 & 1 & 0 & 2 & 1\\
0 & 2 & 1 & 1 & 2\\
-3 & 1 & 1 & 0 & 2\\
0 & 0 & 1 & -1 & 0\end{pmatrix}\\
R_3 + 3R_1
&\begin{pmatrix}
1 & 1 & 0 & 2 & 1\\
0 & 2 & 1 & 1 & 2\\
0 & 4 & 1 & 6 & 5\\
0 & 0 & 1 & -1 & 0\end{pmatrix}\\
\frac{1}{2}R_2
& \begin{pmatrix}
1 & 1 & 0 & 2 & 1\\
0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\
0 & 4 & 1 & 6 & 5\\
0 & 0 & 1 & -1 & 0\end{pmatrix}\\
R_3 – 4R_2
&\begin{pmatrix}
1 & 1 & 0 & 2 & 1\\
0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\
0 & 0 & -1 & 4 & 1\\
0 & 0 & 1 & -1 & 0\end{pmatrix}
\end{align*}
\begin{align*}
R_1 – R_2
& \begin{pmatrix}
1 & 0 & -\frac{1}{2} & \frac{3}{2} & 0\\
0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\
0 & 0 & -1 & 4 & 1\\
0 & 0 & 1 & -1 & 0\end{pmatrix}\\
-1\cdot R_3
&\begin{pmatrix}
1 & 0 & -\frac{1}{2} & \frac{3}{2} & 0\\
0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\
0 & 0 & 1 & -4 & -1\\
0 & 0 & 1 & -1 & 0\end{pmatrix}\\
R_4 – R_3
& \begin{pmatrix}
1 & 0 & -\frac{1}{2} & \frac{3}{2} & 0\\
0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\
0 & 0 & 1 & -4 & -1\\
0 & 0 & 0 & 3 & 1\end{pmatrix}\\
R_2 – \frac{1}{2} R_3
& \begin{pmatrix}
1 & 0 & -\frac{1}{2} & \frac{3}{2} & 0\\
0 & 1 & 0 & \frac{5}{2} & \frac{3}{2}\\
0 & 0 & 1 & -4 & -1\\
0 & 0 & 0 & 3 & 1\end{pmatrix} \\
R_1 + \frac{1}{2}R_3
& \begin{pmatrix}
1 & 0 & 0 & -\frac{1}{2} & -\frac{1}{2}\\
0 & 1 & 0 & \frac{5}{2} & \frac{3}{2}\\
0 & 0 & 1 & -4 & -1\\
0 & 0 & 0 & 3 & 1\end{pmatrix}
\end{align*}
\begin{align*}
\frac{1}{3} R_4
&\begin{pmatrix}
1 & 0 & 0 & -\frac{1}{2} & -\frac{1}{2}\\
0 & 1 & 0 & \frac{5}{2} & \frac{3}{2}\\
0 & 0 & 1 & -4 & -1\\
0 & 0 & 0 & 1 & \frac{1}{3}\end{pmatrix}\\
R_3 + 4R_4
& \begin{pmatrix}
1 & 0 & 0 & -\frac{1}{2} & -\frac{1}{2}\\
0 & 1 & 0 & \frac{5}{2} & \frac{3}{2}\\
0 & 0 & 1 & 0 & \frac{1}{3}\\
0 & 0 & 0 & 1 & \frac{1}{3}\end{pmatrix} \\
R_2 – \frac{5}{2}R_4
& \begin{pmatrix}
1 & 0 & 0 & -\frac{1}{2} & -\frac{1}{2}\\
0 & 1 & 0 & 0 & \frac{2}{3}\\
0 & 0 & 1 & 0 & \frac{1}{3}\\
0 & 0 & 0 & 1 & \frac{1}{3}\end{pmatrix} \\
R_1 + \frac{1}{2}R_4
& \begin{pmatrix}
1 & 0 & 0 & 0 & -\frac{1}{3}\\
0 & 1 & 0 & 0 & \frac{2}{3}\\
0 & 0 & 1 & 0 & \frac{1}{3}\\
0 & 0 & 0 & 1 & \frac{1}{3}\end{pmatrix}\\
=&A_{red}
\end{align*}

$\triangle$

Problema 2. Resuelve el siguiente sistema homogéneo.
\begin{align*}
\begin{cases}
x+2y-3z &=0\\
2x+5y+2z &=0\\
3x-y-4z &=0
\end{cases}
\end{align*}

Solución. La matriz asociada al sistema anterior es
\begin{align*}
\begin{pmatrix}
1 & 2 & -3\\
2 & 5 & 2\\
3 & -1 & -4
\end{pmatrix}
\end{align*}
Para resolver el sistema $AX=0$ nos bastará con encontrar $A_{red}$, pues el sistema $A_{red}X=0$ es equivalente al sistema $AX=0$.
\begin{align*}
&\begin{pmatrix}
1 & 2 & -3\\
2 & 5 & 2\\
3 & -1 & -4
\end{pmatrix}\\
R_2 -2R_1
&\begin{pmatrix}
1 & 2 & -3\\
0 & 1 & 8\\
3 & -1 & -4
\end{pmatrix}\\
R_3 – 3R_1
&\begin{pmatrix}
1 & 2 & -3\\
0 & 1 & 8\\
0 & -7 & 5
\end{pmatrix}\\
R_1 – 2R_2
&\begin{pmatrix}
1 & 0 & -19\\
0 & 1 & 8\\
0 & -7 & 5
\end{pmatrix}\\
R_3 + 7R_2
&\begin{pmatrix}
1 & 0 & -19\\
0 & 1 & 8\\
0 & 0 & 61
\end{pmatrix}\\
R_2 – \frac{8}{61}R_3
&\begin{pmatrix}
1 & 0 & -19\\
0 & 1 & 0\\
0 & 0 & 61
\end{pmatrix}\\
R_1 + \frac{19}{61}R_3
&\begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 61
\end{pmatrix}\\
\frac{1}{61}R_3
&\begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}\\
&=A_{red}
\end{align*}

De lo anterior se sigue que para resolver el sistema $AX=0$ basta con resolver el sistema
\begin{align*}
\begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
x\\
y\\
z
\end{pmatrix}= \begin{pmatrix}
0\\
0\\
0
\end{pmatrix}.
\end{align*}
Pero este sistema es el sistema

\begin{align*}
\begin{cases} x = 0\\ y = 0 \\ z = 0. \end{cases}
\end{align*}

De esta forma, $x=y=z=0$ es la (única) solución al sistema original.

$\triangle$

Problema 3. Determina las soluciones fundamentales del sistema homogéneo $AX=0$, donde $A$ es la matriz
\begin{align*}
A=\begin{pmatrix}
1 & -2 & 1 & 0\\
-2 & 4 & 0 & 2\\
-1 & 2 & 1 & 2
\end{pmatrix}.
\end{align*}

Solución. Sea $AX=0$ el sistema
\begin{align*}
\begin{pmatrix}
1 & -2 & 1 & 0\\
-2 & 4 & 0 & 2\\
-1 & 2 & 1 & 2
\end{pmatrix} \begin{pmatrix}
x\\
y\\
z\\
w \end{pmatrix} = \begin{pmatrix}
0\\
0\\
0 \end{pmatrix}
\end{align*}

Para este problema nuevamente nos interesa llevar la matriz asociada al sistema a su forma escalonada reducida.

Aunque es muy importante saber cómo se hacen estos procedimientos, es cierto que también existen herramientas que nos ayudan a hacer estos cálculos de manera más rápida. En esta ocasión usaremos una calculadora de forma reducida escalonada disponible en línea, la cual nos indica que la forma escalonada reducida de la matriz $A$ es
\begin{align*}
A_{red}=\begin{pmatrix}
1 & -2 & 0 & -1\\
0 & 0 & 1 & 1\\
0 & 0 & 0 & 0
\end{pmatrix}.
\end{align*}

De esta forma, el sistema del problema es equivalente al sistema $A_{red}X=0$
\begin{align*}
\begin{pmatrix}
1 & -2 & 0 & -1\\
0 & 0 & 1 & 1\\
0 & 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
x\\
y\\
z\\
w \end{pmatrix} = \begin{pmatrix}
0\\
0\\
0 \end{pmatrix}
\end{align*}
Las variables pivote son $x$ y $z$. Las variables libres son $y$ y $w$.

Como se mencionó en una entrada anterior, para encontrar las soluciones fundamentales hay que expresar a las variables pivote en términos de las variables libres. En el sistema anterior podemos notar que
\begin{align*}
\begin{cases}
x =2y+w\\
z=-w.
\end{cases}
\end{align*}
por lo que
\begin{align*}
\begin{pmatrix}
x\\
y\\
z\\
w
\end{pmatrix}&=\begin{pmatrix}
2y+w\\
y\\
-w\\
w
\end{pmatrix}\\
&=y\begin{pmatrix}
2\\
1\\
0\\
0
\end{pmatrix} + w \begin{pmatrix}
1\\
0\\
-1\\
1
\end{pmatrix}
\end{align*}
siendo los vectores columna de la última igualdad las soluciones fundamentales del sistema $AX=0$, es decir que con estas soluciones se pueden generar todas las demás.

$\triangle$

Hasta ahora hemos visto ejemplos de reducción gaussiana de matrices de tamaño muy concreto y entradas muy concretas. Sin embargo, otra habilidad importante es aprender a usar reducción gaussiana en una matriz de tamaño arbitrario, con algunas entradas específicas. Veamos un ejemplo de cómo hacer esto.

Problema 4. Sea $n>2$ un número entero. Resuelve en números reales el sistema
\begin{align*}
x_2=\frac{x_1+x_3}{2}, x_3= \hspace{2mm} \frac{x_2+x_4}{2}, \hspace{2mm} \dots , \hspace{2mm}, x_{n-1}=\frac{x_{n-2}+x_n}{2}.
\end{align*}

Solución. Este es un sistema lineal homogéneo de ecuaciones. Esto se puede verificar multiplicando cada ecuación por $2$ e igualándola a $0$. Por ejemplo, la primer ecuación se puede escribir como $x_1-2x_2+x_3=0$. Transformando el resto de las ecuaciones, obtenemos que el sistema se puede escribir en forma matricial como $AX=0$, donde$A$ es la matriz en $M_{n-2,n}(F)$ dada por
\begin{align*}
\begin{pmatrix}
1 & -2 & 1 & 0 & 0 & \cdots & 0 & 0 & 0 \\
0 & 1 & -2 & 1 & 0 & \cdots & 0 & 0 & 0 \\
0 & 0 & 1 & -2 & 1 & \cdots & 0 & 0 & 0 \\
0 & 0 & 0 & 1 & -2 & \cdots & 0 & 0 & 0 \\
& \vdots & & \vdots & & \ddots & & \vdots &\\
0 & 0 & 0 & 0 & 0 & \cdots & -2 & 1 & 0\\
0 & 0 & 0 & 0 & 0 & \cdots & 1 &- 2 & 1
\end{pmatrix}.
\end{align*}

Esta matriz se ve algo intimidante, pero igual se le puede aplicar reducción gaussiana. Hagamos esto.

Afortunadamente, en cada fila ya tenemos un pivote y están «escalonados». Basta con hacer transvecciones para asegurar que en cada columna de un pivote, el pivote es la única entrada no cero. Haremos los primeros pasos para encontrar un patrón de qué va sucediendo.

En el primer paso, sumamos dos veces la fila $2$ a la primer fila. Al hacer esto obtenemos:

\begin{align*}
\begin{pmatrix}
1 & 0 & -3 & 2 & 0 & \cdots & 0 & 0 & 0 \\
0 & 1 & -2 & 1 & 0 & \cdots & 0 & 0 & 0 \\
0 & 0 & 1 & -2 & 1 & \cdots & 0 & 0 & 0 \\
0 & 0 & 0 & 1 & -2 & \cdots & 0 & 0 & 0 \\
& \vdots & & \vdots & & \ddots & & \vdots &\\
0 & 0 & 0 & 0 & 0 & \cdots & -2 & 1 & 0\\
0 & 0 & 0 & 0 & 0 & \cdots & 1 &- 2 & 1
\end{pmatrix}.
\end{align*}

Con esto la segunda columna ya queda lista. El el siguiente paso, multiplicamos por 3 (y 2) la tercer fila y se lo sumamos a la primera fila (y segunda, respectivamente). Obtenemos:

\begin{align*}
\begin{pmatrix}
1 & 0 & 0 & -4 & 3 & \cdots & 0 & 0 & 0 \\
0 & 1 & 0 & -3 & 2 & \cdots & 0 & 0 & 0 \\
0 & 0 & 1 & -2 & 1 & \cdots & 0 & 0 & 0 \\
0 & 0 & 0 & 1 & -2 & \cdots & 0 & 0 & 0 \\
& \vdots & & \vdots & & \ddots & & \vdots &\\
0 & 0 & 0 & 0 & 0 & \cdots & -2 & 1 & 0\\
0 & 0 & 0 & 0 & 0 & \cdots & 1 &- 2 & 1
\end{pmatrix}.
\end{align*}

Para el siguiente paso, ahora hay que multiplicar por 4 (3, 2) la cuarta fila y sumárselo a la primera (segunda, tercera, respectivamente), y obtenemos:

\begin{align*}
\begin{pmatrix}
1 & 0 & 0 & 0 & -5 & 4 & \cdots & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & -4 & 3 & \cdots & 0 & 0 & 0 \\
0 & 0 & 1 & 0 & -3 & 2 &\cdots & 0 & 0 & 0 \\
0 & 0 & 0 & 1 & -2 & 1 & \cdots & 0 & 0 & 0 \\
& \vdots & & \vdots & & & \ddots & & \vdots &\\
0 & 0 & 0 & 0 & 0 & 0 & \cdots & -2 & 1 & 0\\
0 & 0 & 0 & 0 & 0 & 0 &\cdots & 1 &- 2 & 1
\end{pmatrix}.
\end{align*}

El patrón es ahora claro. Conforme arreglamos la columna $j$, luego la columna $j+1$ tiene a los números $-(j+1), -j, \ldots, -3, -2$ y la columna $j+2$ tiene a los números $j,j-1,j-2,\ldots,1,-2,1$. Esto puede demostrarse formalmente por inducción. Al arreglar la columna $n-2$, la matriz queda en la siguiente forma escalonada reducida:

\begin{align*}
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 & \cdots & 0 & -(n-1) & n-2 \\
0 & 1 & 0 & 0 & 0 & \cdots & 0 & -(n-2) & n-3 \\
0 & 0 & 1 & 0 & 0 & \cdots & 0 & -(n-3) & n-4 \\
0 & 0 & 0 & 1 & 0 & \cdots & 0 & -(n-4) & n-5 \\
& \vdots & & \vdots & & \ddots & & \vdots &\\
0 & 0 & 0 & 0 & 0 & \cdots & 0 & -3 & 2\\
0 & 0 & 0 & 0 & 0 & \cdots & 1 & -2 & 1
\end{pmatrix}.
\end{align*}

Estamos listos para resolver el sistema asociado. Las variables libres son $x_{n-1}$ y $x_n$, que podemos darles valores arbitrarios $a$ y $b$. Las variables pivote son todas las demás, y de acuerdo a la forma de la matriz anterior, están dadas por

\begin{align*}
x_1&=(n-1)a – (n-2) b\\
x_2&=(n-2)a – (n-3) b\\
x_3&=(n-3)a – (n-4) b\\
&\vdots\\
x_{n-2}&=2a- b.
\end{align*}

Esto determina todas las soluciones.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de sistemas de ecuaciones y forma escalonada reducida

Por Ayax Calderón

Introducción

En esta entrada nos encargaremos de resolver algunos problemas de sistemas de ecuaciones lineales y de dar algunos ejemplos más de matrices en forma escalonada reducida.

Problemas resueltos

Problema 1. ¿Para cuáles números reales $a$ se tiene que el siguiente sistema es consistente?. Resuelve el sistema para estos casos.

\begin{align*}
\begin{cases}
x + 2y &=1\\
4x+8y &=a.
\end{cases}
\end{align*}

Solución. Tomando la primera ecuación y multiplicandola por $4$ vemos que

\begin{align*}
4x+8y=4
\end{align*}

De lo anterior se sigue que el único número real $a$ para el cuál el sistema es consistente es $a=4$, pues en otro caso tendríamos ecuaciones lineales que se contradicen entre sí.

Cuando $a=4$, tenemos entonces una única ecuación $x+2y=1$. Para encontrar todas las soluciones a esta ecuación lineal, podemos fijar el valor de $y$ arbitrariamente como un número real $r$. Una vez fijado $y$, obtenemos que $x=1-2y=1-2r$. Así, el conjunto de soluciones es $$\{(1-2r,r): r \in \mathbb{R}\}.$$

$\triangle$

Problema 2. Encuentra todos $a,b\in\mathbb{R}$ para los cuales los sistemas

\begin{align*}
\begin{cases}
2x + 3y &=-2\\
x – 2y &=6
\end{cases}
\end{align*}
y
\begin{align*}
\begin{cases}
x + 2ay &=3\\
-x – y &=b
\end{cases}
\end{align*}
son equivalentes.

Solución. Para resolver el primer sistema tomamos la segunda ecuación y despejamos $x$:
\begin{align*}
x=6+2y.
\end{align*}
Sustituyendo lo anterior en la primera ecuación se tiene
\begin{align*}
2(6+2y)+3y&=-2\\
12+7y&=-2\\
7y&=-14\\
y&=-2.
\end{align*}
Luego sustituimos el valor de $y$ para encontrar $x$
\begin{align*}
x&=6+2y\\
&=6+2(-2)\\
&=2.
\end{align*}
Ahora, para encontrar los valores de $a$ y $b$, sustituimos los valores de $x$ y $y$ que encontramos en el primer sistema y de esta forma garantizamos que ambos sistemas tendrán el mismo conjunto de soluciones, es decir, son equivalentes.
\begin{align*}
\begin{cases}
x + 2ay &=3\\
-x – y &=b
\end{cases}
\end{align*}
\begin{align*}
\begin{cases}
2 + 2a(-2) &=3\\
-2 – (-2) &=b
\end{cases}
\end{align*}
De la segunda ecuación es inmediato que $b=0$.
Por otro lado, despejando $a$ de la primera ecuación se tiene
\begin{align*}
2-4a&=3\\
-4a&=1\\
a&=-\frac{1}{4}
\end{align*}
Concluimos que los sistemas son equivalentes cuando
\begin{align*}
a=-\frac{1}{4}, \hspace{4mm} b=0.
\end{align*}

$\triangle$

Más ejemplos de forma escalonada reducida

Para finalizar con esta entrada veremos más ejemplos de matrices que están en forma escalonada reducida y de matrices que no lo están.

Ejemplo 1. La matriz
\begin{align*}
\begin{pmatrix}
2 & -1 & 3 & 1\\
1 & 0 & 2 & 2\\
3 & 1 & 7 & 0\\
1 & 2 & 4 & -1\end{pmatrix}
\end{align*}
no está en forma escalonada reducida, pues todas las entradas de la primera columna son distintas de cero.
En cambio, la matriz
\begin{align*}
\begin{pmatrix}
1 & 0 & 2 & 0\\
0 & 1 & 1 & 0\\
0 & 0 & 0 & 1\\
0 & 0 & 0 & 0\end{pmatrix}
\end{align*}
sí está en forma escalonada reducida. Queda como tarea moral verificar que esto es cierto.

$\triangle$

Ejemplo 2. La matriz
\begin{align*}
\begin{pmatrix}
0 & 0 & 0 & 0 & 0\\
0 & 1 & -5 & 2 & 0\\
0 & 0 & 0 & 0 & 3\\
0 & 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}
no está en forma escalonada reducida, pues hay filas cero por encima de filas no cero. Otro problema que tiene es que el pivote de la tercer fila no es igual a $1$.


En cambio
\begin{align*}
\begin{pmatrix}
1 & 0 & 0 & 0 & -1\\
0 & 1 & 0 & 0 & 2\\
0 & 0 & 1 & 0 & 1\\
0 & 0 & 0 & 1 & 1\end{pmatrix}
\end{align*}
sí está en forma escalonada reducida.

$\triangle$

Ejemplo 3. La matriz $\begin{pmatrix} 0 & 1 & 2 \\ 1 & 0 & 0 \end{pmatrix}$ no está en forma escalonada reducida pues el pivote de la segunda fila está más a la izquierda que el de la primera. Sin embargo, si intercambiamos las filas, la matriz $\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \end{pmatrix}$ sí está en forma escalonada reducida.

$\triangle$

Más adelante veremos un método para llevar una matriz a su forma escalonada reducida y veremos que esto es muy útil para resolver sistemas de ecuaciones lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Matrices de bloques

Por Julio Sampietro

Introducción

En esta entrada definimos el concepto de submatriz y estudiamos las llamadas matrices de bloques que esencialmente son matrices grandes obtenidas por matrices más pequeñas (esto tendrá sentido después de algunos ejemplos). Las matrices de bloque aparecen frecuentemente en muchas áreas y permiten realizar cálculos que podrían ser bastante complicados de otra manera.

Dentro de este curso, nos encontraremos con las matrices de bloque cuando hablemos de solución de ecuaciones lineales y de encontrar inversas de matrices usando el método de reducción gaussiana.

Definición de matrices de bloques

Definición. Una submatriz de una matriz $A\in M_{m,n}(F)$ es una matriz que se obtiene al quitar filas y/o columnas de $A$.

Notamos que $A$ es submatriz de si misma. Una matriz puede partirse en submatrices marcando líneas verticales u horizontales en la matriz. Llamamos a una matriz de este estilo una matriz de bloques y a las submatrices marcadas las llamamos bloques.

Unos ejemplos de matrices de bloques:

\begin{align*}
\left( \begin{array}{c|cc}
1 & 2 & 3\\
0& 5 & 6\\
0 & 0&9
\end{array}\right)
,\hspace{2mm} \left( \begin{array}{c|cc} 1 & 0 & 1 \\ \hline 2 & 5 & -3\end{array}\right),\\ \left(\begin{array}{ccc|c} 1 & 0 & 0 & 2\\ \hline 5 & 16 & 2 & 0\\ 17 & 19 & -5 & 3\\ 117 & 0 & 0 & 11\end{array}\right). \end{align*}

Como mencionamos en la introducción, podemos ver a una matriz de bloques como una ‘matriz de matrices’: una matriz de bloques en $M_{m,n}(F)$ típica se ve como

\begin{align*}
\begin{pmatrix}
A_{11} & A_{12} & \dots & A_{1k}\\
A_{21} & A_{22} & \dots & A_{2k}\\
\vdots & \vdots & \ddots & \vdots\\
A_{l1} & A_{l2} & \dots & A_{lk}
\end{pmatrix},
\end{align*}

en donde cada submatriz $A_{ij}$ es una matriz de tamaño $m_i\times n_j$ para algunos enteros positivos $m_1,\dots, m_l$ y $n_1,\dots, n_k$ tales que $m_1+\dots +m_l=m$ y $n_1+\dots+n_k=n$. La matriz tiene entonces $l$ filas de bloques y $k$ columnas de bloques.

Si $l=k$, llamamos a los bloques $A_{11}, \dots, A_{kk}$ los bloques diagonales y decimos que $A$ es diagonal por bloques si todos los bloques aparte de los diagonales son la matriz cero del tamaño correspondiente. Es decir, una matriz diagonal por bloques es de la forma

\begin{align*}
A=\begin{pmatrix} A_{11} & 0 &\dots & 0\\
0 & A_{21} & \dots & 0\\
\vdots & \vdots & \ddots &\vdots\\
0 & 0 &\dots & A_{kk}.
\end{pmatrix}
\end{align*}

Observa que sólo estamos pidiendo que $k=l$, es decir, que haya la misma cantidad de filas de bloques y de columnas de bloques. Sin embargo, no es necesario que la matriz $A$ sea cuadrada para que sea diagonal por bloques.

Por más que la definición en abstracto pueda ocultar su sentido práctico, uno siempre reconoce una matriz diagonal por bloques cuando la ve.

Ejemplo. La matriz

\begin{align*}
\begin{pmatrix}
1& -1 & 0 & 0\\
0& 2 & 0 & 0\\
0&0 & 3 &0\\
0 & 0 & 15 & -2
\end{pmatrix}
\end{align*}

es diagonal por bloques, y los resaltamos con las líneas de división

\begin{align*}
\left( \begin{array}{cc|cc}
1& -1 & 0 & 0\\
0& 2 & 0 & 0\\ \hline
0&0 & 3 &0\\
0 & 0 & 15 & -2
\end{array}\right).\end{align*}

La matriz
\begin{align*}
\begin{pmatrix}
2 & -1 & 0 & 0\\
8 & 3 & 0 & 0\\
0& 3 & 0 &0\\
0&0 & 0 & -2\\
0 & 0 & 1 & 0
\end{pmatrix}
\end{align*}

también es diagonal por bloques, aunque los bloques no necesariamente sean cuadrados. Resaltamos la lineas divisorias a continuación:

\begin{align*}
\left( \begin{array}{cc|cc}
2& -1 & 0 & 0\\
8 & 3 & 0 & 0\\
2 & 3 & 0 & 0\\ \hline
0 & 0 & 0 &-2\\ 0 & 0 & 1 & 0
\end{array}\right).\end{align*}

Los bloques diagonales son \begin{align*}\begin{pmatrix} 2 & -1 \\ 8 & 3 \\2 & 3 \end{pmatrix}\end{align*} y \begin{align*}\begin{pmatrix} 0 & -2 \\ 1 & 0 \end{pmatrix}. \end{align*}

$\triangle$

Operaciones con matrices de bloques

Al ser ‘matrices de matrices’, las matrices de bloques se comportan adecuadamente con las operaciones de suma y producto de matrices que conocemos. Enunciamos esto con más detalle en la siguiente proposición que no demostraremos. Las demostraciones son directas pero tediosas.

Proposición.

  • Si
    \begin{align*}
    A= \begin{pmatrix} A_{11} & A_{12} & \dots & A_{1k}\\ A_{21} & A_{22} & \dots & A_{2k}\\ \vdots & \vdots & \ddots & \vdots\\ A_{l1} & A_{l2} & \dots & A_{lk} \end{pmatrix}\end{align*} y \begin{align*} B=\begin{pmatrix} B_{11} & B_{12} & \dots & B_{1k}\\ B_{21} & B_{22} & \dots & B_{2k}\\ \vdots & \vdots & \ddots & \vdots\\ B_{l1} & B_{l2} & \dots & B_{lk} \end{pmatrix} \end{align*}
    son matrices de bloques con $A_{ij}$ y $B_{ij}$ del mismo tamaño para cada $i,j$ (es decir, la partición es igual) entonces
    \begin{align*}
    A+B=\begin{pmatrix} A_{11} +B_{11} & A_{12}+B_{12} & \dots & A_{1k}+B_{1k}\\ A_{21} +B_{21}& A_{22}+B_{22} & \dots & A_{2k}+B_{2k}\\ \vdots & \vdots & \ddots & \vdots\\ A_{l1}+B_{l1} & A_{l2}+B_{l2} & \dots & A_{lk}+B_{lk} \end{pmatrix}
    \end{align*}
  • Si
    \begin{align*}
    A=\begin{pmatrix} A_{11} & A_{12} & \dots & A_{1k}\\ A_{21} & A_{22} & \dots & A_{2k}\\ \vdots & \vdots & \ddots & \vdots\\ A_{l1} & A_{l2} & \dots & A_{lk} \end{pmatrix}\end{align*} y \begin{align*} B=\begin{pmatrix} B_{11} & B_{12} & \dots & B_{1r}\\ B_{21} & B_{22} & \dots & B_{2r}\\ \vdots & \vdots & \ddots & \vdots\\ B_{k1} & B_{k2} & \dots & B_{kr} \end{pmatrix} \end{align*}
    son de tamaño $m\times n$ y $n\times p$ respectivamente tal que $A_{ij}$ es de tamaño $m_i \times n_j$y $B_{ij}$ de tamaño $n_i\times p_j$, entonces
    \begin{align*}
    AB=\begin{pmatrix} C_{11} & C_{12} & \dots & C_{1r}\\ C_{21} & C_{22} & \dots & C_{2r}\\ \vdots & \vdots & \ddots & \vdots\\ C_{l1} & C_{l2} & \dots & C_{lr} \end{pmatrix}
    \end{align*}
    donde
    \begin{align*}
    C_{ij}=\sum_{u=1}^{k} A_{iu} B_{uj}.
    \end{align*}

Más adelante…

En unas cuantas entradas hablaremos del algoritmo de reducción gaussiana y lo usaremos para resolver sistemas de ecuaciones y encontrar inversas de matrices. Nos encontraremos con matrices de bloque muy específicas, por ejemplo, las que resultan de «pegarle» un vector columna a una matriz, por ejemplo

\begin{align*}
\left( \begin{array}{cccc|c}
-3& -1 & 3 & -11 & 0\\
8 & 3 & 0 & 2 & -1\\
1 & -5 & 0 & 0 & 0
\end{array}\right).\end{align*}

y las que resultan de «pegarle» la matriz identidad a una matriz cuadrada, por ejemplo

\begin{align*}
\left( \begin{array}{ccc|ccc}
-3& -1 & 3 & 1 & 0 & 0\\
8 & 3 & 0 & 0 & 1 & 0\\
1 & -5 & 0 & 0 & 0 & 1
\end{array}\right).\end{align*}

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • ¿Cómo se portan las matrices de bloques respecto a la transposición?
  • Escribe todas las formas en las que puedes dividir a la matriz $I_3$ para que quede como una matriz de bloques. Aquí hay algunas: \begin{align*}\left(\begin{array}{c|cc} 1 & 0 & 0 \\ \hline 0 & 1 & 0 \\ 0 & 0 & 1\end{array}\right), \left(\begin{array}{c|c|c} 1 & 0 & 0 \\ 0 & 1 & 0 \\ \hline 0 & 0 & 1\end{array}\right), \left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{array}\right). \end{align*}
  • Demuestra que toda matriz diagonal puede verse como una matriz diagonal por bloques. Muestra que no toda matriz diagonal por bloques es una matriz diagonal.
  • Escribe todas las formas en las que puedes dividir a la matriz $I_4$ para que quede como una matriz diagonal por bloques.
  • ¿Cómo es la inversa de una matriz diagonal por bloques?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de producto de matrices y matrices invertibles

Por Julio Sampietro

Introducción

Esta sección consta de puros problemas para practicar los conceptos vistos en entradas previas. Las entradas anteriores correspondientes son la de producto de matrices y la de matrices invertibles.

Problemas resueltos

Problema. Encuentra todas las matrices $B\in M_3(\mathbb{C})$ que conmutan con la matriz

\begin{align*}
A=\begin{pmatrix}
1 & 0 & 0\\
0 & 0 & 0\\
0 & 0 &2
\end{pmatrix}.
\end{align*}

Solución. Sea

\begin{align*}
B=\begin{pmatrix} a & b & c\\ d & e & f \\ g & h & i \end{pmatrix}\in M_3(\mathbb{C}).
\end{align*}

Calculamos usando la regla del producto:

\begin{align*}
AB=\begin{pmatrix}
a & b & c\\ 0 & 0 & 0\\ 2 g & 2h & 2i \end{pmatrix}
\end{align*}

y

\begin{align*}
BA= \begin{pmatrix} a & 0 & 2c\\ d & 0 & 2f\\ g & 0 & 2i\end{pmatrix}.
\end{align*}

Igualando ambas matrices obtenemos que $A$ y $B$ conmutan si y sólo si se satisfacen las condiciones

\begin{align*}
\begin{cases}
b=d=f=h=0\\
2c=c\\
2g=g\end{cases}.
\end{align*}

Las últimas dos condiciones son equivalentes a que $c=g=0$. Cualquier matriz que conmuta con $A$ satisface estas condiciones y conversamente (por nuestro cálculo) si satisface estas ecuaciones conmuta con $A$. Esto nos deja como parámetros libres a $a,e,i$, es decir $B$ puede ser cualquier matriz diagonal.

$\triangle$

Problema. Considerando las matrices

\begin{align*}
A=\begin{pmatrix} 1 & 1 & 1\\ 0& 4 &-1\\ 9& 6 & 0 \end{pmatrix}, \hspace{2mm} B= \begin{pmatrix} -1 & 1\\ 0 & -2 \\ 1 &0 \end{pmatrix},
\end{align*}

¿cuáles de los productos $A^2, AB, BA, B^2$ tienen sentido? Calcula los que si lo tienen.

Solución. Recordamos que los productos tienen sentido si el número de columnas de la matriz de la izquierda sea el mismo que el número de filas de la matriz de la derecha. Entonces no podemos realizar los productos $BA$ o $B^2$ pues esta condición no se cumple (por ejemplo, $B$ tiene $3$ columnas, $A$ tiene $2$ filas, y estos números difieren). Calculamos entonces usando la regla del producto:

\begin{align*}
A^2 = \begin{pmatrix}
10 & 11 & 0\\
-9 & 10 & -4\\
9 & 33 & 3\end{pmatrix}, \hspace{2mm} AB= \begin{pmatrix} 0 & -1\\ -1 & -8\\ -9 &-3\end{pmatrix}.
\end{align*}

$\triangle$

Problema. Considera la matriz \begin{align*}
A=\begin{pmatrix} 1 & 1& 0 \\ 0 & 1 &1\\ 0 &0 & 1 \end{pmatrix}
\end{align*}

  • Demuestra que $A$ satisface que $(A-I_3)^3=O_3$
  • Calcula $A^{n}$ para cualquier entero positivo $n$.

Solución.

  • Hacemos el cálculo directamente:
    \begin{align*}
    (A-I_3)^3&= \begin{pmatrix} 0 & 1 & 0\\0 & 0 &1\\ 0 & 0 &0 \end{pmatrix}^{2} \cdot \begin{pmatrix} 0 & 1 &0 \\ 0 & 0 & 1\\ 0 & 0 &0 \end{pmatrix} \\&= \begin{pmatrix} 0 & 0 & 1\\ 0 & 0 & 0\\ 0 &0 &0\end{pmatrix}\cdot \begin{pmatrix} 0 & 1 &0 \\ 0 & 0 & 1\\ 0 & 0 &0 \end{pmatrix}\\&=O_3. \end{align*}
  • Para este tipo de problemas, una estrategia que funciona es hacer casos pequeños para hacer una conjetura, y luego demostrarla por inducción. Probando para algunos valores de $n$ conjeturamos que
    \begin{align*}
    A^{n}=\begin{pmatrix} 1 & n & \frac{n(n-1)}{2}\\ 0 & 1 & n\\ 0 & 0 &1 \end{pmatrix}.
    \end{align*}
    Lo demostramos por inducción sobre $n$, dando por cierto el caso base con $n=1$.
    Hagamos ahora el paso inductivo. Para esto usamos que $1+\dots + (n-1)= \frac{n(n-1)}{2}$.
    Nuestra hipótesis de inducción nos dice entonces que para cierto $n$ se tiene que $A^{n}=\begin{pmatrix} 1 & n & 1+\dots +(n-1) \\ 0 & 1 & n\\ 0 & 0 & 1\end{pmatrix}$. Usando que $A^{n+1}=A^{n}\cdot A$ con nuestra hipótesis de inducción se sigue:
    \begin{align*}
    A^{n+1}= A^{n}\cdot A&= \begin{pmatrix} 1 & n & 1+\dots +(n-1)\\ 0 & 1 &n\\ 0 & 0 &1\end{pmatrix} \cdot \begin{pmatrix} 1 & 1 & 0\\ 0 & 1 & 1\\ 0 & 0 & 1\end{pmatrix}\\ &= \begin{pmatrix} 1 & 1+n & 1+\dots + (n-1)+n\\ 0 & 1 & n+1\\ 0 & 0 &1\end{pmatrix}.\end{align*}
    Luego el resultado es cierto para $n+1$ y así queda demostrado el resultado.

$\square$

El siguiente problema combina temas de números complejos y de matrices invertibles. Para que lo entiendas a profundidad, es útil recordar la teoría de raíces $n$-ésimas de la unidad. Puedes revisar esta entrada del blog. El ejemplo puede parecer un poco artificial. Sin embargo, las matrices que se definen en él tienen muchas aplicaciones, por ejemplo, en procesamiento de señales.

Problema. Sea $n>1$ un natural y sea

\begin{align*}
\zeta= e^{\frac{2\pi i}{n}}= \cos \left( \frac{2\pi}{n}\right)+i\sin \left( \frac{2\pi}{n}\right).
\end{align*}

Este número puede parecer muy feo, pero es simplemente la raíz $n$-ésima de la unidad de menor argumento.

Definimos la matriz de Fourier de orden $n$, denotada por $\mathcal{F}_n$ como la matriz tal que su $(j,k)-$ésima entrada es $\zeta^{(j-1)(k-1)}$ para $1\leq j,k\leq n$.

  • a) Sea $\overline{\mathcal{F}_n}$ la matriz cuya $(j,k)-$ésima entrada es el conjugado complejo de la $(j,k)-$ésima entrada de $\mathcal{F}_n$. Demuestra que
    \begin{align*}
    \mathcal{F}_n\cdot \overline{\mathcal{F}_n} = \overline{\mathcal{F}_n}\cdot \mathcal{F}_n= nI_n.
    \end{align*}
  • b) Deduce que $\mathcal{F}_n$ es invertible y calcule su inversa.

Solución.

  • a) Sean $1\leq j,k\leq n$. Usando la regla del producto, podemos encontrar la entrada $(j,k)$ como sigue:
    \begin{align*}
    \left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n} \right)_{jk} &= \sum_{l=1}^{n} \left(\mathcal{F}_n\right)_{jl} \cdot \left(\overline{\mathcal{F}_n}\right)_{lk}\\
    &= \sum_{l=1}^{n} \zeta^{(j-1)(l-1)} \cdot \overline{\zeta^{(l-1)(k-1)}}\\
    &= \sum_{l=1}^{n} \zeta^{(j-1)(l-1)-(l-1)(k-1)},
    \end{align*}
    la última igualdad se debe a que $\overline{\zeta}= \zeta^{-1}$. Así
    \begin{align*}
    \left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n}\right)_{jk}=\sum_{l=1}^{n}\zeta^{(l-1)(j-k)}=\sum_{l=0}^{n-1}\left( \zeta^{j-k}\right)^{l}.
    \end{align*}
    Y la suma de la derecha es la suma de una sucesión geométrica con razón $\zeta^{j-k}$. Si $j=k$, entonces $\zeta^{j-k}=1$, así que la suma es igual a $n$ ya que cada termino es $1$ y lo sumamos $n$ veces. Si $j\neq k$ entonces $\zeta^{j-k}\neq 1$ y usamos la fórmula para una suma geométrica:
    \begin{align*}
    \sum_{l=0}^{n-1} \left( \zeta^{j-k}\right)^{l}= \frac{1-\left(\zeta^{j-k}\right)^{n}}{1-\zeta^{j-k}}=\frac{1-(\zeta^{n})^{j-k}}{1-\zeta^{j-k}}=0.\end{align*}
    Usamos en la última igualdad que $\zeta^{n}=1$. Se sigue que $\left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n}\right)_{jk}$ es $n$ si $j=k$ y $0$ de otra manera, es decir
    \begin{align*}
    \mathcal{F}_n\cdot\overline{\mathcal{F}_n}=n\cdot I_n.
    \end{align*}
    La igualdad simétrica $\overline{\mathcal{F}_n}\cdot \mathcal{F}_n=n \cdot I_n$ se prueba de la misma manera y omitimos los detalles.
  • b) Por el inciso anterior, sugerimos $\frac{1}{n} \overline{\mathcal{F}_n}$, y esta satisface

    \begin{align*}
    \mathcal{F}_n \cdot \frac{1}{n} \overline{\mathcal{F}_n} = \frac{1}{n} \cdot n I_n= I_n
    \end{align*}
    y la otra igualdad se verifica de la misma manera. Por lo tanto, $\mathcal{F}_n$ es invertible y su inversa es $\frac{1}{n} \overline{\mathcal{F}_n}$.

$\square$

Problema. Sean $A,B\in M_n(\mathbb{R})$ matrices tales que

\begin{align*}
A+B=I_n \hspace{5mm} A^2+B^2=O_n
\end{align*}

Demuestra que $A$ y $B$ son invertibles y que satisfacen

\begin{align*}
(A^{-1}+B^{-1})^{n}=2^{n} I_n
\end{align*}

Solución. Observamos que las propiedades dadas nos permiten calcular

\begin{align*}
A(I_n+B-A)&= (I_n-B) (I_n+B-A)\\&=I_n+B-A-B-B^2+BA\\
&= I_n -A-B^2+BA \\&=I_n+(B-I_n)A-B^2\\ &=I_n-A^2-B^2\\&= I_n.
\end{align*}

Es decir $A^{-1}=I_n+B-A$ (falta demostrar que con esta propuesta, también se cumple $A^{-1}A=I_n$, omitimos los cálculos). Similarmente $B^{-1}= I_n+A-B$ y por tanto $A^{-1}+B^{-1}= 2\cdot I_n$ y de esta igualdad se sigue la segunda parte del problema, pues

\begin{align*}
\left(A^{-1}+B^{-1}\right)^{n}= \left( 2\cdot I_n\right)^{n}=2^{n} \cdot I_n.\end{align*}

$\square$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»