Álgebra Lineal I: Problemas de sistemas de ecuaciones y forma escalonada reducida

Introducción

En esta entrada nos encargaremos de resolver algunos problemas de sistemas de ecuaciones lineales y de dar algunos ejemplos más de matrices en forma escalonada reducida.

Problemas de sistemas de ecuaciones lineales

Problema. ¿Para cuáles números reales a se tiene que el siguiente sistema es consistente?. Resuelve el sistema para estos casos.

    \begin{align*}\begin{cases}x + 2y &=1\\4x+8y &=a.\end{cases}\end{align*}

Solución. Tomando la primera ecuación y multiplicandola por 4 vemos que

    \begin{align*}4x+8y=4\end{align*}

De lo anterior se sigue que el único número real a para el cuál el sistema es consistente es a=4, pues en otro caso tendríamos ecuaciones lineales que se contradicen entre sí.

Cuando a=4, tenemos entonces una única ecuación x+2y=1. Para encontrar todas las soluciones a esta ecuación lineal, podemos fijar el valor de y arbitrariamente como un número real r. Una vez fijado y, obtenemos que x=1-2y=1-2r. Así, el conjunto de soluciones es

    \[\{(1-2r,r): r \in \mathbb{R}\}.\]

\square

Problema. Encuentra todos a,b\in\mathbb{R} para los cuales los sistemas

    \begin{align*}\begin{cases}2x + 3y &=-2\\x - 2y &=6\end{cases}\end{align*}


y

    \begin{align*}\begin{cases}x + 2ay &=3\\-x - y &=b\end{cases}\end{align*}


son equivalentes.

Solución. Para resolver el primer sistema tomamos la segunda ecuación y despejamos x:

    \begin{align*}x=6+2y.\end{align*}


Sustituyendo lo anterior en la primera ecuación se tiene

    \begin{align*}2(6+2y)+3y&=-2\\ 12+7y&=-2\\7y&=-14\\y&=-2.\end{align*}


Luego sustituimos el valor de y para encontrar x

    \begin{align*}x&=6+2y\\&=6+2(-2)\\&=2.\end{align*}


Ahora, para encontrar los valores de a y b, sustituimos los valores de x y y que encontramos en el primer sistema y de esta forma garantizamos que ambos sistemas tendrán el mismo conjunto de soluciones, es decir, son equivalentes.

    \begin{align*}\begin{cases}x + 2ay &=3\\-x - y &=b\end{cases}\end{align*}


    \begin{align*}\begin{cases}2 + 2a(-2) &=3\\-2 - (-2) &=b\end{cases}\end{align*}


De la segunda ecuación es inmediato que b=0.
Por otro lado, despejando a de la primera ecuación se tiene

    \begin{align*}2-4a&=3\\-4a&=1\\a&=-\frac{1}{4}\end{align*}


Concluimos que los sistemas son equivalentes cuando

    \begin{align*}a=-\frac{1}{4}, \hspace{4mm} b=0.\end{align*}

\square

Más ejemplos de forma escalonada reducida

Para finalizar con esta entrada veremos más ejemplos de matrices que están en forma escalonada reducida y de matrices que no lo están.

Ejemplo. La matriz

    \begin{align*}\begin{pmatrix}2 & -1 & 3 & 1\\1 & 0 & 2 & 2\\3 & 1 & 7 & 0\\1 & 2 & 4 & -1\end{pmatrix}\end{align*}


no está en forma escalonada reducida, pues todas las entradas de la primera columna son distintas de cero.
En cambio, la matriz

    \begin{align*}\begin{pmatrix}1 & 0 & 2 & 0\\0 & 1 & 1 & 0\\0 & 0 & 0 & 1\\0 & 0 & 0 & 0\end{pmatrix}\end{align*}


sí está en forma escalonada reducida. Queda como tarea moral verificar que esto es cierto.

\square

Ejemplo. La matriz

    \begin{align*}\begin{pmatrix}0 & 0 & 0 & 0 & 0\\0 & 1 & -5 & 2 & 0\\0 & 0 & 0 & 0 & 3\\0 & 0 & 0 & 0 & 0\end{pmatrix}\end{align*}


no está en forma escalonada reducida, pues hay filas cero por encima de filas no cero. Otro problema que tiene es que el pivote de la tercer fila no es igual a 1.


En cambio

    \begin{align*}\begin{pmatrix}1 & 0 & 0 & 0 & -1\\0 & 1 & 0 & 0 & 2\\0 & 0 & 1 & 0 & 1\\0 & 0 & 0 & 1 & 1\end{pmatrix}\end{align*}


sí está en forma escalonada reducida.

\square

Ejemplo. La matriz \begin{pmatrix} 0 & 1 & 2  \\ 1 & 0 & 0 \end{pmatrix} no está en forma escalonada reducida pues el pivote de la segunda fila está más a la izquierda que el de la primera. Sin embargo, si intercambiamos las filas, la matriz \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \end{pmatrix} sí está en forma escalonada reducida.

\square

Más adelante veremos un método para llevar una matriz a su forma escalonada reducida y veremos que esto es muy útil para resolver sistemas de ecuaciones lineales.

Álgebra Lineal I: Problemas de transpuesta de matriz y matrices de bloque

Introducción

En esta entrada ejercitaremos los conceptos de matriz transpuesta y matriz de bloque mediante ejercicios resueltos. Además, para los últimos tres problemas definiremos un concepto que aunque no se estudia a fondo en este curso, aparece en muchas áreas de las matemáticas y de la física.

Problemas resueltos

Problema. Sea A\in M_n(\mathbb{R}) una matriz con una única entrada distinta de cero en cada renglón y columna, dicha entrada es igual a 1 ó -1. Demuestra que A es una matriz ortogonal.

Solución. Sea A=[a_{ij}]. Queremos ver que A^{-1}= ^tA. Sean i,j\in \{1, 2, \dots , n\}. Entonces la entrada (i,j)-ésima de A \ ^t A es

    \begin{align*}(A\ {^tA})_{ij}=\displaystyle\sum_{k=1}^na_{ik}a_{jk}.\end{align*}

Supongamos que a_{ik}a_{jk} es distinto de cero para algún k\in \{1,2,\dots n\}, por tanto a_{ik} y a_{jk} son distintos de cero.
Si sucediera que i\neq j, entonces A tiene al menos dos entradas distintas de cero en la columna k, pero esto es imposible. Así, si i\neq j, entonces a_{ik}a_{jk}=0 para todo k\in\{1,2,\dots n\} y por consiguiente la (i,j)-ésima entrada de A\ ^tA es 0.

Por otro lado, si i=j, entonces

    \begin{align*}(A\ ^tA)_{ij}=\displaystyle\sum_{k=1}^na_{ik}^2.\end{align*}

Como por hipótesis se tiene que todas las entradas del i-esimo renglón de A son todas 0 salvo una que es 1 ó -1, entonces \displaystyle\sum_{k=1}^na_{ik}^2=1 y así (A\ ^tA)_{ij}=1 cuando i=j. Concluimos que A\ ^tA=I_n.
Mediante un argumento análogo se ve que ^tA A = I_n.

\square

Problema. a) Sea A\in M_n(\mathbb{R}) una matriz tal que ^tA \cdot A =O_n. Demuestra que A=O_n.
b) ¿El inciso a) seguirá siendo cierto si reemplazamos \mathbb{R} por \mathbb{C}?

Solución. a) Sea A=[A_{ij}]. Por la regla del producto de matrices se tiene que la (i,i)-ésima entrada de ^tA\cdot A es

    \begin{align*}(^tA\cdot A )_{ii} &= \displaystyle\sum_{k=1}^n (^tA)_{ik}A_{ki} \\ &=\displaystyle\sum_{k=1}^n A_{ki}^2.\end{align*}

Como ^tA\cdot A=O_n, concluimos que para toda i\in\{1,2,\dots,n\} se tiene que

    \begin{align*}\displaystyle\sum_{k=1}^n A_{ki}^2=0.\end{align*}

Como cada A_{ki} es un número real, al elevarlo al cuadrado obtenemos números no negativos. De lo anterior se sigue que A_{ki}=0 para toda k\in \{1,2\dots ,n\}. Como la i fue tomada de manera arbitraria, concluimos que A=O_n.
b) El resultado no necesariamente es cierto si cambiamos el campo de los reales por el campo de los complejos. Busquemos una matriz simétrica A\in M_2(\mathbb{C}) tal que ^tA\cdot A= O_2, pero como A es simétrica, lo anterior solamente es A^2=O_2 y además se puede escribir como

    \begin{align*}A=\begin{pmatrix} a & b\\b & d\end{pmatrix}\end{align*}

para algunos números complejos a,b y d. Ahora

    \begin{align*}A^2 &= \begin{pmatrix} a & b\\b & d\end{pmatrix} \cdot \begin{pmatrix}a & b\\b & d\end{pmatrix} \\&=\begin{pmatrix}a^2 +b^2 & b(a+d)\\b(a+d) & b^2+ d^2\end{pmatrix}.\end{align*}

Así que buscamos números complejos a,b,d con al menos uno de ellos distinto de cero y tales que

    \begin{align*}a^2+b^2=0, \hspace{2mm} b(a+d)=0, \hspace{2mm} b^2+d^2=0. \end{align*}

Basta con asegurar que a+d=0 y a^2+b^2=0, para lo cual tomamos a=i, b=1, d=-i .

\square

Producto tensorial

A continuación definiremos el producto tensorial. Es importante mencionar que esto es meramente para ejemplificar la teoría que se ha visto hasta ahora, por lo que no se profundizará en este tema.

Si A=[a_{ij}]\in M_{m_1,n_1}(F) y B\in M_{m_2,n_2}(F) son matrices, entonces definimos el producto de Kronecker o producto tensorial de A y B como la matriz de bloque A\otimes B\in M_{m_1m_2,n_1n_2}(F) definida por

    \begin{align*}A\otimes B = \begin{pmatrix}a_{11}B & a_{12}B & \dots & a_{1,n_1}B\\a_{21}B & a_{22}B & \dots & a_{2,n_1}B\\\vdots & \vdots & \vdots & \vdots\\a_{m_1,1}B & a_{m_1,2}B & \dots & a_{m_1,n_1}B \end{pmatrix}.\end{align*}

Problema. Calcula el producto tensorial de las matrices

    \begin{align*}A=\begin{pmatrix} 0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix}, \hspace{4mm} B=\begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}.\end{align*}

Solución. Usamos directamente la definición de producto tensorial

    \begin{align*}A\otimes B=\begin{pmatrix} 0 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 1 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}\\1\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}\\0\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 1\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}\end{pmatrix}\end{align*}

    \begin{align*}= \begin{pmatrix}0 & 0 & 2 & 1 & 0 & 0\\0 & 0 & 1 & -1 & 0 & 0\\2 & 1 & 0 & 0 & 0 & 0\\1 & -1 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 2 & 1\\0 & 0 & 0 & 0 & 1 & -1\end{pmatrix} \end{align*}

\square

Problema. ¿El producto tensorial es conmutativo?

Solución. En general, el producto tensorial, no es conmutativo. Sean A y B como en el problema anterior. Entonces

    \begin{align*}B\otimes A = \begin{pmatrix}2\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix} & 1\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix}\\1\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix} & -1\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix}\end{pmatrix}\end{align*}


    \begin{align*}=\begin{pmatrix}0 & 2 & 0 & 0 & 1 & 0\\2 & 0 & 0 & 1 & 0 & 0\\0 & 0 & 2 & 0 & 0 & 1\\0 & 1 & 0 & 0 & -1 & 0\\1 & 0 & 0 & -1 & 0 & 0\\0 & 0 & 1 & 0 & 0 & -1\end{pmatrix}.\end{align*}

Comparando con lo obtenido en el problema anterior, ser verifica que el producto tensorial no es conmutativo.

\square

Problema. Verifica que I_m\otimes I_n = I_{mn}.

Solución. Por definición sabemos que I_m\otimes I_n\in M_{mn}(F). Ahora veamos que

    \begin{align*}\begin{pmatrix}1\cdot I_n & 0\cdot I_n & \dots & 0\cdot I_n\\0\cdot I_n & 1 \cdot I_n & \dots & 0\cdot I_n\\\vdots & \vdots &\ddots & \vdots\\0\cdot I_n & 0\cdot I_n & \dots & 1\cdot I_n\end{pmatrix}= I_{mn}.\end{align*}

\square

Álgebra Lineal I: Sistemas de ecuaciones lineales y sistemas homogéneos asociados

Introducción

En esta sección damos un primer acercamiento al concepto de sistemas de ecuaciones lineales. Este es un concepto de fundamental importancia en muchas áreas de las matemáticas, como las ecuaciones diferenciales o incluso la geometría algebraica.

Los sistemas de ecuaciones lineales nos son familiares. Desde la educación secundaria se aprende a resolver ecuaciones «de 2\times 2«, y más adelante «de 3\times 3«. Estos sistemas también aparecen en cursos de la licenciatura, como geometría analítica. Sin embargo, es en un curso de álgebra lineal que se estudian con toda generalidad. Las herramientas de esta área de las matemáticas permiten determinar si un sistema de ecuaciones lineales tiene solución y, en caso de que sí, ver cómo se ven todas las soluciones.

Como veremos a continuación, un sistema de ecuaciones lineales se puede ver en términos de matrices. Esta conexión es fundamental. La información acerca de una matriz nos permite obtener información acerca del sistema de ecuaciones lineales asociado. A la vez, la información sobre un espacio o matriz se puede determinar a partir de la resolución de sistemas de ecuaciones lineales.

Sistemas de ecuaciones lineales

Una ecuación lineal en variables x_1, \dots, x_n es una ecuación de la forma

    \begin{align*}a_1 x_1 + \dots +a_n x_n =b,\end{align*}

donde a_1, \dots, a_n, b\in F son escalares dados y n es un entero positivo. Las incógnitas x_1,\dots, x_n suponen ser elementos de F.

Un sistema de ecuaciones lineales en las variables x_1, \dots, x_n es una familia de ecuaciones lineales, usualmente escrito como

    \begin{align*}\begin{cases}a_{11}x_1+a_{12} x_2+\dots +a_{1n} x_n = b_1\\a_{21} x_1 +a_{22} x_2 + \dots + a_{2n} x_n = b_2\\\quad \vdots\\a_{m1} x_1+a_{m2} x_2+\dots + a_{mn}x_n = b_m\end{cases}.\end{align*}

Aquí de nuevo los a_{ij} y los b_i son escalares dados. Resolver un sistema de ecuaciones lineales consiste en describir todos los posibles valores que pueden tener x_1,\ldots,x_n de modo que todas las ecuaciones anteriores se satisfagan simultáneamente.

La notación que usamos no es mera coincidencia y nos permite describir de manera mucho más concisa el sistema: Si X es un vector columna con entradas x_1, \dots, x_n, A es la matriz en M_{m,n}(F) con entradas [a_{ij}] y b es un vector columna en F^m con entradas b_1, \dots, b_m entonces el sistema se reescribe como

    \begin{align*}AX=b.\end{align*}

Puedes verificar esto usando la definición de A como transformación lineal y comparando los vectores en ambos lados de la igualdad entrada a entrada. Resolver el sistema se traduce entonces a responder cómo son todos los vectores X en F^n que satisfacen la igualdad anterior.

Ejemplo. A continuación tenemos un sistema de ecuaciones en tres variables (o incógnitas) x_1, x_2 y x_3:

    \begin{align*}\begin{cases}3x_1-2x_2+7x_3&=5\\4x_1+3x_3&=7\\2x_1+x_2-7x_3&=-1\\-x_1+3x_2&=8\end{cases}.\end{align*}

Si tomamos al vector b=\begin{pmatrix} 5 \\ 7 \\ -1 \\8 \end{pmatrix} en \mathbb{R}^4, al vector de incógnitas X=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} y a la matriz

    \[A=\begin{pmatrix} 3 & -2 & 7\\ 4 & 0 & 3 \\ 2 & 1 & -7 \\ -1 & 3 & 0\end{pmatrix},\]

entonces el sistema de ecuaciones lineales consiste exactamente en determinar aquellos vectores X en \mathbb{R}^3 tales que

    \[AX=b.\]

\square

También podríamos describir nuestro sistema en términos solo de vectores. Recordando un resultado visto en la entrada de producto de matrices, si C_1, \dots, C_n son las columnas de A, vistos como vectores columna en F^{m}, el sistema es equivalente a

    \begin{align*}x_1 C_1+x_2 C_2 +\dots +x_n C_n=b.\end{align*}

Sistemas de ecuaciones lineales homogéneos

Hay un tipo de sistemas de ecuaciones lineales muy especiales: aquellos en los que b=0. Son tan importantes, que tienen un nombre especial.

Definición.

  1. El sistema de ecuaciones lineales AX=b se dice homogéneo si b=0 (es decir si b_1= b_2=\dots= b_m=0).
  2. Dado un sistema AX=b, el sistema lineal homogéneo asociado es el sistema AX=0.

Así, un sistema es homogéneo si es de la forma AX=0 para alguna matriz A.

Ejemplo. Considera el siguiente sistema de ecuaciones lineales:

    \begin{align*}\begin{cases}2x+3y-z&=-1\\5x+8z&=0\\-x+y&=1.\end{cases}\end{align*}

Este es un sistema de ecuaciones que en representación matricial se ve así:

    \begin{align*}\begin{pmatrix} 2 & 3 & -1 \\ 5 & 0 & 8 \\ -1 & 1 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} =\begin{pmatrix} -1 \\ 0 \\ 1\end{pmatrix}.\end{align*}

Como el vector en el lado derecho de la igualdad no es el vector cero, entonces este no es un sistema homogéneo. Sin embargo, tiene asociado el siguiente sistema lineal homogéneo:

    \begin{align*}\begin{pmatrix} 2 & 3 & -1 \\ 5 & 0 & 8 \\ -1 & 1 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix}=\begin{pmatrix} 0 \\ 0 \\ 0\end{pmatrix}.\end{align*}

\square

Para la resolución de sistemas lineales en general, el sistema homogéneo asociado juega un papel crucial gracias al siguiente resultado, que nos dice esencialmente que para resolver un sistema AX=b basta con encontrar un vector solución X_0 y resolver el sistema homogéneo asociado.

Proposición. (Principio de superposición) Sea A\in M_{m,n}(F) y b\in F^{m}. Sea \mathcal{S}\subset F^{n} el conjunto de soluciones del sistema homogéneo asociado AX=0. Si el sistema AX=b tiene una solución X_0, entonces el conjunto de soluciones del sistema AX=b no es más que

    \begin{align*}X_0+\mathcal{S}= \lbrace X_0 +s\mid s\in \mathcal{S} \rbrace.\end{align*}

Demostración: Por hipótesis, AX_0=b. Ahora al sustituir, AX=b si y sólo si AX=A X_0, o bien A(X-X_0)=0. Es decir, un vector X es solución de AX=b si y sólo si X-X_0 es solución de AY=0, de otra manera, si y sólo si X-X_0\in \mathcal{S}. Pero esto último es equivalente a decir que existe s\in \mathcal{S} tal que X-X_0=s, luego X= X_0 +s\in X_0 +\mathcal{S}. Esto prueba el resultado.

\square

Consistencia de sistemas lineales

Definición. Un sistema lineal es dicho consistente si tiene al menos una solución. Se le llama inconsistente si no es consistente (es decir, si no existe una solución).

Presentamos una última definición para esta entrada.

Definición.

  1. Dos sistemas lineales se dicen equivalentes si tienen el mismo conjunto de soluciones
  2. Sean A y B dos matrices del mismo tamaño. Si los sistemas AX=0 y BX=0 son equivalentes, escribiremos A\sim B.

Ejemplo. Un ejemplo clásico de un sistema inconsistente es

    \begin{align*} \begin{cases} x_1=0\\x_1=1\end{cases}\end{align*}

o bien

    \begin{align*}\begin{cases}x_1 -2x_2=1\\2 x_2-x_1=0\end{cases}.\end{align*}

\square

Observación. Observamos que todo sistema homogéneo siempre es consistente, ya que el vector cero (cuyas coordenadas son todas cero) satisface el sistema. A esta solución la conocemos como solución trivial. Se sigue de la proposición que un sistema consistente AX=b tiene una única solución si y sólo si el sistema homogéneo asociado tiene como única solución la solución trival.

Más adelante

El principio de superposicion dice que para entender las soluciones de los sistemas lineales de la forma AX=b, basta con entender a los homogéneos, es decir, los de la forma AX=0.

Nuestro siguiente paso será ver cómo podemos entender las soluciones de los sistemas lineales homogéneos. Para ello, tenemos que hablar de los sistemas que corresponden a matrices en forma escalonada reducida. La ventaja de estos sistemas es que sus soluciones son muy fáciles de entender, y para cualquier sistema de ecuaciones AX=0, hay uno de la forma A_{red}X=0, con A_{red} una matriz escalonada reducida, y equivalente a A.

Más adelante, ya que tengamos a nuestra disposición herramientas de determinantes, hablaremos de otra forma en la que se pueden resolver sistemas de ecuaciones lineales usando la regla de Cramer.

Tarea moral

  • Muestra que el sistema

        \begin{align*}\begin{cases}x_1 -2x_2=1\\2 x_2-x_1=0\end{cases}.\end{align*}


    es inconsistente. Para ello, puedes proceder por contradicción, suponiendo que existe una solución.
  • Rescribe el primer ejemplo de sistemas de ecuaciones lineales en términos de vectores.
  • Sea b un vector en F^n y I_n la matriz identidad en M_n(F). ¿Cómo se ve de manera explícita el sistema de ecuaciones (2I_n)X=b? ¿Cuáles son todas sus soluciones?
  • Sean A,B matrices de tamaño n\times n tales que el sistema ABX=0 solo tiene como solución la solución trivial. Demuestre que el sistema BX=0 también tiene como única solución a la solución trivial.
  • Sea A\in M_2(\mathbb{C}) y considere el sistema homogéneo AX=0. Demuestre que son equivalentes:
    1. El sistema tiene una única solución, la solución trivial.
    2. A es invertible.

Álgebra Lineal I: Matrices de bloques

Introducción

En esta entrada definimos el concepto de submatriz y estudiamos las llamadas matrices de bloques que esencialmente son matrices grandes obtenidas por matrices más pequeñas (esto tendrá sentido después de algunos ejemplos). Las matrices de bloque aparecen frecuentemente en muchas áreas y permiten realizar cálculos que podrían ser bastante complicados de otra manera.

Dentro de este curso, nos encontraremos con las matrices de bloque cuando hablemos de solución de ecuaciones lineales y de encontrar inversas de matrices usando el método de reducción gaussiana.

Definición de matrices de bloques

Definición. Una submatriz de una matriz A\in M_{m,n}(F) es una matriz que se obtiene al quitar filas y/o columnas de A.

Notamos que A es submatriz de si misma. Una matriz puede partirse en submatrices marcando líneas verticales u horizontales en la matriz. Llamamos a una matriz de este estilo una matriz de bloques y a las submatrices marcadas las llamamos bloques.

Unos ejemplos de matrices de bloques:

    \begin{align*}\left( \begin{array}{c|cc}1 & 2 & 3\\0& 5 & 6\\0 & 0&9\end{array}\right),\hspace{2mm} \left( \begin{array}{c|cc} 1 & 0 & 1 \\ \hline 2 & 5 & -3\end{array}\right),\\ \left(\begin{array}{ccc|c} 1 & 0 & 0 & 2\\ \hline 5 & 16 & 2 & 0\\ 17 & 19 & -5 & 3\\ 117 & 0 & 0 & 11\end{array}\right). \end{align*}

Como mencionamos en la introducción, podemos ver a una matriz de bloques como una ‘matriz de matrices’: una matriz de bloques en M_{m,n}(F) típica se ve como

    \begin{align*}\begin{pmatrix}A_{11} & A_{12} & \dots & A_{1k}\\A_{21} & A_{22} & \dots & A_{2k}\\\vdots & \vdots & \ddots & \vdots\\A_{l1} & A_{l2} & \dots & A_{lk} \end{pmatrix},\end{align*}

en donde cada submatriz A_{ij} es una matriz de tamaño m_i\times n_j para algunos enteros positivos m_1,\dots, m_l y n_1,\dots, n_k tales que m_1+\dots +m_l=m y n_1+\dots+n_k=n. La matriz tiene entonces l filas de bloques y k columnas de bloques.

Si l=k, llamamos a los bloques A_{11}, \dots, A_{kk} los bloques diagonales y decimos que A es diagonal por bloques si todos los bloques aparte de los diagonales son la matriz cero del tamaño corresponidente. Es decir, una matriz diagonal por bloques es de la forma

    \begin{align*}A=\begin{pmatrix} A_{11} & 0 &\dots & 0\\0 & A_{21} & \dots & 0\\\vdots & \vdots & \ddots &\vdots\\0 & 0 &\dots & A_{kk}.\end{pmatrix}\end{align*}

Observa que sólo estamos pidiendo que k=l, es decir, que haya la misma cantidad de filas de bloques y de columnas de bloques. Sin embargo, no es necesario que la matriz A sea cuadrada para que sea diagonal por bloques.

Por más que la definición en abstracto pueda ocultar su sentido práctico, uno siempre reconoce una matriz diagonal por bloques cuando la ve.

Ejemplo. La matriz

    \begin{align*}\begin{pmatrix}1& -1 & 0 & 0\\0& 2 & 0 & 0\\0&0 & 3 &0\\0 & 0 & 15 & -2\end{pmatrix}\end{align*}

es diagonal por bloques, y los resaltamos con las líneas de división

    \begin{align*}\left( \begin{array}{cc|cc}  1& -1 & 0 & 0\\0& 2 & 0 & 0\\ \hline0&0 & 3 &0\\0 & 0 & 15 & -2\end{array}\right).\end{align*}

La matriz

    \begin{align*}\begin{pmatrix}2 & -1 & 0 & 0\\8 & 3 & 0 & 0\\0& 3 & 0 &0\\0&0 & 0 & -2\\0 & 0 & 1 & 0\end{pmatrix}\end{align*}

también es diagonal por bloques, aunque los bloques no necesariamente sean cuadrados. Resaltamos la lineas divisorias a continuación:

    \begin{align*}\left( \begin{array}{cc|cc}2& -1 & 0 & 0\\8 & 3 & 0 & 0\\ 2 & 3 & 0 & 0\\ \hline0 & 0 & 0 &-2\\ 0 & 0 & 1 & 0\end{array}\right).\end{align*}

Los bloques diagonales son

    \begin{align*}\begin{pmatrix} 2 & -1 \\ 8 & 3 \\2 & 3 \end{pmatrix}\end{align*}

y

    \begin{align*}\begin{pmatrix} 0 & -2 \\ 1 & 0 \end{pmatrix}. \end{align*}

\square

Operaciones con matrices de bloques

Al ser ‘matrices de matrices’, las matrices de bloques se comportan adecuadamente con las operaciones de suma y producto de matrices que conocemos. Enunciamos esto con más detalle en la siguiente proposición que no demostraremos. Las demostraciones son directas pero tediosas.

Proposición.

  • Si

        \begin{align*}A= \begin{pmatrix} A_{11} & A_{12} & \dots & A_{1k}\\ A_{21} & A_{22} & \dots & A_{2k}\\ \vdots & \vdots & \ddots & \vdots\\ A_{l1} & A_{l2} & \dots & A_{lk} \end{pmatrix}\end{align*}

    y

        \begin{align*} B=\begin{pmatrix} B_{11} & B_{12} & \dots & B_{1k}\\ B_{21} & B_{22} & \dots & B_{2k}\\ \vdots & \vdots & \ddots & \vdots\\ B_{l1} & B_{l2} & \dots & B_{lk} \end{pmatrix} \end{align*}


    son matrices de bloques con A_{ij} y B_{ij} del mismo tamaño para cada i,j (es decir, la partición es igual) entonces

        \begin{align*}A+B=\begin{pmatrix} A_{11} +B_{11} & A_{12}+B_{12} & \dots & A_{1k}+B_{1k}\\ A_{21} +B_{21}& A_{22}+B_{22} & \dots & A_{2k}+B_{2k}\\ \vdots & \vdots & \ddots & \vdots\\ A_{l1}+B_{l1} & A_{l2}+B_{l2} & \dots & A_{lk}+B_{lk} \end{pmatrix}\end{align*}

  • Si

        \begin{align*}A=\begin{pmatrix} A_{11} & A_{12} & \dots & A_{1k}\\ A_{21} & A_{22} & \dots & A_{2k}\\ \vdots & \vdots & \ddots & \vdots\\ A_{l1} & A_{l2} & \dots & A_{lk} \end{pmatrix}\end{align*}

    y

        \begin{align*} B=\begin{pmatrix} B_{11} & B_{12} & \dots & B_{1r}\\ B_{21} & B_{22} & \dots & B_{2r}\\ \vdots & \vdots & \ddots & \vdots\\ B_{k1} & B_{k2} & \dots & B_{kr} \end{pmatrix} \end{align*}


    son de tamaño m\times n y n\times p respectivamente tal que A_{ij} es de tamaño m_i \times n_jy B_{ij} de tamaño n_i\times p_j, entonces

        \begin{align*}AB=\begin{pmatrix} C_{11} & C_{12} & \dots & C_{1r}\\ C_{21} & C_{22} & \dots & C_{2r}\\ \vdots & \vdots & \ddots & \vdots\\ C_{l1} & C_{l2} & \dots & C_{lr} \end{pmatrix}\end{align*}


    donde

        \begin{align*}C_{ij}=\sum_{u=1}^{k} A_{iu} B_{uj}.\end{align*}

Más adelante

En unas cuantas entradas hablaremos del algoritmo de reducción gaussiana y lo usaremos para resolver sistemas de ecuaciones y encontrar inversas de matrices. Nos encontraremos con matrices de bloque muy específicas, por ejemplo, las que resultan de «pegarle» un vector columna a una matriz, por ejemplo

    \begin{align*}\left( \begin{array}{cccc|c}-3& -1 & 3 & -11 & 0\\8 & 3 & 0 & 2 & -1\\1 & -5 & 0 & 0 & 0\end{array}\right).\end{align*}

y las que resultan de «pegarle» la matriz identidad a una matriz cuadrada, por ejemplo

    \begin{align*}\left( \begin{array}{ccc|ccc}-3& -1 & 3 & 1 & 0 & 0\\8 & 3 & 0 & 0 & 1 & 0\\1 & -5 & 0 & 0 & 0 & 1\end{array}\right).\end{align*}

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Cómo se portan las matrices de bloques respecto a la transposición?
  • Escribe todas las formas en las que puedes dividir a la matriz I_3 para que quede como una matriz de bloques. Aquí hay algunas:

        \begin{align*}\left(\begin{array}{c|cc} 1 & 0 & 0 \\ \hline 0 & 1 & 0 \\ 0 & 0 & 1\end{array}\right), \left(\begin{array}{c|c|c} 1 & 0 & 0 \\  0 & 1 & 0 \\ \hline 0 & 0 & 1\end{array}\right), \left(\begin{array}{ccc} 1 & 0 & 0 \\  0 & 1 & 0 \\ 0 & 0 & 1\end{array}\right). \end{align*}

  • Demustra que toda matriz diagonal puede verse como una matriz diagonal por bloques. Muestra que no toda matriz diagonal por bloques es una matriz diagonal.
  • Escribe todas las formas en las que puedes dividir a la matriz I_4 para que quede como una matriz diagonal por bloques.
  • ¿Cómo es la inversa de una matriz diagonal por bloques?

Álgebra Lineal I: Problemas de producto de matrices y matrices invertibles

Introducción

Esta sección consta de puros problemas para practicar los conceptos vistos en entradas previas. Las entradas anteriores correspondientes son la de producto de matrices y la de matrices invertibles.

Problema. Encuentra todas las matrices B\in M_3(\mathbb{C}) que conmutan con la matriz

    \begin{align*}A=\begin{pmatrix}1 & 0 & 0\\0 & 0 & 0\\0 & 0 &2\end{pmatrix}.\end{align*}

Solución. Sea

    \begin{align*}B=\begin{pmatrix} a & b & c\\ d & e & f \\ g & h & i \end{pmatrix}\in M_3(\mathbb{C}).\end{align*}

Calculamos usando la regla del producto:

    \begin{align*}AB=\begin{pmatrix}a & b & c\\ 0 & 0 & 0\\ 2 g & 2h & 2i \end{pmatrix}\end{align*}

y

    \begin{align*}BA= \begin{pmatrix} a & 0 & 2c\\  d & 0 & 2f\\ g & 0 & 2i\end{pmatrix}.\end{align*}

Igualando ambas matrices obtenemos que A y B conmutan si y sólo si se satisfacen las condiciones

    \begin{align*}\begin{cases}b=d=f=h=0\\2c=c\\2g=g\end{cases}.\end{align*}

Las últimas dos condiciones son equivalentes a que c=g=0. Cualquier matriz que conmuta con A satisface estas condiciones y conversamente (por nuestro cálculo) si satisface estas ecuaciones conmuta con A. Esto nos deja como parámetros libres a a,e,i, es decir B puede ser cualquier matriz diagonal.

\square

Problema. Considerando las matrices

    \begin{align*}A=\begin{pmatrix} 1 & 1 & 1\\ 0& 4 &-1\\ 9& 6 & 0 \end{pmatrix}, \hspace{2mm} B= \begin{pmatrix} -1 & 1\\ 0 & -2 \\ 1 &0 \end{pmatrix},\end{align*}

¿cuáles de los productos A^2, AB, BA, B^2 tienen sentido? Calcula los que si lo tienen.

Solución. Recordamos que los productos tienen sentido si el número de columnas de la matriz de la izquierda sea el mismo que el número de filas de la matriz de la derecha. Entonces no podemos realizar los productos BA o B^2 pues esta condición no se cumple (por ejemplo, B tiene 3 columnas, A tiene 2 filas, y estos números difieren). Calculamos entonces usando la regla del producto:

    \begin{align*}A^2 = \begin{pmatrix}10 & 11 & 0\\-9 & 10 & -4\\9 & 33 & 3\end{pmatrix}, \hspace{2mm} AB= \begin{pmatrix} 0 & -1\\ -1  & -8\\ -9 &-3\end{pmatrix}.\end{align*}

\square

Problema. Considera la matriz

    \begin{align*}A=\begin{pmatrix} 1 & 1& 0 \\ 0 & 1 &1\\ 0 &0 & 1 \end{pmatrix}\end{align*}

  • Demuestra que A satisface que (A-I_3)^3=O_3
  • Calcula A^{n} para cualquier entero positivo n.

Solución.

  • Hacemos el cálculo directamente:

        \begin{align*}(A-I_3)^3&= \begin{pmatrix} 0 & 1 & 0\\0 & 0 &1\\ 0 & 0 &0 \end{pmatrix}^{2} \cdot \begin{pmatrix} 0 & 1 &0 \\ 0 & 0 & 1\\ 0 & 0 &0 \end{pmatrix} \\&= \begin{pmatrix} 0 & 0 & 1\\ 0 & 0 & 0\\ 0 &0 &0\end{pmatrix}\cdot \begin{pmatrix} 0 & 1 &0 \\ 0 & 0 & 1\\ 0 & 0 &0 \end{pmatrix}\\&=O_3. \end{align*}

  • Para este tipo de problemas, una estrategia que funciona es hacer casos pequeños para hacer una conjetura, y luego demostrarla por inducción. Probando para algunos valores de n conjeturamos que

        \begin{align*}A^{n}=\begin{pmatrix} 1 & n & \frac{n(n-1)}{2}\\ 0 & 1 & n\\ 0 & 0 &1 \end{pmatrix}.\end{align*}


    Lo demostramos por inducción sobre n, dando por cierto el caso base con n=1.
    Hagamos ahora el paso inductivo. Para esto usamos que 1+\dots + (n-1)= \frac{n(n-1)}{2}.
    Nuestra hipótesis de inducción nos dice entonces que para cierto n se tiene que A^{n}=\begin{pmatrix} 1 & n & 1+\dots +(n-1) \\ 0 & 1 & n\\ 0 & 0 & 1\end{pmatrix}. Usando que A^{n+1}=A^{n}\cdot A con nuestra hipótesis de inducción se sigue:

        \begin{align*}A^{n+1}= A^{n}\cdot A&= \begin{pmatrix} 1 & n & 1+\dots +(n-1)\\ 0 & 1 &n\\ 0 & 0 &1\end{pmatrix} \cdot \begin{pmatrix} 1 & 1 & 0\\ 0 & 1 & 1\\ 0 & 0 & 1\end{pmatrix}\\ &= \begin{pmatrix} 1 & 1+n & 1+\dots + (n-1)+n\\ 0 & 1 & n\\ 0 & 0 &1\end{pmatrix}.\end{align*}


    Luego el resultado es cierto para n+1 y así queda demostrado el resultado.

\square

El siguiente problema combina temas de números complejos y de matrices invertibles. Para que lo entiendas a profundidad, es útil recordar la teoría de raíces n-ésimas de la unidad. Puedes revisar esta entrada del blog. El ejemplo puede parecer un poco artificial. Sin embargo, las matrices que se definen en él tienen muchas aplicaciones, por ejemplo, en procesamiento de señales.

Problema. Sea n>1 un natural y sea

    \begin{align*}\zeta= e^{\frac{2\pi i}{n}}= \cos \left( \frac{2\pi}{n}\right)+i\sin \left( \frac{2\pi}{n}\right).\end{align*}

Este número puede parecer muy feo, pero es simplemente la raíz n-ésima de la unidad de menor argumento.

Definimos la matriz de Fourier de orden n, denotada por \mathcal{F}_n como la matriz tal que su (j,k)-ésima entrada es \zeta^{(j-1)(k-1)} para 1\leq j,k\leq n.

  • a) Sea \overline{\mathcal{F}_n} la matriz cuya (j,k)-ésima entrada es el conjugado complejo de la (j,k)-ésima entrada de \mathcal{F}_n. Demuestra que

        \begin{align*}\mathcal{F}_n\cdot \overline{\mathcal{F}_n} = \overline{\mathcal{F}_n}\cdot \mathcal{F}_n= nI_n.\end{align*}

  • b) Deduce que \mathcal{F}_n es invertible y calcule su inversa.

Solución.

  • a) Sean 1\leq j,k\leq n. Usando la regla del producto, podemos encontrar la entrada (j,k) como sigue:

        \begin{align*}\left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n} \right)_{jk} &= \sum_{l=1}^{n} \left(\mathcal{F}_n\right)_{jl} \cdot \left(\overline{\mathcal{F}_n}\right)_{lk}\\&= \sum_{l=1}^{n} \zeta^{(j-1)(l-1)} \cdot \overline{\zeta^{(l-1)(k-1)}}\\&= \sum_{l=1}^{n} \zeta^{(j-1)(l-1)-(l-1)(k-1)}, \end{align*}


    la última igualdad se debe a que \overline{\zeta}= \zeta^{-1}. Así

        \begin{align*}\left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n}\right)_{jk}=\sum_{l=1}^{n}\zeta^{(l-1)(j-k)}=\sum_{l=0}^{n-1}\left( \zeta^{j-k}\right)^{l}.\end{align*}


    Y la suma de la derecha es la suma de una sucesión geométrica con razón \zeta^{j-k}. Si j=k, entonces \zeta^{j-k}=1, así que la suma es igual a n ya que cada termino es 1 y lo sumamos n veces. Si j\neq k entonces \zeta^{j-k}\neq 1 y usamos la fórmula para una suma geométrica:

        \begin{align*}\sum_{l=0}^{n-1} \left( \zeta^{j-k}\right)^{l}= \frac{1-\left(\zeta^{j-k}\right)^{n}}{1-\zeta^{j-k}}=\frac{1-(\zeta^{n})^{j-k}}{1-\zeta^{j-k}}=0.\end{align*}


    Usamos en la última igualdad que \zeta^{n}=1. Se sigue que \left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n}\right)_{jk} es n si j=k y 0 de otra manera, es decir

        \begin{align*}\mathcal{F}_n\cdot\overline{\mathcal{F}_n}=n\cdot I_n.\end{align*}


    La igualdad simétrica \overline{\mathcal{F}_n}\cdot \mathcal{F}_n=n \cdot I_n se prueba de la misma manera y omitimos los detalles.
  • b) Por el inciso anterior, sugerimos \frac{1}{n} \overline{\mathcal{F}_n}, y esta satisface

        \begin{align*}\mathcal{F}_n \cdot \frac{1}{n} \overline{\mathcal{F}_n} = \frac{1}{n} \cdot n I_n= I_n\end{align*}


    y la otra igualdad se verifica de la misma manera. Por lo tanto, \mathcal{F}_n es invertible y su inversa es \frac{1}{n} \overline{\mathcal{F}_n}.

\square

Problema. Sean A,B\in M_n(\mathbb{R}) matrices tales que

    \begin{align*}A+B=I_n \hspace{5mm} A^2+B^2=O_n\end{align*}

Demuestra que A y B son invertibles y que satisfacen

    \begin{align*}(A^{-1}+B^{-1})^{n}=2^{n} I_n\end{align*}

Solución. Observamos que las propiedades dadas nos permiten calcular

    \begin{align*}A(I_n+B-A)&= (I_n-B) (I_n+B-A)\\&=I_n+B-A-B-B^2+BA\\&= I_n -A-B^2+BA \\&=I_n+(B-I_n)A-B^2\\ &=I_n-A^2-B^2\\&= I_n.\end{align*}

Es decir A^{-1}=I_n+B-A (falta demostrar que con esta propuesta, también se cumple A^{-1}A=I_n, omitimos los cálculos). Similarmente B^{-1}= I_n+A-B y por tanto A^{-1}+B^{-1}= 2\cdot I_n y de esta igualdad se sigue la segunda parte del problema, pues

    \begin{align*}\left(A^{-1}+B^{-1}\right)^{n}= \left( 2\cdot I_n\right)^{n}=2^{n} \cdot I_n.\end{align*}


\square