Archivo del Autor: Ayax Calderón

Álgebra Lineal I: Inversa de matrices con reducción gaussiana

Introducción

En entradas anteriores hablamos de las matrices en forma escalonada reducida y de cómo cualquier matriz puede ser llevada a esta forma usando el algoritmo de reducción gaussiana. Usamos esto para resolver sistemas de ecuaciones lineales arbitrarios, es decir, de la forma AX=b. en esta ocasión estudiaremos cómo determinar mediante reducción gaussiana si una matriz es invertible y, en caso de serlo, cómo calcular su inversa.

Inversas de matrices elementales

Recordemos que una matriz A\in M_n(F) es invertible si existe una matriz B tal que AB=BA=I_n. Dicha matriz B es única, se conoce como la matriz inversa de A y se denota por A^{-1}.

Es importante observar que las matrices elementales son invertibles, puesto que las operaciones elementales se pueden revertir (esto también nos dice que la inversa de una matriz elemental también es una matriz elemental). Por ejemplo, si la matriz E se obtiene de I_n intercambiando los renglones i y j, entonces E^{-1} se obtiene de I_n haciendo la misma operación, por lo que E^{-1}=E. Por otro lado, si E se obtiene de sumar \lambda veces el renglón j al renglón i en I_n, entonces E^{-1} se obtiene de sumar -\lambda veces el renglón j al renglón i en I_n. El argumento para reescalamientos queda como tarea moral.

Debido a su importancia, enunciaremos este resultado como una proposición.

Proposición. Las matrices elementales son invertibles y sus inversas también son matrices elementales. Como consecuencia, cualquier producto de matrices elementales es invertible.

Algunas equivalencias de matrices invertibles

Hasta el momento sólo tenemos la definición de matrices invertibles para verificar si una matriz es invertible o no. Esto es poco práctico, pues dada una matriz, tendríamos que sacar otra «de la nada».

El siguiente resultado empieza a decirnos cómo saber de manera práctica cuándo una matriz cuadrada es invertible. También habla de una propiedad importante que cumplen las matrices invertibles.

Teorema. Para una matriz A\in M_n(F) las siguientes afirmaciones son equivalentes:
(a) A es invertible.
(b) A_{red}=I_n.
(c) A es producto de matrices elementales.

Demostración. Para empezar, notemos que el producto de matrices invertibles es invertible , pues cualquier matriz elemental es invertible y las matrices invertibles son estables bajo productos. Esto prueba que (c) implica (a).

Ahora, supongamos que (a) se satisface. Recordemos que para una matriz A\in M_{m,n}(F) podemos encontrar una matriz B\in M_m(F) que es producto de matrices elementales y tal que A_{red}=BA. Como A es invertible (por hipótesis) y B es invertible (por la proposición de la sección anterior), entonces BA es invertible y por consiguiente A_{red} también lo es. En particular, todos los renglones de A_{red} son distintos de cero y por lo tanto A_{red} tiene n pivotes, uno en cada columna. Como A_{red} está en forma escalonada reducida, necesariamente A_{red}=I_n. Esto prueba que (a) implica (b).

Finalmente, supongamos que (b) se satisface. Entonces existe una matriz B, la cual es producto de matrices elementales y tal que BA=I_n. Por la proposición anterior B es invertible y B^{-1} es producto de matrices elementales. Como BA=I_n, tenemos que A=B^{-1}BA=B^{-1} y así A es producto de matrices elementales, de manera que (b) implica (c).

\square

Ya podemos responder de manera práctica la pregunta «¿A es invertible?». Para ello, basta aplicarle reducción gaussiana a A. Por el teorema anterior, A es invertible si y sólo si la forma escalonada reducida obtenida es I_n. Por supuesto, esto aún no nos dice exactamente quién es la inversa.

Invertibilidad y sistemas de ecuaciones

La siguiente proposición expresa las soluciones del sistema AX=b cuando A es una matriz cuadrada e invertible. Para facilitar las cosas hay que tener un algoritmo para encontrar la inversa de una matriz. Más adelante veremos uno de estos algoritmos basado en reducción gaussiana.

Proposición. Si A\in M_n(F) es una matriz invertible, entonces para todo b\in F^n el sistema AX=b tiene una única solución, dada por X=A^{-1}b.

Demostración. Sea X una solución del sistema. Multiplicando la igualdad AX=b por la izquierda por A^{-1} obtenemos A^{-1}(AX)=A^{-1}b. Como

    \begin{align*}A^{-1}(AX)=(A^{-1}A)X=I_nX=X,\end{align*}


concluimos que X=A^{-1}b, por lo tanto el sistema tiene a lo más una solución. Para ver que esta es en efecto una solución, calculamos

    \begin{align*}A(A^{-1}b)=(AA^{-1})b=I_nb=b.\end{align*}

\square

A continuación presentamos un resultado más, que relaciona matrices invertibles con que sus sistemas lineales correspondientes tengan soluciones únicas.

Teorema. Sea A\in M_n(F) una matriz. Las siguientes afirmaciones son equivalentes:
(a) A es invertible.
(b) Para toda b\in F^n el sistema AX=b tiene una única solución X\in F^n.
(c) Para toda b\in F^n el sistema AX=b es consistente.

Demostración. Ya demostramos que (a) implica (b). Es claro que (b) implica (c) pues si el sistema tiene una única solución, en particular tiene una solución.

Así, supongamos que que (c) se satisface. Sea A_{red} la forma escalonada reducida de A. Por una proposición ya antes mencionada en esta entrada sabemos que existe una matriz B la cual es producto de matrices elementales (por lo tanto invertible) y tal que A_{red}=BA. Deducimos que el sistema A_{red}X=Bb tiene al menos una solución para todo b\in F^n (pues si AX=b, entonces A_{red}X=BAX=Bb).

Ahora, para cualquier b'\in F^n podemos encontrar b tal que b'=Bb, tomando b=B^{-1}b'. Aquí estamos usando que B es invertible por ser producto de matrices elementales. Concluimos que el sistema A_{red}X=b es consistente para cada b\in F^n, pero entonces cualquier renglón de A_{red} debe ser distinto de cero (si la fila i es cero, entonces escogiendo cada vector b con la i-ésima coordenada igual a 1 se obtiene un sistema inconsistente) y, como en la demostración del teorema anterior, se tiene que A_{red}=I_n. Usando el teorema anterior concluimos que A es invertible.

\square

Hasta ahora, al tomar un matriz cuadrada A y proponer una inversa B, la definición de invertibilidad nos exige mostrar ambas igualdades AB=I_n y BA=I_n. Finalmente tenemos las herramientas necesarias para mostrar que basta mostrar una de estas igualdades para que ambas se cumplan.

Corolario. Sean A,B\in M_n(F) matrices.
(a) Si AB=I_n, entonces A es invertible y B=A^{-1}.
(b) Si BA=I_n, entonces A es invertible y B=A^{-1}.

Demostración. (a) Para cada b\in F^n el vector X=Bb satisface

    \begin{align*}AX=A(Bb)=(AB)b=b,\end{align*}


por lo tanto el sistema AX=b es consistente para cada b\in M_n(F). Por el teorema anterior, A es invertible. Multiplicando la igualdad AB=I_n por la izquierda por A^{-1} obtenemos B=A^{-1}AB=A^{-1}, y así B=A^{-1}.
(b) Por el inciso (a), sabemos que B es invertible y A=B^{-1}, pero entonces A es invertible y A^{-1}=B.

\square

Encontrar la inversa usando reducción gaussiana

El corolario anterior nos da una manera práctica de evaluar si una matriz es invertible y, en caso de serlo, de calcular su inversa. En efecto, A es invertible si y sólo si podemos encontrar una matriz X tal que AX=I_n y de aquí X=A^{-1}.

La ecuación AX=I_n es equivalente a los siguientes sistemas lineales:

    \begin{align*}AX_1=e_1, \hspace{2mm}, AX_2=e_2, \hspace{2mm} \dots , \hspace{2mm} AX_n=e_n.\end{align*}


donde e_i es la i-ésima columna de I_n y X_i denota la i-ésima columna de X. Ya sabemos cómo resolver sistemas lineales usando reducción gaussiana. Esto nos da una manera práctica de calcular X: si al menos uno de estos sistemas es inconsistente, entonces A no es invertible; si todos son consistentes, entonces las soluciones X_1,\ldots,X_n son las columnas de la inversa.

En la práctica, uno puede evitar resolver n sistemas lineales considerando el siguiente truco:

En lugar de tomar n matrices aumentadas [A| e_i] considera sólo la matriz aumentada [A|I_n], en la cual agregamos la matriz I_n a la derecha de A (de manera que [A|I_n] tiene 2n columnas). Finalmente sólo hay que encontrar la forma escalonada reducida [A'|X] de la matriz de n\times 2n \hspace{2mm} [A|I_n]. Si A' resulta ser distinto de I_n, entonces A no es inverible. Si A'=I_n, entonces la inversa de A es simplemente la matriz X.

Para ilustrar lo anterior resolveremos el siguiente ejemplo práctico.

Ejemplo. Calcula la inversa de la matriz

    \begin{align*}A= \begin{pmatrix}1 & 5 & 1\\2 & 11 & 5\\9 & -3 & 0\end{pmatrix}.\end{align*}

Solución. Aplicamos reducción gaussiana a la matriz extendida

    \begin{align*}[A|I_3]= \begin{pmatrix}1 & 5 & 1 & 1 & 0 &0\\2 & 11 & 5 & 0 & 1 & 0\\9 & -3 & 0 & 0 & 0 & 1\end{pmatrix}\end{align*}


    \begin{align*}R_2 -2R_1\begin{pmatrix}1 & 5 & 1 & 1 & 0 &0\\0 & 1 & 3 & -2 & 1 & 0\\9 & -3 & 0 & 0 & 0 & 1\end{pmatrix}\end{align*}


    \begin{align*}R_3 -9R_1\begin{pmatrix}1 & 5 & 1 & 1 & 0 &0\\0 & 1 & 3 & -2 & 1 & 0\\0 & -48 & -9 & -9 & 0 & 1\end{pmatrix}\end{align*}


    \begin{align*}R_1 -5R_2\begin{pmatrix}1 & 0 & -14 & 11 & -5 &0\\0 & 1 & 3 & -2 & 1 & 0\\0 & -48 & -9 & -9 & 0 & 1\end{pmatrix}\end{align*}


    \begin{align*}R_3 +48R_2\begin{pmatrix}1 & 0 & -14 & 11 & -5 &0\\0 & 1 & 3 & -2 & 1 & 0\\0 & 0 & 135 & -105 & 48 & 1\end{pmatrix}\end{align*}


    \begin{align*}\frac{1}{135}R_3\begin{pmatrix}1 & 0 & -14 & 11 & -5 &0\\0 & 1 & 3 & -2 & 1 & 0\\0 & 0 & 1 & -\frac{7}{9} & \frac{16}{45} & \frac{1}{135}\end{pmatrix}\end{align*}


    \begin{align*}R_1+14R_3\begin{pmatrix}1 & 0 & 0 & \frac{1}{9} & -\frac{1}{45} &\frac{14}{135}\\0 & 1 & 3 & -2 & 1 & 0\\0 & 0 & 1 & -\frac{7}{9} & \frac{16}{45} & \frac{1}{135}\end{pmatrix}\end{align*}


    \begin{align*}R_2-3R_3\begin{pmatrix}1 & 0 & 0 & \frac{1}{9} & -\frac{1}{45} &\frac{14}{135}\\0 & 1 & 0 & \frac{1}{3} & -\frac{1}{15} & -\frac{1}{45}\\0 & 0 & 1 & -\frac{7}{9} & \frac{16}{45} & \frac{1}{135}\end{pmatrix}\end{align*}


De donde

    \begin{align*}A^{-1}=\begin{pmatrix}\frac{1}{9} & -\frac{1}{45} &\frac{14}{135}\\\frac{1}{3} & -\frac{1}{15} & -\frac{1}{45}\\-\frac{7}{9} & \frac{16}{45} & \frac{1}{135}\end{pmatrix}.\end{align*}


\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Cuál sería la operación elemental inversa a aplicar un reescalamiento por un factor c\neq 0 en el renglón de una matriz?
  • Encuentra la inversa de la matriz

        \begin{align*}\begin{pmatrix}1 & 2 & 1\\2 & 0 & 2\\1 & 2 & 0\end{pmatrix}.\end{align*}


    mediante reducción gaussiana.
  • Resuelve el sistema de ecuaciones

        \begin{align*}\begin{cases}x+2y+2z=1\\2x+y+2z=4\\2x+2y+z=5\end{cases}\end{align*}

  • Sea A\in M_n(F) una matriz tal que A_{red}\neq I_n. Explica por qué A no es invertible.
  • Cuando A no es invertible, la matriz [A|I_n] tiene forma escalonada reducida [A_{red}|X], con A_{red}\neq I_n. ¿Qué sucede si en este caso haces la multiplicación AX? ¿Y la multiplicación XA?
  • Demuestra la primera proposición de esta entrada para operaciones elementales sobre las columnas.

Álgebra Lineal I: Más ejemplos de reducción gaussiana

Introducción

En esta entrada veremos varios ejemplos que nos ayudarán a comprender que la reducción gaussiana es una herramienta muy poderosa a la hora de resolver sistemas de ecuaciones lineales.

Problema. Implementa el algoritmo de reducción gaussiana en la matriz

    \begin{align*}A=\begin{pmatrix}0 & 2 & 1 & 1 & 2\\1 & 1 & 0 & 2 & 1\\-3 & 1 & 1 & 0 & 2\\1 & 1 & 1 & 1 & 1\end{pmatrix}\end{align*}

Solución. Para este problema usaremos la siguiente notación para indicar las operaciones elementales que estamos efectuando :

  • R_i \leftrightarrow R_j para intercambiar el renglón i con el renglón j.
  • kR_i para multiplicar el renglón i por el escalar k.
  • R_i + kR_j para sumarle k veces el renglón j al renglón i.


    \begin{align*}A=&\begin{pmatrix}0 & 2 & 1 & 1 & 2\\1 & 1 & 0 & 2 & 1\\-3 & 1 & 1 & 0 & 2\\1 & 1 & 1 & 1 & 1\end{pmatrix}\\ R_1 \leftrightarrow R_2 & \begin{pmatrix}1 & 1 & 0 & 2 & 1\\0 & 2 & 1 & 1 & 2\\-3 & 1 & 1 & 0 & 2\\1 & 1 & 1 & 1 & 1\end{pmatrix}\\R_4 - R_1&\begin{pmatrix}1 & 1 & 0 & 2 & 1\\0 & 2 & 1 & 1 & 2\\-3 & 1 & 1 & 0 & 2\\0 & 0 & 1 & -1 & 0\end{pmatrix}\\R_3 + 3R_1&\begin{pmatrix}1 & 1 & 0 & 2 & 1\\0 & 2 & 1 & 1 & 2\\0 & 4 & 1 & 6 & 5\\0 & 0 & 1 & -1 & 0\end{pmatrix}\\\frac{1}{2}R_2& \begin{pmatrix}1 & 1 & 0 & 2 & 1\\0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\0 & 4 & 1 & 6 & 5\\0 & 0 & 1 & -1 & 0\end{pmatrix}\\R_3 - 4R_2&\begin{pmatrix}1 & 1 & 0 & 2 & 1\\0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\0 & 0 & -1 & 4 & 1\\0 & 0 & 1 & -1 & 0\end{pmatrix}\end{align*}


    \begin{align*}R_1 - R_2& \begin{pmatrix}1 & 0 & -\frac{1}{2} & \frac{3}{2} & 0\\0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\0 & 0 & -1 & 4 & 1\\0 & 0 & 1 & -1 & 0\end{pmatrix}\\-1\cdot R_3 &\begin{pmatrix}1 & 0 & -\frac{1}{2} & \frac{3}{2} & 0\\0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\0 & 0 & 1 & -4 & -1\\0 & 0 & 1 & -1 & 0\end{pmatrix}\\R_4 - R_3& \begin{pmatrix}1 & 0 & -\frac{1}{2} & \frac{3}{2} & 0\\0 & 1 & \frac{1}{2} & \frac{1}{2} & 1\\0 & 0 & 1 & -4 & -1\\0 & 0 & 0 & 3 & 1\end{pmatrix}\\R_2 - \frac{1}{2} R_3& \begin{pmatrix}1 & 0 & -\frac{1}{2} & \frac{3}{2} & 0\\0 & 1 & 0 & \frac{5}{2} & \frac{3}{2}\\0 & 0 & 1 & -4 & -1\\0 & 0 & 0 & 3 & 1\end{pmatrix} \\R_1 + \frac{1}{2}R_3& \begin{pmatrix}1 & 0 & 0 & -\frac{1}{2} & -\frac{1}{2}\\0 & 1 & 0 & \frac{5}{2} & \frac{3}{2}\\0 & 0 & 1 & -4 & -1\\0 & 0 & 0 & 3 & 1\end{pmatrix}\end{align*}


    \begin{align*}\frac{1}{3} R_4&\begin{pmatrix}1 & 0 & 0 & -\frac{1}{2} & -\frac{1}{2}\\0 & 1 & 0 & \frac{5}{2} & \frac{3}{2}\\0 & 0 & 1 & -4 & -1\\0 & 0 & 0 & 1 & \frac{1}{3}\end{pmatrix}\\R_3 + 4R_4& \begin{pmatrix}1 & 0 & 0 & -\frac{1}{2} & -\frac{1}{2}\\0 & 1 & 0 & \frac{5}{2} & \frac{3}{2}\\0 & 0 & 1 & 0 & \frac{1}{3}\\0 & 0 & 0 & 1 & \frac{1}{3}\end{pmatrix} \\R_2 - \frac{5}{2}R_4& \begin{pmatrix}1 & 0 & 0 & -\frac{1}{2} & -\frac{1}{2}\\0 & 1 & 0 & 0 & \frac{2}{3}\\0 & 0 & 1 & 0 & \frac{1}{3}\\0 & 0 & 0 & 1 & \frac{1}{3}\end{pmatrix} \\R_1 + \frac{1}{2}R_4& \begin{pmatrix}1 & 0 & 0 & 0 & -\frac{1}{3}\\0 & 1 & 0 & 0 & \frac{2}{3}\\0 & 0 & 1 & 0 & \frac{1}{3}\\0 & 0 & 0 & 1 & \frac{1}{3}\end{pmatrix}\\=&A_{red}\end{align*}

\square

Problema. Resuelve el siguiente sistema homogéneo.

    \begin{align*}\begin{cases}x+2y-3z &=0\\2x+5y+2z &=0\\3x-y-4z &=0\end{cases}\end{align*}

Solución. La matriz asociada al sistema anterior es

    \begin{align*}\begin{pmatrix}1 & 2 & -3\\2 & 5 & 2\\3 & -1 & -4 \end{pmatrix}\end{align*}


Para resolver el sistema AX=0 nos bastará con encontrar A_{red}, pues el sistema A_{red}X=0 es equivalente al sistema AX=0.

    \begin{align*}&\begin{pmatrix}1 & 2 & -3\\2 & 5 & 2\\3 & -1 & -4\end{pmatrix}\\R_2 -2R_1&\begin{pmatrix}1 & 2 & -3\\0 & 1 & 8\\3 & -1 & -4\end{pmatrix}\\R_3 - 3R_1&\begin{pmatrix}1 & 2 & -3\\0 & 1 & 8\\0 & -7 & 5\end{pmatrix}\\ R_1 - 2R_2&\begin{pmatrix}1 & 0 & -19\\0 & 1 & 8\\0 & -7 & 5\end{pmatrix}\\R_3 + 7R_2&\begin{pmatrix}1 & 0 & -19\\0 & 1 & 8\\0 & 0 & 61\end{pmatrix}\\R_2 - \frac{8}{61}R_3&\begin{pmatrix}1 & 0 & -19\\0 & 1 & 0\\0 & 0 & 61\end{pmatrix}\\R_1 + \frac{19}{61}R_3&\begin{pmatrix}1 & 0 & 0\\0 & 1 & 0\\0 & 0 & 61\end{pmatrix}\\ \frac{1}{61}R_3&\begin{pmatrix}1 & 0 & 0\\0 & 1 & 0\\0 & 0 & 1\end{pmatrix}\\&=A_{red}\end{align*}

De lo anterior se sigue que para resolver el sistema AX=0 basta con resolver el sistema

    \begin{align*}\begin{pmatrix}1 & 0 & 0\\0 & 1 & 0\\0 & 0 & 1\end{pmatrix} \begin{pmatrix}x\\y\\z\end{pmatrix}= \begin{pmatrix}0\\0\\0\end{pmatrix}.\end{align*}


Pero este sistema es el sistema

    \begin{align*}\begin{cases} x = 0\\ y = 0 \\ z = 0. \end{cases}\end{align*}

De esta forma, x=y=z=0 es la (única) solución al sistema original.

\square

Problema. Determina las soluciones fundamentales del sistema homogéneo AX=0, donde A es la matriz

    \begin{align*}A=\begin{pmatrix}1 & -2 & 1 & 0\\-2 & 4 & 0 & 2\\-1 & 2 & 1 & 2\end{pmatrix}.\end{align*}

Solución. Sea AX=0 el sistema

    \begin{align*}\begin{pmatrix}1 & -2 & 1 & 0\\-2 & 4 & 0 & 2\\-1 & 2 & 1 & 2\end{pmatrix} \begin{pmatrix}x\\y\\z\\w \end{pmatrix} = \begin{pmatrix}0\\0\\0 \end{pmatrix}\end{align*}

Para este problema nuevamente nos interesa llevar la matriz asociada al sistema a su forma escalonada reducida.

Aunque es muy importante saber cómo se hacen estos procedimientos, es cierto que también existen herramientas que nos ayudan a hacer estos cálculos de manera más rápida. En esta ocasión usaremos una calculadora de forma reducida escalonada disponible en línea, la cual nos indica que la forma escalonada reducida de la matriz A es

    \begin{align*}A_{red}=\begin{pmatrix}1 & -2 & 0 & -1\\0 & 0 & 1 & 1\\0 & 0 & 0 & 0\end{pmatrix}.\end{align*}

De esta forma, el sistema del problema es equivalente al sistema A_{red}X=0

    \begin{align*}\begin{pmatrix}1 & -2 & 0 & -1\\0 & 0 & 1 & 1\\0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix}x\\y\\z\\w \end{pmatrix} = \begin{pmatrix}0\\0\\0 \end{pmatrix}\end{align*}


Las variables pivote son x y z. Las variables libres son y y w.

Como se mencionó en una entrada anterior, para encontrar las soluciones fundamentales hay que expresar a las variables pivote en términos de las variables libres. En el sistema anterior podemos notar que

    \begin{align*}\begin{cases}x =2y+w\\z=-w.\end{cases}\end{align*}


por lo que

    \begin{align*}\begin{pmatrix}x\\y\\z\\w\end{pmatrix}&=\begin{pmatrix}2y+w\\y\\-w\\w\end{pmatrix}\\&=y\begin{pmatrix}2\\1\\0\\0\end{pmatrix} + w \begin{pmatrix}1\\0\\-1\\1\end{pmatrix}\end{align*}


siendo los vectores columna de la última igualdad las soluciones fundamentales del sistema AX=0, es decir que con estas soluciones se pueden generar todas las demás.

\square

Hasta ahora hemos visto ejemplos de reducción gaussiana de matrices de tamaño muy concreto y entradas muy concretas. Sin embargo, otra habilidad importante es aprender a usar reducción gaussiana en una matriz de tamaño arbitrario, con algunas entradas específicas. Veamos un ejemplo de cómo hacer esto.

Problema. Sea n>2 un número entero. Resuelve en números reales el sistema

    \begin{align*}x_2=\frac{x_1+x_3}{2}, x_3= \hspace{2mm} \frac{x_2+x_4}{2}, \hspace{2mm} \dots , \hspace{2mm}, x_{n-1}=\frac{x_{n-2}+x_n}{2}.\end{align*}

Solución. Este es un sistema lineal homogéneo de ecuaciones. Esto se puede verificar multiplicando cada ecuación por 2 e igualándola a 0. Por ejemplo, la primer ecuación se puede escribir como x_1-2x_2+x_3=0. Transformando el resto de las ecuaciones, obtenemos que el sistema se puede escribir en forma matricial como AX=0, dondeA es la matriz en M_{n-2,n}(F) dada por

    \begin{align*}\begin{pmatrix}1 & -2 & 1 & 0 & 0 & \cdots & 0 & 0 & 0 \\0 & 1 & -2 & 1 & 0  & \cdots & 0 & 0 & 0 \\0 & 0 & 1 & -2 & 1 & \cdots & 0 & 0 & 0 \\0 & 0 & 0 & 1 & -2 &  \cdots & 0 & 0 & 0 \\& \vdots & & \vdots  & & \ddots & & \vdots &\\0 & 0 & 0 & 0 & 0 & \cdots & -2 & 1 & 0\\0 & 0 & 0 & 0 & 0 & \cdots & 1 &- 2 & 1\end{pmatrix}. \end{align*}

Esta matriz se ve algo intimidante, pero igual se le puede aplicar reducción gaussiana. Hagamos esto.

Afortunadamente, en cada fila ya tenemos un pivote y están «escalonados». Basta con hacer transvecciones para asegurar que en cada columna de un pivote, el pivote es la única entrada no cero. Haremos los primeros pasos para encontrar un patrón de qué va sucediendo.

En el primer paso, sumamos dos veces la fila 2 a la primer fila. Al hacer esto obtenemos:

    \begin{align*}\begin{pmatrix}1 & 0 & -3 & 2 & 0 & \cdots & 0 & 0 & 0 \\0 & 1 & -2 & 1 & 0 & \cdots & 0 & 0 & 0 \\0 & 0 & 1 & -2 & 1 & \cdots & 0 & 0 & 0 \\0 & 0 & 0 & 1 & -2 & \cdots & 0 & 0 & 0 \\& \vdots & & \vdots & & \ddots & & \vdots &\\0 & 0 & 0 & 0 & 0 & \cdots & -2 & 1 & 0\\0 & 0 & 0 & 0 & 0 & \cdots & 1 &- 2 & 1\end{pmatrix}.\end{align*}

Con esto la segunda columna ya queda lista. El el siguiente paso, multiplicamos por 3 (y 2) la tercer fila y se lo sumamos a la primera fila (y segunda, respectivamente). Obtenemos:

    \begin{align*}\begin{pmatrix}1 & 0 & 0 & -4 & 3 & \cdots & 0 & 0 & 0 \\0 & 1 & 0 & -3 & 2 & \cdots & 0 & 0 & 0 \\0 & 0 & 1 & -2 & 1 & \cdots & 0 & 0 & 0 \\0 & 0 & 0 & 1 & -2 & \cdots & 0 & 0 & 0 \\& \vdots & & \vdots & & \ddots & & \vdots &\\0 & 0 & 0 & 0 & 0 & \cdots & -2 & 1 & 0\\0 & 0 & 0 & 0 & 0 & \cdots & 1 &- 2 & 1\end{pmatrix}.\end{align*}

Para el siguiente paso, ahora hay que multiplicar por 4 (3, 2) la cuarta fila y sumárselo a la primera (segunda, tercera, respectivamente), y obtenemos:

    \begin{align*}\begin{pmatrix}1 & 0 & 0 & 0 & -5 & 4 & \cdots & 0 & 0 & 0 \\0 & 1 & 0 & 0 & -4 & 3 & \cdots & 0 & 0 & 0 \\0 & 0 & 1 & 0 & -3 & 2 &\cdots & 0 & 0 & 0 \\0 & 0 & 0 & 1 & -2 & 1 & \cdots & 0 & 0 & 0 \\& \vdots & & \vdots & & & \ddots & & \vdots &\\0 & 0 & 0 & 0 & 0 & 0 & \cdots & -2 & 1 & 0\\0 & 0 & 0 & 0 & 0 & 0 &\cdots & 1 &- 2 & 1\end{pmatrix}.\end{align*}

El patrón es ahora claro. Conforme arreglamos la columna j, luego la columna j+1 tiene a los números -(j+1), -j, \ldots, -3, -2 y la columna j+2 tiene a los números j,j-1,j-2,\ldots,1,-2,1. Esto puede demostrarse formalmente por inducción. Al arreglar la columna n-2, la matriz queda en la siguiente forma escalonada reducida:

    \begin{align*}\begin{pmatrix}1 & 0 & 0 & 0 & 0 & \cdots & 0 & -(n-1) & n-2 \\0 & 1 & 0 & 0 & 0 & \cdots & 0 & -(n-2) & n-3 \\0 & 0 & 1 & 0 & 0 & \cdots & 0 & -(n-3) & n-4 \\0 & 0 & 0 & 1 & 0 & \cdots & 0 & -(n-4) & n-5 \\& \vdots & & \vdots & & \ddots & & \vdots &\\0 & 0 & 0 & 0 & 0 & \cdots & 0 & -3 & 2\\0 & 0 & 0 & 0 & 0 & \cdots & 1 & -2 & 1\end{pmatrix}.\end{align*}

Estamos listos para resolver el sistema asociado. Las variables libres son x_{n-1} y x_n, que podemos darles valores arbitrarios a y b. Las variables pivote son todas las demás, y de acuerdo a la forma de la matriz anterior, están dadas por

    \begin{align*}x_1&=(n-1)a - (n-2) b\\x_2&=(n-2)a - (n-3) b\\x_3&=(n-3)a - (n-4) b\\&\vdots\\x_{n-2}&=2a- b. \end{align*}

Esto determina todas las soluciones.

\square

Álgebra Lineal I: Problemas de sistemas de ecuaciones y forma escalonada reducida

Introducción

En esta entrada nos encargaremos de resolver algunos problemas de sistemas de ecuaciones lineales y de dar algunos ejemplos más de matrices en forma escalonada reducida.

Problemas de sistemas de ecuaciones lineales

Problema. ¿Para cuáles números reales a se tiene que el siguiente sistema es consistente?. Resuelve el sistema para estos casos.

    \begin{align*}\begin{cases}x + 2y &=1\\4x+8y &=a.\end{cases}\end{align*}

Solución. Tomando la primera ecuación y multiplicandola por 4 vemos que

    \begin{align*}4x+8y=4\end{align*}

De lo anterior se sigue que el único número real a para el cuál el sistema es consistente es a=4, pues en otro caso tendríamos ecuaciones lineales que se contradicen entre sí.

Cuando a=4, tenemos entonces una única ecuación x+2y=1. Para encontrar todas las soluciones a esta ecuación lineal, podemos fijar el valor de y arbitrariamente como un número real r. Una vez fijado y, obtenemos que x=1-2y=1-2r. Así, el conjunto de soluciones es

    \[\{(1-2r,r): r \in \mathbb{R}\}.\]

\square

Problema. Encuentra todos a,b\in\mathbb{R} para los cuales los sistemas

    \begin{align*}\begin{cases}2x + 3y &=-2\\x - 2y &=6\end{cases}\end{align*}


y

    \begin{align*}\begin{cases}x + 2ay &=3\\-x - y &=b\end{cases}\end{align*}


son equivalentes.

Solución. Para resolver el primer sistema tomamos la segunda ecuación y despejamos x:

    \begin{align*}x=6+2y.\end{align*}


Sustituyendo lo anterior en la primera ecuación se tiene

    \begin{align*}2(6+2y)+3y&=-2\\ 12+7y&=-2\\7y&=-14\\y&=-2.\end{align*}


Luego sustituimos el valor de y para encontrar x

    \begin{align*}x&=6+2y\\&=6+2(-2)\\&=2.\end{align*}


Ahora, para encontrar los valores de a y b, sustituimos los valores de x y y que encontramos en el primer sistema y de esta forma garantizamos que ambos sistemas tendrán el mismo conjunto de soluciones, es decir, son equivalentes.

    \begin{align*}\begin{cases}x + 2ay &=3\\-x - y &=b\end{cases}\end{align*}


    \begin{align*}\begin{cases}2 + 2a(-2) &=3\\-2 - (-2) &=b\end{cases}\end{align*}


De la segunda ecuación es inmediato que b=0.
Por otro lado, despejando a de la primera ecuación se tiene

    \begin{align*}2-4a&=3\\-4a&=1\\a&=-\frac{1}{4}\end{align*}


Concluimos que los sistemas son equivalentes cuando

    \begin{align*}a=-\frac{1}{4}, \hspace{4mm} b=0.\end{align*}

\square

Más ejemplos de forma escalonada reducida

Para finalizar con esta entrada veremos más ejemplos de matrices que están en forma escalonada reducida y de matrices que no lo están.

Ejemplo. La matriz

    \begin{align*}\begin{pmatrix}2 & -1 & 3 & 1\\1 & 0 & 2 & 2\\3 & 1 & 7 & 0\\1 & 2 & 4 & -1\end{pmatrix}\end{align*}


no está en forma escalonada reducida, pues todas las entradas de la primera columna son distintas de cero.
En cambio, la matriz

    \begin{align*}\begin{pmatrix}1 & 0 & 2 & 0\\0 & 1 & 1 & 0\\0 & 0 & 0 & 1\\0 & 0 & 0 & 0\end{pmatrix}\end{align*}


sí está en forma escalonada reducida. Queda como tarea moral verificar que esto es cierto.

\square

Ejemplo. La matriz

    \begin{align*}\begin{pmatrix}0 & 0 & 0 & 0 & 0\\0 & 1 & -5 & 2 & 0\\0 & 0 & 0 & 0 & 3\\0 & 0 & 0 & 0 & 0\end{pmatrix}\end{align*}


no está en forma escalonada reducida, pues hay filas cero por encima de filas no cero. Otro problema que tiene es que el pivote de la tercer fila no es igual a 1.


En cambio

    \begin{align*}\begin{pmatrix}1 & 0 & 0 & 0 & -1\\0 & 1 & 0 & 0 & 2\\0 & 0 & 1 & 0 & 1\\0 & 0 & 0 & 1 & 1\end{pmatrix}\end{align*}


sí está en forma escalonada reducida.

\square

Ejemplo. La matriz \begin{pmatrix} 0 & 1 & 2  \\ 1 & 0 & 0 \end{pmatrix} no está en forma escalonada reducida pues el pivote de la segunda fila está más a la izquierda que el de la primera. Sin embargo, si intercambiamos las filas, la matriz \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \end{pmatrix} sí está en forma escalonada reducida.

\square

Más adelante veremos un método para llevar una matriz a su forma escalonada reducida y veremos que esto es muy útil para resolver sistemas de ecuaciones lineales.

Álgebra Lineal I: Problemas de transpuesta de matriz y matrices de bloque

Introducción

En esta entrada ejercitaremos los conceptos de matriz transpuesta y matriz de bloque mediante ejercicios resueltos. Además, para los últimos tres problemas definiremos un concepto que aunque no se estudia a fondo en este curso, aparece en muchas áreas de las matemáticas y de la física.

Problemas resueltos

Problema. Sea A\in M_n(\mathbb{R}) una matriz con una única entrada distinta de cero en cada renglón y columna, dicha entrada es igual a 1 ó -1. Demuestra que A es una matriz ortogonal.

Solución. Sea A=[a_{ij}]. Queremos ver que A^{-1}= ^tA. Sean i,j\in \{1, 2, \dots , n\}. Entonces la entrada (i,j)-ésima de A \ ^t A es

    \begin{align*}(A\ {^tA})_{ij}=\displaystyle\sum_{k=1}^na_{ik}a_{jk}.\end{align*}

Supongamos que a_{ik}a_{jk} es distinto de cero para algún k\in \{1,2,\dots n\}, por tanto a_{ik} y a_{jk} son distintos de cero.
Si sucediera que i\neq j, entonces A tiene al menos dos entradas distintas de cero en la columna k, pero esto es imposible. Así, si i\neq j, entonces a_{ik}a_{jk}=0 para todo k\in\{1,2,\dots n\} y por consiguiente la (i,j)-ésima entrada de A\ ^tA es 0.

Por otro lado, si i=j, entonces

    \begin{align*}(A\ ^tA)_{ij}=\displaystyle\sum_{k=1}^na_{ik}^2.\end{align*}

Como por hipótesis se tiene que todas las entradas del i-esimo renglón de A son todas 0 salvo una que es 1 ó -1, entonces \displaystyle\sum_{k=1}^na_{ik}^2=1 y así (A\ ^tA)_{ij}=1 cuando i=j. Concluimos que A\ ^tA=I_n.
Mediante un argumento análogo se ve que ^tA A = I_n.

\square

Problema. a) Sea A\in M_n(\mathbb{R}) una matriz tal que ^tA \cdot A =O_n. Demuestra que A=O_n.
b) ¿El inciso a) seguirá siendo cierto si reemplazamos \mathbb{R} por \mathbb{C}?

Solución. a) Sea A=[A_{ij}]. Por la regla del producto de matrices se tiene que la (i,i)-ésima entrada de ^tA\cdot A es

    \begin{align*}(^tA\cdot A )_{ii} &= \displaystyle\sum_{k=1}^n (^tA)_{ik}A_{ki} \\ &=\displaystyle\sum_{k=1}^n A_{ki}^2.\end{align*}

Como ^tA\cdot A=O_n, concluimos que para toda i\in\{1,2,\dots,n\} se tiene que

    \begin{align*}\displaystyle\sum_{k=1}^n A_{ki}^2=0.\end{align*}

Como cada A_{ki} es un número real, al elevarlo al cuadrado obtenemos números no negativos. De lo anterior se sigue que A_{ki}=0 para toda k\in \{1,2\dots ,n\}. Como la i fue tomada de manera arbitraria, concluimos que A=O_n.
b) El resultado no necesariamente es cierto si cambiamos el campo de los reales por el campo de los complejos. Busquemos una matriz simétrica A\in M_2(\mathbb{C}) tal que ^tA\cdot A= O_2, pero como A es simétrica, lo anterior solamente es A^2=O_2 y además se puede escribir como

    \begin{align*}A=\begin{pmatrix} a & b\\b & d\end{pmatrix}\end{align*}

para algunos números complejos a,b y d. Ahora

    \begin{align*}A^2 &= \begin{pmatrix} a & b\\b & d\end{pmatrix} \cdot \begin{pmatrix}a & b\\b & d\end{pmatrix} \\&=\begin{pmatrix}a^2 +b^2 & b(a+d)\\b(a+d) & b^2+ d^2\end{pmatrix}.\end{align*}

Así que buscamos números complejos a,b,d con al menos uno de ellos distinto de cero y tales que

    \begin{align*}a^2+b^2=0, \hspace{2mm} b(a+d)=0, \hspace{2mm} b^2+d^2=0. \end{align*}

Basta con asegurar que a+d=0 y a^2+b^2=0, para lo cual tomamos a=i, b=1, d=-i .

\square

Producto tensorial

A continuación definiremos el producto tensorial. Es importante mencionar que esto es meramente para ejemplificar la teoría que se ha visto hasta ahora, por lo que no se profundizará en este tema.

Si A=[a_{ij}]\in M_{m_1,n_1}(F) y B\in M_{m_2,n_2}(F) son matrices, entonces definimos el producto de Kronecker o producto tensorial de A y B como la matriz de bloque A\otimes B\in M_{m_1m_2,n_1n_2}(F) definida por

    \begin{align*}A\otimes B = \begin{pmatrix}a_{11}B & a_{12}B & \dots & a_{1,n_1}B\\a_{21}B & a_{22}B & \dots & a_{2,n_1}B\\\vdots & \vdots & \vdots & \vdots\\a_{m_1,1}B & a_{m_1,2}B & \dots & a_{m_1,n_1}B \end{pmatrix}.\end{align*}

Problema. Calcula el producto tensorial de las matrices

    \begin{align*}A=\begin{pmatrix} 0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix}, \hspace{4mm} B=\begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}.\end{align*}

Solución. Usamos directamente la definición de producto tensorial

    \begin{align*}A\otimes B=\begin{pmatrix} 0 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 1 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}\\1\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}\\0\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 1\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}\end{pmatrix}\end{align*}

    \begin{align*}= \begin{pmatrix}0 & 0 & 2 & 1 & 0 & 0\\0 & 0 & 1 & -1 & 0 & 0\\2 & 1 & 0 & 0 & 0 & 0\\1 & -1 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 2 & 1\\0 & 0 & 0 & 0 & 1 & -1\end{pmatrix} \end{align*}

\square

Problema. ¿El producto tensorial es conmutativo?

Solución. En general, el producto tensorial, no es conmutativo. Sean A y B como en el problema anterior. Entonces

    \begin{align*}B\otimes A = \begin{pmatrix}2\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix} & 1\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix}\\1\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix} & -1\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix}\end{pmatrix}\end{align*}


    \begin{align*}=\begin{pmatrix}0 & 2 & 0 & 0 & 1 & 0\\2 & 0 & 0 & 1 & 0 & 0\\0 & 0 & 2 & 0 & 0 & 1\\0 & 1 & 0 & 0 & -1 & 0\\1 & 0 & 0 & -1 & 0 & 0\\0 & 0 & 1 & 0 & 0 & -1\end{pmatrix}.\end{align*}

Comparando con lo obtenido en el problema anterior, ser verifica que el producto tensorial no es conmutativo.

\square

Problema. Verifica que I_m\otimes I_n = I_{mn}.

Solución. Por definición sabemos que I_m\otimes I_n\in M_{mn}(F). Ahora veamos que

    \begin{align*}\begin{pmatrix}1\cdot I_n & 0\cdot I_n & \dots & 0\cdot I_n\\0\cdot I_n & 1 \cdot I_n & \dots & 0\cdot I_n\\\vdots & \vdots &\ddots & \vdots\\0\cdot I_n & 0\cdot I_n & \dots & 1\cdot I_n\end{pmatrix}= I_{mn}.\end{align*}

\square

Álgebra Lineal I: Problemas de eigenvalores, eigenvectores y polinomio característico.

Para esta entrada haremos uso de las definiciones y propiedades básicas de eigenvalores y polinomio característico vistas en las clases del miércoles y viernes de la semana pasada.

Problema 1. Encuentra los valores propios de la matriz.

    \[A=\begin{pmatrix}0 & -1\\1 & 0\end{pmatrix}\]

Solución. Consideremos a A como una matriz con entradas complejas. Sea \lambda un eigenvalor y x un vector no nulo tal que Ax=\lambda x. Si x_1,x_2 son las coordenadas de x, la condición Ax=\lambda x es equivalente a las ecuaciones

    \[-x_2=\lambda x_1, \hspace{0.5cm} x_1=\lamda x_2.\]

Sustituyendo x_1 en la primera ecuación se sigue que -x_2=\lambda ^2 x_2.
Si x_2=0, entonces x_1=0, lo cual es imposible. Por lo tanto x_2\neq 0 y necesariamente \lambda ^2 =-1, entonces \lambda\in \{-i,i\}. Conversamente, i y -i son ambos eigenvalores, ya que podemos escoger x_2=1 y x_1=\lambda como solución del sistema anterior. Así que vista como matriz compleja, A tiene dos valores propios \pm i.

Por otro lado, si vemos a A como matriz con entradas reales, y \lambda\in \mathbb{R} es un eigenvalor y x un eigenvector como arriba, entonces

    \[(\lambda^2 +1)x_2=0.\]

Como \lambda es real, \lambda^2 +1 es distinto de cero y así x_2=0, luego x_1=0 y x=0. Así que, en conclusión, vista como matriz con entradas reales, A no tiene eigenvalores.

Problema 2. Encuentra el polinomio característico y los eigenvalores de la matriz

    \[A=\begin{pmatrix}0 & 1 & 1\\1 & 0 & 1\\1 & 1 & 1\end{pmatrix} \in M_3(F_2).\]

Solución. \chi_A(\lambda)= \det (\lambda I_3 -A)= \det (\lambda I_3 +A) (pues -1=1 en F_2).

\begin{vmatrix}\lambda & 1 & 1\\1 & \lambda & 1\\1 & 1 & \lambda + 1 \end{vmatrix} = \begin{vmatrix}1+ \lambda & 0 & 1\\1 + \lambda & 1+ \lambda & 1\\0 & \lambda & \lambda + 1 \end{vmatrix}

La igualdad anterior se obtiene de sumar la segunda columna a la primera y la tercera columna a la segunda.

Ahora vemos que

\begin{vmatrix}\lambda +1 & 0 & 1\\1+  \lambda & 1+ \lambda & 1\\0 & \lambda & \lambda + 1 \end{vmatrix} = (\lambda +1)\begin{vmatrix}1 & 0 & 1\\1 & 1+ \lambda & 1\\0 & \lambda & \lambda + 1 \end{vmatrix}

=(\lambda +1)(\lambda +1)^2=(\lambda +1)^3.

Por lo tanto, \chi_A(\lambda)=(\lambda +1)^3, y así el único eigenvalor es 1.

\square

Problema 3. Sean a_0, a_1, \dots, a_{n-1}\in F y sea

A=\begin{pmatrix}0 & 0 & 0 & \dots & 0 & a_0\\1 & 0 & 0 & \dots & 0 & a_1\\0 & 1 & 0 & \dots & 0 & a_2\\\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\0 & 0 & 0 & \dots & 1 & a_{n-1}\end{pmatrix}.

Demuestra que

    \[\chi_A=x^n-a_{n-1}x^{n-1}-\dots - a_0.\]

Demostración. Sea P=x^n-a_{n-1}x^{n-1}-\dots -a_1x- a_0. Considera la matriz

    \[B=xI_n-A=\begin{pmatrix}x & 0 & 0 & \dots  & 0 & -a_0\\1 & x & 0 & \dots & 0 & -a_1\\0 & 1 & x & \dots & 0  & -a_2\\\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.\]

Sumando a la primera fila de B la segunda fila multiplicada por x, la tercera fila multiplicada por x^2, \dots, la n-ésima fila multiplicada por x^{n-1} obtenemos la matriz.

    \[C=\begin{pmatrix}0 & 0 & 0 & \dots & 0 & P\\-1 & x & 0 & \dots & 0 & -a_1\\0 & -1 & x & \dots & 0 & -a_2\\\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.\]

Tenemos que \chi_A=\det B = \det C y, desarrollando \det C con respecto a la primera fila, obtenemos

    \[\det C = (-1)^{n+1}P\cdot \begin{vmatrix} -1 & x & \dots & 0\\0 & -1 & \dots & 0\\\vdots & \vdots & \ddots & \vdots \\0 & 0 & \dots & -1\end{vmatrix} = (-1)^{n+1}P(-1)^{n-1}=P.\]

\square

Problema 4. Sea A\in M_n(F) una matriz con polinomio característico

    \[\chi_A(t)=(-1)^nt^n+\dots +a_1t+a_0.\]


Demuestra que\chi_A(0)=a_0. Deduce que A es invertible si y sólo si a_0\neq 0.

Demostración. Es fácil ver que \chi_A(0)=a_0, ya que a_0 es el término independiente. Por otro lado, recordamos que \chi_A(t)=\det(A-tI_n), entonces \chi_A(0)=\det A. se sigue que \chi_A(0)=a_0= \det A, y por la última igualdad sabemos que A es invertible si y sólo si a_0\neq 0.

\square

Problema 5. Demuestra que cualquier matriz A\in M_n(\mathbb{R}) es suma de dos matrices invertibles.

Demostración. Veamos que existen B,C\in M_n(\mathbb{R}) tales que A=B+C.
Definimos la matriz B como: b_{ii}=-1 si a_{ii}=0 y b_{ii}=a_{ii} si a_{ii}\neq 0,b_{ij}=a_{ij} si i>j y b_{ij}=0 si i<j.

Similarmente definimos la matriz C como: c_{ii}=1 si a_{ii}=0, c_{ii}=a_{ii} si a_{ii}\neq 0, c_{ij}=a_{ij} si i<j y c_{ij}=0 si i>j.

Por construcción B y C son matrices triangulares con todas sus entradas diagonales distintas de cero. Por lo tanto 0\not\in\{\det B, \det C\}, es decir, B y C son invertibles. Además por la manera en la que construimos las matrices B y C se tiene que A=B+C.

\square