Archivo de la etiqueta: rango

Seminario de Resolución de Problemas: Rango de matrices y el teorema de factorización PJQ

Introducción

El algunas ocasiones es suficiente saber si una matriz es invertible o no. Sin embargo, esta es una distinción muy poco fina. Hay algunos otros problemas en los que se necesita decir más acerca de la matriz. Podemos pensar que una matriz invertible, como transformación lineal, “guarda toda la información” al pasar de un espacio vectorial a otro. Cuando esto no sucede, nos gustaría entender “qué tanta información se guarda”. El rango de matrices es una forma de medir esto. Si la matriz es de m\times n, el rango es un número entero que va de cero a n. Mientras mayor sea, “más información guarda”.

Por definición, el rango de una matriz A de m\times n es igual a la dimensión del subespacio vectorial de \mathbb{R}^m generado por los vectores columna de A. Una matriz de n\times n tiene rango n si y sólo si es invertible.

Si pensamos a A como la transformación lineal de \mathbb{R}^n a \mathbb{R}^m tal que X\mapsto AX, entonces el rango es precisamente la dimensión de la imagen de A. Esto permite extender la definición de rango a transformaciones lineales arbitrarias, y se estudia con generalidad en un curso de álgebra lineal.

En las siguientes secciones enunciaremos sin demostración algunas propiedades del rango de matrices y las usaremos para resolver problemas.

Propiedades del rango de matrices

Comenzamos enunciando algunas propiedades del rango de matrices

Teorema. Sean m, n y p enteros. Sea B una matriz de n\times p, y A, A' matrices de m\times n. Sean además P una matriz de n\times p cuya transformación lineal asociada es suprayectiva y Q una matriz de r\times m cuya transformación lineal asociada es inyectiva. Entonces:

  1. \rank(A)\leq \min(m,n)
  2. \rank(AB)\leq \min(\rank(A),\rank(B))
  3. \rank(A+A')\leq \rank(A) + \rank(A')
  4. \rank(QA) = \rank(A)
  5. \rank(AP)=\rank(A)

Consideremos el siguiente problema, tomado del libro Essential Linear Algebra de Titu Andreescu.

Problema. Las matrices A y B tienen entradas reales. La matriz A es de 3\times 3, la matriz B es de 2\times 3 y además

    \[AB=\begin{pmatrix} 0 & -1 & -1 \\ -1 & 0 & -1 \\ 1 & 1 & 2 \end{pmatrix}.\]

Determina el valor del producto BA.

Sugerencia pre-solución. Un paso intermedio clave es mostrar que el producto BA es invertible.

Solución. Para empezar, afirmamos que (AB)^2=AB. Esto se puede verificar directamente haciendo el producto de matrices.

Luego, afirmamos que el rango de AB es 2. En efecto, eso se puede hacer fácilmente por definición. Por un lado, la suma de las primeras dos columnas es igual a la tercera, así que el espacio vectorial que generan las tres es de dimensión a lo más dos. Pero es al menos dos, pues las primeras dos columnas son linealmente independientes. Esto muestra la afirmación.

Ahora, usando la propiedad (2) del teorema dos veces, tenemos que

    \begin{align*}\rank(BA)&\geq \rank (A(BA)) \\&\geq \rank (A(BA)B)\\&=\rank((AB)^2) \\&= \rank (AB)\\&=2.\end{align*}

Así, BA es una matriz de 2\times 2 de rango 2 y por lo tanto es invertible.

Consideremos ahora el producto (BA)^3. Desarrollando y usando que (AB)^2=AB, tenemos que

    \begin{align*}(BA)^3 &= BABABA \\&=B(AB)^2 A\\&=BABA\\&=(BA)^2.\end{align*}

Como BA es invertible, entonces (BA)^2 tiene inversa. Si multiplicamos la igualdad (BA)^3 = (BA)^2 por esa inversa, obtenemos que

    \[BA=I_2.\]

\square

El teorema anterior nos permite acotar por arriba el rango del producto de dos matrices. También hay una desigualdad que nos permite acotar por abajo el rango de dicho producto, cuando las matrices son cuadradas.

Teorema (desigualdad de Sylvester). Para matrices A y B de n\times n, se tiene que

    \[\rank(AB)\geq \rank(A) + \rank(B) - n.\]

Problema. La matriz A es de 2020 \times 2020. Muestra que:

  • Si A tiene rango 2017, entonces la matriz A^{673} no puede ser la matriz de 2020\times 2020 de puros ceros, es decir, O_{2020}.
  • Si A tiene rango 2016, entonces la matriz A^{673} puede ser la matriz O_{2020}.

Sugerencia pre-solución. Enuncia una afirmación más general relacionada con el rango que puedas probar por inducción utilizando la desigualdad de Sylvester.

Solución. Para la primer parte, probaremos primero algo más general. Afirmamos que si M es una matriz de n \times n de rango n-s y k es un entero positivo, entonces el rango de la matriz M^k es por lo menos n-ks. Procedemos por inducción sobre k. Si k=1, el resultado es cierto pues M tiene rango n-s=n-1\cdot s.

Supongamos el resultado para cierto entero k. Usando la desigualdad de Sylverster y la hipótesis inductiva, tenemos que

    \begin{align*}\rank(A^{k+1})&\geq \rank(A^k) + \rank(A) - n\\&\geq (n-ks) + (n-s) - n\\&=n-(k+1)s.\end{align*}

Esto muestra la afirmación general.

Si regresamos a la primer parte del problema original y aplicamos el resultado anterior, tenemos que A^{673} es una matriz de rango por lo menos

    \[2020 - 673 \cdot 3 = 2020 - 2019 = 1.\]

De esta forma, A^{673} no puede ser la matriz 0.

Hagamos ahora la segunda parte del problema. Para ello, debemos construir una matriz A de 2020\times 2020 de rango 2016 tal que A^{673} sea la matriz 0. Para ello, consideremos la matriz A tal que sus primeras 4 columnas sean iguales al vector 0, y que sus columnas de la 5 a la 2020 sean los vectores canónicos e_1,\ldots, e_{2016}.

Esta matriz claramente es de rango 2016, pues el espacio generado por sus columnas es el espacio generado por e_1,\ldots, e_{2016}, que es de dimensión 2016. Por otro lado, se puede mostrar inductivamente que para k=1,\ldots,505, se tiene que A^{k} es una matriz en donde sus columnas de 1 a 4k son todas el vector 0, y sus columnas de 4k+1 a 2020 son e_1,\ldots, e_{2020-4k}. En particular, A^{505}=O_{2020}, y entonces A^{673} también es la matriz de puros ceros.

\square

Equivalencias de rango de matrices

Hay muchas formas alternativas para calcular el rango de una matriz. El siguiente teorema resume las equivalencias más usadas en resolución de problemas.

Teorema. Sea A una matriz de m\times n con entradas reales. Los siguientes números son todos iguales:

  • El rango de A, es decir, la dimensión del espacio vectorial generado por los vectores columna de A.
  • La dimensión del espacio vectorial generado por los vectores fila de A. Observa que esto es, por definición, el rango de la transpuesta de A.
  • La cantidad de filas no cero que tiene la forma escalonada reducida de A.
  • (Teorema de rango-nulidad) n-\dim \ker(A), donde \ker(A) es el espacio vectorial de soluciones a AX=0.
  • El tamaño más grande de una submatriz cuadrada de A que sea invertible.
  • La cantidad de eigenvalores complejos distintos de cero contando multiplicidades algebraicas.

Problema. Determina todos los posibles rangos que pueden tener las matrices con entradas reales de la forma

    \[\begin{pmatrix} a & b  & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{pmatrix}.\]

Sugerencia pre-solución. Comienza haciendo casos pequeños. Para dar los ejemplos y mostrar que tienen el rango deseado, usa el teorema de equivalencia de rango para simplificar algunos argumentos.

Solución. El rango de una matriz de 4\times 4 es un entero de 0 a 4. Debemos ver cuáles de estos valores se pueden alcanzar con matrices de la forma dada.

Tomando a=b=c=d=0, obtenemos la matriz O_4, que tiene rango 0. Si a=b=c=d=1, obtenemos la matriz de puros unos, que tiene rango 1. Además, si a=1 y b=c=d=0, obtenemos la matriz identidad, que tiene rango 4.

Si a=b=1 y c=d=0, obtenemos la matriz

    \[A = \begin{pmatrix} 1 & 1 & 0 & 0 \\1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 1 & 1 \end{pmatrix}.\]

Esta matriz tiene sólo dos columnas diferentes, así que su rango es a lo más dos. Pero tiene como submatriz a la matriz

    \[I_2=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix},\]

que tiene rango 2, entonces el rango de A es al menos 2. De esta forma, el rango de A es 2.

Veamos ahora que el rango puede ser 3. Para ello, damos un argumento de determinantes. Llamemos s=a+b+c+d. Sumando las tres últimas filas a la primera y factorizando s, tenemos que

    \begin{align*}\begin{vmatrix} a & b & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}&=\begin{vmatrix} s & s & s & s \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}\\&=s\begin{vmatrix} 1 & 1 & 1 & 1 \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}.\end{align*}

Así, si tomamos a=b=c=1 y d=-3, entonces s=0 y por lo tanto la matriz B que obtenemos no es invertible, así que su rango es a lo más tres. Pero además es de rango al menos tres pues B tiene como submatriz a

    \[\begin{pmatrix} 1 & 1 & -3 \\ 1 & -3 & 1  \\ -3 & 1 & 1 \end{pmatrix},\]

que es invertible pues su determinante es

    \[-3-3-3-1-1+27=16\neq 0.\]

Concluimos que los posibles rangos que pueden tener las matrices de esa forma son 0,1,2,3,4.

\square

El teorema de factorización PJQ

Existen diversos teoremas que nos permiten factorizar matrices en formas especiales. De acuerdo a lo que pida un problema, es posible que se requiera usar uno u otro resultado. El teorema de factorización más útil para cuando se están resolviendo problemas de rango es el siguiente.

Teorema (factorización PJQ). Sea A una matriz de m\times n y r un entero en \{0,\ldots,\min(m,n)\}. El rango de A es igual a r si y sólo si existen matrices invertibles P de m\times m y Q de n\times n tales que A=PJ_rQ, en donde J_r es la matriz de m\times n cuyas primeras r entradas de su diagonal principal son 1 y todas las demás entradas son cero, es decir, en términos de matrices de bloque,

    \[J_r=\begin{pmatrix}I_r & O_{r,n-r} \\O_{m-r,r} & O_{m-r,n-r}\end{pmatrix}.\]

Como evidencia de la utilidad de este teorema, sugerimos que intentes mostrar que el rango por columnas de una matriz es igual al rango por filas, usando únicamente la definición. Esto es relativamente difícil. Sin embargo, con el teorema PJQ es inmediato. Si A es de m\times n y tiene rango r, entonces su factorización PJQ es de la forma

    \[A=PJ_rQ.\]

Entonces al transponer obtenemos

    \begin{align*}^tA&= {^tQ} {^t J_r} {^tP}.\end{align*}

Esto es de nuevo un factorización PJQ, con {^t J_r} la matriz de n\times m que indica que ^t A es de rango r.

Veamos ahora un problema clásico en el que se puede usar la factorización PJQ.

Problema. Sea A una matriz de m \times n y rango r. Muestra que:

  • A puede ser escrita como la suma de r matrices de rango 1.
  • A no puede ser escrita como la suma de r-1 o menos matrices de rango 1.

Sugerencia pre-solución. Para la primer parte, usa el teorema PJQ. Para la segunda parte, usa desigualdades del rango.

Solución. Tomemos A=PJ_rQ una factorización PJQ de A.

Hagamos la primer parte. Para ello, para cada i=1,\ldots,r, consideremos la matriz L_i de m\times n tal que su i-ésima entrada en la diagonal principal es 1 y el resto de sus entradas son iguales a 0.

Por un lado, L_i es de rango 1, pues tiene sólo una columna distinta de cero. De este modo,

    \[\rank(PL_iQ)\leq \rank(PL_i) \leq \rank(L_i)=1,\]

y como P y Q son invertibles,

    \[\rank(PL_iQ)\geq \rank(L_i) \geq 1.\]

Así, para cada i=1,\ldots, r, se tiene que L_i es de rango 1.

Por otro lado,

    \[J_r = L_1 + L_2 + \ldots + L_r,\]

así que

    \begin{align*}A&=PJ_rQ\\&=P(L_1 + L_2 + \ldots + L_r)Q\\&=PL_1Q + PL_2Q + \ldots + PL_rQ.\end{align*}

Esto expresa a A como suma de r matrices de rango 1.

Para la segunda parte del problema, usamos repetidamente que el rango es subaditivo. Si tenemos matrices B_1,\ldots,B_s matrices de m\times n, entonces

    \begin{align*}\rank(B_1&+B_2+\ldots+B_s) & \\&\leq \rank(B_1) + \rank (B_2 + \ldots + B_s)\\&\leq \rank(B_1) + \rank(B_2) + \rank(B_3+\ldots+B_s)\\& vdots \\&\leq \rank(B_1) + \rank(B_2) + \ldots + \rank(B_s).\end{align*}

Si cada B_i es de rango 1, entonces su suma tiene rango a lo más s.

Así, la suma de r-1 o menos matrices de rango 1 tiene rango a lo más r-1, y por lo tanto no puede ser igual a A.

\square

Más problemas

Puedes encontrar más problemas de rango de una matriz en la Sección 5.4 del libro Essential Linear Algebra de Titu Andreescu. El teorema PJQ, así como muchos problemas ejemplo, los puedes encontrar en el Capítulo 5 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.

Seminario de Resolución de Problemas: Sistemas de ecuaciones lineales

Introducción

Finalmente, en esta serie de entradas, veremos temas selectos de álgebra lineal y su aplicación a la resolución de problemas. Primero, hablaremos de sistemas de ecuaciones lineales. Luego, hablaremos de evaluación de determinantes. Después, veremos teoría de formas cuadráticas y matrices positivas. Finalmente, estudiaremos dos teoremas muy versátiles: el teorema de factorización PJQ y el teorema de Cayley-Hamilton.

Como lo hemos hecho hasta ahora, frecuentemente no daremos las demostraciones para los resultados principales. Además, asumiremos conocimientos básicos de álgebra lineal. También, asumiremos que todos los espacios vectoriales y matrices con los que trabajaremos son sobre los reales o complejos, pero varios resultados se valen más en general.

Para cubrir los temas de álgebra lineal de manera sistemática, te recomendamos seguir un libro como el Essential Linear Algebra de Titu Andreescu, o el Linear Algebra de Friedberg, Insel y Spence. Mucho del material también lo puedes consultar en las notas de curso que tenemos disponibles en el blog.

Sistemas de ecuaciones lineales

Una ecuación lineal en n incógnitas en \mathbb{R} consiste en fijar reales a_1,\ldots,a_n, b y determinar los valores de las variables x_1,\ldots,x_n tales que

    \[a_1x_1+a_2x_2+\ldots+a_nx_n=b.\]

Si a_1,\ldots,a_n no son todos cero, los puntos (x_1,\ldots,x_n) en \mathbb{R}^n que son solución a la ecuación definen un hiperplano en \mathbb{R}^n.

Un sistema de ecuaciones lineales con m ecuaciones y n variables consiste en fijar, para i en \{1,\ldots,m\} y j en \{1,\ldots,n\} a reales a_{ij} y b_i, y determinar los valores de las variables x_1,\ldots,x_n que simultáneamente satisfacen todas las m ecuaciones

    \[\begin{cases}a_{11}x_1+ a_{12}x_2+\ldots + a_{1n}x_n = b_1\\a_{21}x_1+a_{22}x_2+\ldots+a_{2n}x_n = b_2\\\quad \quad \vdots\\a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n = b_m.\end{cases}\]

Este sistema de ecuaciones se puede reescribir en términos matriciales de manera muy sencilla. Si A es la matriz de m\times n de entradas [a_{ij}], X es el vector de variables (x_1,\ldots,x_n) y b es el vector de reales b_1,\ldots,b_m, entonces el sistema de ecuaciones anterior se reescribe simplemente como

    \[AX=b.\]

Sistemas de ecuaciones lineales con mucha simetría

En algunos sistemas de ecuaciones hay mucha simetría, y no es necesario introducir técnicas avanzadas de álgebra lineal para resolverlos. Veamos el siguiente ejemplo.

Problema. Resuelve el sistema de ecuaciones

    \[\begin{cases}7a+2b+2c+2d+2e= -2020\\2a+7b+2c+2d+2e=-1010\\2a+2b+7c+2d+2e=0\\2a+2b+2c+7d+2e=1010\\2a+2b+2c+2d+7e=2020.\end{cases}\]

Sugerencia pre-solución. Trabaja hacia atrás, suponiendo que el sistema tiene una solución. A partir de ahí, puedes usar las cinco ecuaciones y combinarlas con sumas o restas para obtener información.

Solución. Al sumar las cinco ecuaciones, obtenemos que

    \[15(a+b+c+d+e)=0,\]

de donde 2(a+b+c+d+e)=0. Restando esta igualdad a cada una de las ecuaciones del sistema original, obtenemos que

    \[\begin{cases}5a= -2020\\5b=-1010\\5c=0\\5d=1010\\5e=2020.\end{cases}\]

De aquí, si el sistema tiene alguna solución, debe suceder que

    \begin{align*}a&=\frac{-2020}{5}=-404\\b&=\frac{-2020}{5}=-202\\c&=\frac{-2020}{5}= 0\\d&=\frac{-2020}{5}=202\\e&=\frac{-2020}{5}=404.\end{align*}

Como estamos trabajando hacia atrás, esta es sólo una condición necesaria para la solución. Sin embargo, una verificación sencilla muestra que también es una condición suficiente.

\square

Sistemas de ecuaciones de n x n y regla de Cramer

Si tenemos un sistema de n variables y n incógnitas, entonces es de la forma

    \[AX=b\]

con una matriz A cuadrada de n\times n. Dos resultados importantes para sistemas de este tipo son el teorema de existencia y unicidad, y las fórmulas de Cramer.

Teorema (existencia y unicidad de soluciones). Si A es una matriz cuadrada invertible de n\times n y b es un vector de n entradas, entonces el sistema lineal de ecuaciones

    \[AX=b\]

tiene una solución única y está dada por X=A^{-1}b.

El teorema anterior requiere saber determinar si una matriz es invertible o no. Hay varias formas de hacer esto:

  • Una matriz cuadrada es invertible si y sólo si su determinante no es cero. Más adelante hablaremos de varias técnicas para evaluar determinantes.
  • Una matriz cuadrada es invertible si y sólo si al aplicar reducción gaussiana, se llega a la identidad.
  • También ,para mostrar que una matriz es invertible, se puede mostrar que cumple alguna de las equivalencias de invertibilidad.

Problema. Demuestra que el sistema lineal de ecuaciones

    \[\begin{cases}147a+85b+210c+483d+133e= 7\\91a+245b+226c+273d+154e=77\\-119a+903b+217c+220d+168e=777\\189a+154b-210c-203d-108e=7777\\229a+224b+266c-133d+98e=77777.\end{cases}\]

tiene una solución única.

Sugerencia pre-solución. Reduce el problema a mostrar que cierta matriz es invertible. Para ello, usa alguno de los métodos mencionados. Luego, para simplificar mucho el problema, necesitarás un argumento de aritmética modular. Para elegir en qué módulo trabajar, busca un patrón en las entradas de la matriz.

Solución. Primero, notemos que el problema es equivalente a demostrar que la matriz

    \[A=\begin{pmatrix}147 & 85 & 210 & 483 & 133\\91 & 245 & 226 & 273 & 154\\-119 & 903 & 217 & 220 & 168\\189 & 154 & -210 & -203 & -108 \\229 & 224 & 266 & -133 & 98\end{pmatrix}\]

es invertible. Mostraremos que su determinante no es 0. Pero no calcularemos todo el determinante, pues esto es complicado.

Notemos que como A es una matriz de entradas enteras, entonces su determinante (que es suma de productos de entradas), también es entero. Además, como trabajar en aritmética modular respeta sumas y productos, para encontrar el residuo de \det(A) al dividirse entre 7 se puede primero reducir las entradas de A módulo 7, y luego hacer la cuenta de determinante.

Al reducir las entradas módulo 7, tenemos la matriz

    \[B=\begin{pmatrix}0 & 1 & 0 & 0 & 0 \\0&0 & 2 & 0 & 0\\0 & 0 & 0 & 3 & 0\\0&0 & 0 & 0 & 4 \\5& 0 & 0 & 0 & 0\end{pmatrix}.\]

El determinante de la matriz B es -(1\cdot 2 \cdot 3 \cdot 4 \cdot 5)=-120. Así,

    \begin{align*}\det(A) & \equiv \det(B)\\&=-120\\&\equiv 6 \pmod 7.\end{align*}

Concluimos que \det(A) es un entero que no es divisible entre 7, por lo cual no puede ser cero. Así, A es invertible.

\square

Por supuesto, en cualquier otro módulo podemos hacer la equivalencia y simplificar las cuentas. Pero 7 es particularmente útil para el problema anterior pues se simplifican casi todas las entradas, y además funciona para dar un residuo no cero.

Ahora veremos otra herramienta importante para resolver problemas de ecuaciones lineales: las fórmulas de Cramer.

Teorema (fórmulas de Cramer). Sea A una matriz invertible de n\times n con entradas reales y b=(b_1,\ldots,b_n) un vector de reales. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x_1,\ldots,x_n) dada por

    \[x_i=\frac{\det A_i}{\det A},\]

en donde A_i es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

En realidad este método no es tan útil en términos prácticos, pues requiere que se evalúen muchos determinantes, y esto no suele ser sencillo. Sin embargo, las fórmulas de Cramer tienen varias consecuencias teóricas importantes.

Problema. Muestra que una matriz invertible A de n\times n con entradas enteras cumple que su inversa también tiene entradas enteras si y sólo si el determinante de la matriz es 1 ó -1.

Sugerencia pre-solución. Para uno de los lados necesitarás las fórmulas de Cramer, y para el otro necesitarás que el determinante es multiplicativo.

Solución. El determinante de una matriz con entradas enteras es un número entero. Si la inversa de A tiene entradas enteras, entonces su determinante es un entero. Usando que el determinante es multiplicativo, tendríamos que

    \[\det(A)\cdot \det(A^{-1}) = \det (I) = 1.\]

La única forma en la que dos enteros tengan producto 1 es si ambos son 1 o si ambos son -1. Esto muestra una de las implicaciones.

Ahora, supongamos que A tiene determinante \pm 1. Si tenemos una matriz B de columnas C_1,\ldots,C_n, entonces para j en \{1,\ldots,n\} la j-ésima columna de AB es AC_j. De este modo, si D_1,\ldots, D_n son las columnas de A^{-1}, se debe cumplir para cada j en \{1,\ldots,n\} que

    \[AD_j= e_j,\]

en donde e_j es el j-ésimo elemento de la base canónica. Para cada j fija, esto es un sistema de ecuaciones.

Por las fórmulas de Cramer, la i-ésima entrada de C_j, que es la entrada x_{ij} de la matriz A^{-1}, está dada por

    \[x_{ij}=\frac{\det(A_{ij})}{\det(A)}=\pm \det(A_{ij}),\]

donde A_{ij} es la matriz obtenida de colocar al vector e_j en la i-ésima columna de A.

La matriz A_{ij} tiene entradas enteras, así que x_{ij}=\pm \det(A_{ij}) es un número entero. Así, A^{-1} es una matriz de entradas enteras.

\square

Sistemas de ecuaciones de m x n y teorema de Rouché-Capelli

Hasta aquí, sólo hemos hablando de sistemas de ecuaciones que tienen matrices cuadradas asociadas. También, sólo hemos hablado de los casos en los que no hay solución, o bien en los que cuando la hay es única. Los sistemas de ecuaciones lineales en general tienen comportamientos más interesantes. El siguiente resultado caracteriza de manera elegante todo lo que puede pasar.

Teorema (Rouché-Capelli). Sea A una matriz de m\times n con entradas reales, (b_1,\ldots,b_m) un vector de reales y (x_1,\ldots,x_n) un vector de incógnitas. Supongamos que A tiene rango r. Entonces:

  • El sistema AX=b tiene al menos una solución X_0 si y sólo si el rango de la matriz de m\times (n+1) obtenida de colocar el vector b como columna al final de la matriz A también tiene rango r.
  • El conjunto solución del sistema AX=(0,0,\ldots,0) es un subespacio vectorial \mathcal{S} de \mathbb{R}^n de dimensión n-r.
  • Toda solución al sistema AX=b se obtiene de sumar X_0 y un elemento de \mathcal{S}.

Problema. Encuentra todos los polinomios p(x) con coeficientes reales y de grado a lo más 3 tales que p(2)=3 y p(3)=2.

Sugerencia pre-solución. Usa notación efectiva, eligiendo variables para cada uno de los coeficientes de p(x). Luego, enuncia cada hipótesis como una ecuación.

Solución. Tomemos p(x)=ax^3+bx^2+cx+d. La hipótesis implica que

    \[\begin{cases}8a+4b+2c+d=p(2)= 3\\27a+9b+3c+d=p(3)=2.\end{cases}\]

El rango de la matriz

    \[\begin{pmatrix} 8 & 4 & 2 & 1\\ 27 & 9 & 3 & 1\end{pmatrix}\]

es a lo más 2, pues tiene 2 renglones. Pero es al menos 2, pues los dos vectores columna (2,3) y (1,1) son linealmente independientes. Exactamente el mismo argumento muestra que la matriz aumentada

    \[\begin{pmatrix} 8 & 4 & 2 & 1 & 3\\ 27 & 9 & 3 & 1 & 2\end{pmatrix}\]

es de rango 2. Por el primer punto del teorema de Rouché-Capelli, este sistema tiene solución.

Para encontrar esta solución de manera práctica, fijamos reales a y b y notamos que ahora

    \[\begin{cases}2c+d= 3-8a-4b\\3c+d=2-27a-9b\end{cases}\]

es un sistema en 2 variables, y como

    \[\det\begin{pmatrix} 2 & 1\\ 3 & 1\end{pmatrix}=-1,\]

tiene una única solución para c y d. Al hacer las cuentas, o usar fórmulas de Cramer, obtenemos que

    \begin{align*}c&=-1-19a-5b\\d&=5+30a+6b.\end{align*}

Así, concluimos que los polinomios p(x) solución consisten de elegir cualesquiera reales a y b y tomar

    \[p(x)=ax^3+bx^2-(1+19a+5b)x+(5+20a+6b).\]

\square

Por supuesto, para usar este teorema es necesario conocer el rango de la matriz A. En el problema tuvimos la suerte de que eso es sencillo. Hablaremos más adelante de varias técnicas para encontrar el rango de matrices.

Más problemas

Puedes encontrar más problemas de sistemas de ecuaciones lineales en el Capítulo 3 y en la Sección 7.6 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema. Considera los vectores

v_1=(1,x,0,1), \quad v_2=(0,1,2,1), \quad v_3=(1,1,1,1)

en \mathbb{R}^4. Prueba que para cualquier elección de x\in\mathbb{R}, los vectores v_1,v_2,v_3 son linealmente independientes.

Solución. Sea A la matriz cuyas columnas son v_1,v_2,v_3, es decir,

A=\begin{pmatrix} 1 & 0 & 1 \\ x & 1 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{pmatrix}.

Sabemos que v_1,v_2,v_3 son linealmente independiente si y sólo si \text{dim(span}(v_1,v_2,v_3))=3, ya que \text{rank}(A)=3, y eso es equivalente (por la clase del lunes) a demostrar que A tiene una submatriz de 3\times 3 invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

\begin{vmatrix} 1 & 0 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{vmatrix}=-1,

lo que implica que es invertible, y por lo tanto v_1,v_2, v_3 son vectores linealmente independientes.

\square

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre \mathbb{R} o sobre \mathbb{C}. Como \mathbb{R}\subset \mathbb{C}, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en \mathbb{R} se cumplen en \mathbb{C}. En este caso particular, si las soluciones de una matriz en M_{m,n}(\mathbb{R}) son soluciones de la misma matriz pero vista como elemento en M_{m,n}(\mathbb{C}). El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea A\in M_{m,n}(F) y sea F_1 un campo contenido en F. Consideremos el sistema lineal AX=0. Si el sistema tiene una solución no trivial en F_1^n, entonces tiene una solución no trivial en F^n.

Demostración. Dado que el sistema tiene una solución no trivial en F_1^n, r:=\text{rank}(A) < n vista como elemento en M_{m,n}(F_1). Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a A como elemento de M_{m,n}(F_1) o de M_{m,n}(F). Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de F^n de dimensión n-r>0. Por lo tanto, el sistema AX=0 tiene una solución no trivial en F^n.

\square

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. Sea S_a el siguiente sistema lineal:

\begin{matrix} x-2y+z=1 \\ 3x+2y-2z=2 \\ 2x-y+az=3 \end{matrix}.

Encuentra los valores de a para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como AX=b donde

A=\begin{pmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{pmatrix} \quad \text{y} \quad b=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}.

Notemos que

\begin{vmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{vmatrix}=8a-1,

entonces si a\neq 1/8, A es invertible, y por lo tanto \text{rank}(A)=3, mientras que si a=1/8, A no es invertible y \text{rank}(A)=2 ya que la submatriz es invertible

\begin{vmatrix} 1 & -2 \\ 3 & 2 \end{vmatrix}=8.

Además, si la matriz (A,b) es igual a

\begin{pmatrix} 1 & -2 & 1 & 1 \\ 3 & 2 & -2 & 2 \\ 2 & -1 & a & 3 \end{pmatrix},

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, \text{rank}(A,b)=3.

Aplicando el Teorema de Rouché-Capelli, para a=1/8, el sistema AX=b no tiene soluciones. También podemos concluir que como \text{rank}(A)=3 para todo a\neq 1/8, el sistema tiene exactamente una solución. (Y AX=b nunca tiene infinitas soluciones).

\square

Problema. Sean a,b,c números reales dados. Resuelve el sistema lineal

\begin{matrix} (b+c)x+by+cz=1 \\ ax+ (a+c)y+cz=1 \\ ax+by+(a+b)z=1 \end{matrix}.

Solución. La matriz del sistema es

A=\begin{pmatrix} b+c & b & c \\ a & a+c & c \\ a & b & a+b \end{pmatrix}.

No es difícil ver que \text{det}(A)=4abc. Si abc\neq 0, usando la regla de Cramer, la única solución al sistema está dada por

x=\frac{\begin{vmatrix} 1 & b & c \\ 1 & a+c & c \\ 1 & b & a+b \end{vmatrix}}{4abc}, \quad y=\frac{\begin{vmatrix} b+c & 1 & c \\ a & 1 & c \\ a & 1 & a+b \end{vmatrix}}{4abc}

y=\frac{\begin{vmatrix} b+c & b & 1 \\ a & a+c & 1 \\ a & b & 1 \end{vmatrix}}{4abc},

resolviendo los determinantes obtenemos que

x=\frac{a^2 -(b-c)^2}{4abc}, \quad y=\frac{b^2 -(a-c)^2}{4abc}, \quad z=\frac{c^2-(a-b)^2}{4abc}.

Ahora, si abc=0, entonces A no es invertible (\text{rank}(A)<3). El sistema es consistente si y sólo si \text{rank}(A)=\text{rank}(A,b).

Sin pérdida de generalidad, decimos que a=0 (pues abc=0). Esto reduce el sistema a

\begin{matrix} (b+c)x+by+cz=1 \\ c(y+z)=1 \\ b(y+z)=1 \end{matrix}.

El sistema es consistente si b=c y distintos de cero. En este caso, tenemos que b(2x+y+z)=1 y b(y+z)=1, implicando x=0, y+z=1/b. De manera similar, obtenemos las posibles soluciones si b=0 o si c=0.

Resumiendo:

  • Si abc\neq 0, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) a=0 y b=c \neq 0; caso 2) b=0 y a=c\neq 0; caso 3) c=0 y a=b\neq 0, tenemos infinitas soluciones descritas como, para todo w\in \mathbb{R}: caso 1) (0,w,1/b-w); caso 2) (w,0,1/a-w); caso 3) (w,1/a-w,0).
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para a,b,c, el sistema no es consistente.

\square

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, ero es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz A en M_{m,n}(F) es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación X\mapsto AX de F^n\to F^m. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de A. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de A.

Lo que veremos ahora es que podemos determinar el rango de una matriz A calculando algunos determinantes de matrices pequeñas asociadas a A. Una submatriz de A es una matriz que se obtiene de eliminar algunas filas o columnas de A.

Teorema. Sea A una matriz en M_{m,n}(F). El rango de A es igual al tamaño de la submatriz cuadrada más grande de A que sea invertible.

Demostración. Llamemos C_1,\ldots,C_n a las columnas de A. Sabemos que

    \[r=\dim \text{span}(C_1,\ldots,C_n).\]

Mostraremos primero que hay una submatriz cuadrada de tamaño r. Por el lema de Steinitz, podemos escoger r enteros 1\leq i_1<\ldots<i_r\leq n tal que las columnas C_{i_1},\ldots,C_{i_r} de A cumplen

    \[\text{span}(C_1,\ldots,C_n)=\text{span}(C_{i_1},\ldots,C_{i_r}).\]

Así, la matriz B hecha por columnas C_{i_1},\ldots,C_{i_r} está en M_{m,r}(F) y es de rango r.

Ahora podemos calcular el rango de B por filas. Si F_1,\ldots,F_m son las filas de B, tenemos que

    \[r=\dim \text{span}(F_1,\ldots,F_m).\]

De nuevo, por el lema de Steinitz, existen enteros 1\leq j_1<\ldots<j_r\leq m tales que

    \[\text{span}(F_1,\ldots,F_m)=\text{span}(F_{i_1},\ldots,F_{i_r}).\]

De esta forma, la matriz C hecha por las filas F_{j_1},\ldots,F_{j_r} está en M_r(F) y es de rango r. Por lo tanto, C es una matriz cuadrada de tamaño r y es invertible.

Esta matriz C es una submatriz de A pues se obtiene al eliminar de A todas las columnas en posiciones distintas a i_1,\ldots,i_r y todas las filas en posiciones distintas a j_1,\ldots,j_r. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si B es una submatriz de A cuadrada e invertible de tamaño d, entonces d\leq r. En efecto, tomemos una B así. Sus columnas son linealmente independientes. Si i_1<\ldots<i_n corresponden a los índices de las columnas de A que se preservan al pasar a B, entonces las columnas C_{i_1},\ldots,C_{i_d} de A son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de B, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,

    \begin{align*}d&=\dim \text{span}(C_{i_1},\ldots,C_{i_d})\\&\leq \dim \text{span} (C_1,\ldots,C_d)\\&=r,\end{align*}

que es la desigualdad que nos faltaba para terminar la prueba.

\square

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en M_{3,5}(\mathbb{R}):

    \[A=\begin{pmatrix}4 & 5 & -4 & 7 & 2\\ 0 & -3 & -1 & 0 & 9\\ 0 & -5 & 0 & 9 & -3 \end{pmatrix}.\]

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho \min(3,5)=3.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada

    \[\begin{pmatrix} 4 & -4 & 2\\ 0 & -1 & 9\\ 0 & 0 & -3\end{pmatrix}.\]

Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es 4\cdot (-1)\cdot (-3)=12.

Como el determinante no es cero, es una matriz invertible de tamaño 3. Por la proposición anterior, el rango de A debe ser entonces mayor o igual a 3. Juntando las dos desigualdades que encontramos, el rango de A debe ser igual a 3.

\square

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con m ecuaciones y n incógnitas es de la forma

    \begin{align*}a_{11}x_1 + a_{12} x_2 + \ldots + a_{1n}x_n &= b_1\\a_{21}x_1 + a_{22} x_2 + \ldots + a_{2n}x_n &= b_2\\\vdots&\\a_{m1}x_1 + a_{m2} x_2 + \ldots + a_{mn}x_n &= b_m,\end{align*}

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:

    \begin{align*}A&=\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\  \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix},\\b&=\begin{pmatrix}b_1\\ \vdots\\ b_m\end{pmatrix} \text{ y }\; X=\begin{pmatrix}x_1\\ \vdots\\ x_n\end{pmatrix},\end{align*}

y reescribiendo el sistema como

    \[AX=b.\]

Si C_1,\ldots, C_n son las columnas de la matriz A, también sabemos que

    \[AX=x_1C_1+\ldots + x_nC_n,\]

de modo que el sistema de ecuaciones puede ser escrito como

    \[x_1C_1+\ldots + x_nC_n=b.\]

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si b está en el espacio generado por las columnas de A, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean A\in M_n(F) y b\in F^m. Sea (A|b) la matriz en M_{n,n+1}(F) obtenida de agregar a b como columna hasta la derecha de la matriz A. Entonces:

  • El sistema lineal de ecuaciones AX=b tiene al menos una solución si y sólo si \rank(A)=\rank((A|b)).
  • El conjunto de soluciones \mathcal{S}_h al sistema homogéneo es un subespacio de F^n de dimensión n-\rank(A).

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si b es una combinación lineal de las columnas de A. De esta forma, si existe una solución, entonces \rank(A)=\rank((A|b)), pues el espacio generado por las columnas de A sería el mismo que el de las columnas de (A|b).

Por otro lado, si \rank(A)=\rank((A|b)) es porque las columnas de A y las de (A|b) generan el mismo espacio, de modo que b está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es AX=0, de modo que el conjunto solución es precisamente el kernel de la transformación T:F^n\to F^m tal que X\mapsto AX. Por el teorema de rango-nulidad, tenemos que

    \[\dim \mathcal{S}_h = n-\dim \text{Im}(T)=n-\text{rank}(A).\]

Esto termina la demostración.

\square

Como discutimos con anterioridad, ya que tenemos una solución x_0 para el sistema de ecuaciones AX=b, entonces todas las soluciones son el conjunto

    \[x_0+\mathcal S_h:=\{x_0 + x: x\in \mathcal S_h\}.\]

En otras palabras, cualquier solución al sistema se puede obtener sumando a x_0 una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en \mathbb{R} en tres variables:

    \begin{align*}2x+3y-z=1\\3x-y+2z=0\\3x+10y-5z=0\end{align*}

Afirmamos que el sistema no tiene solución. La matriz asociada es A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}. Por lo que sabemos de determinantes de 3\times 3, podemos calcular su determinante como

    \begin{align*}\begin{vmatrix}2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{vmatrix} &= (2)(-1)(-5)+(3)(10)(-1)+(3)(3)(2)\\&-(-1)(-1)(3)-(2)(10)(2)-(3)(3)(-5)\\&=10-30+18-3-40+45\\&=0.\end{align*}

Esto muestra que A no es invertible, y que por lo tanto tiene rango a lo más 2. Como

    \[\begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix} = (2)(-1)-(3)(3)=-11\]

es un subdeterminante no cero de tamaño 2, entonces A tiene rango 2.

Ahora consideremos la matriz

    \[(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 0\end{pmatrix}.\]

Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de 3\times 3 por expansión de Laplace en la última columna:

    \begin{align*}\begin{vmatrix}2 & 3 & 1\\ 3 & -1 & 0 \\ 3 & 10 & 0\end{vmatrix} &= 1 \cdot \begin{vmatrix}  3 & -1 \\ 3 & 10 \end{vmatrix} - 0 \begin{vmatrix} 2 & 3 \\ 3 & 10 \end{vmatrix} + 0 \cdot \begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix}\\&= 1 \cdot (3\cdot 10 + 1\cdot 3)\\&=33.\end{align*}

De esta forma, (A|b) tiene una submatriz de 3\times 3 invertible, y por lo tanto tiene rango al menos 3. Como tiene 3 filas, su rango es a lo más 3. Con esto concluimos que su rango es exactamente 3. Conluimos que

    \[\text{rank} A = 2 \neq 3 = \text{rank} (A|b),\]

de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

\square

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz A es de rango r, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada B de tamaño r que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables x_1,\ldots,x_r y a las primeras r ecuaciones. De esta forma, el sistema AX=b se resume en el siguiente sistema de ecuaciones equivalente:

    \begin{align*}a_{11}x_1 + a_{12} x_2 + \ldots + a_{1r}x_r &= b_1-a_{1,r+1}x_{r+1}-\ldots -a_{1,n} x_n\\a_{21}x_1 + a_{22} x_2 + \ldots + a_{2r}x_r &= b_2-a_{2,r+1}x_{r+1}-\ldots -a_{2,n} x_n\\\vdots\\a_{r1}x_1 + a_{r2} x_2 + \ldots + a_{rr}x_r &= b_m-a_{r,r+1}x_{r+1}-\ldots -a_{r,n} x_n,\end{align*}

Aquí x_{r+1},\ldots,x_n son lo que antes llamábamos las variables libres y x_1,\ldots,x_r son lo que llamábamos variables pivote. Como la submatriz B correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal AX=b en donde A es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea A una matriz invertible en M_n(F) y b=(b_1,\ldots,b_n) un vector en F^n. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x_1,\ldots,x_n) dada por

    \[x_i=\frac{\det A_i}{\det A},\]

en donde A_i es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por

    \[X=(x_1,\ldots,x_n)=A^{-1}b.\]

Si C_1,\ldots,C_n son las columnas de A, que (x_1,\ldots,x_n) sea solución al sistema quiere decir que

    \[x_1C_1+\ldots+x_nC_n=b.\]

El determinante pensado como una función en n vectores columna es n-lineal, de modo que usando la linealidad en la i-ésima entrada y que el determinantes es alternante, tenemos que:

    \begin{align*}\det A_i &= \det(C_1,\ldots,C_{i-1},b,C_{i+1},\ldots,C_n)\\&= \det(C_1,\ldots,C_{i-1},\sum_{j=1}^n x_j C_j,C_{i+1},\ldots,C_n)\\&=\sum_{j=1}^n x_j \det(C_1,\ldots,C_{i-1},C_j,C_{i+1},\ldots,C_n)\\&=x_i \det(C_1,\ldots,C_{i-1},C_i,C_{i+1},\ldots,C_n)\\&=x_i \det A\end{align*}

Como A es invertible, su determinante no es 0, de modo que

    \[x_i=\frac{\det A_i}{\det A},\]

como queríamos.

\square

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en \mathbb{R} en tres variables:

    \begin{align*}2x+3y-z=1\\3x-y+2z=0\\3x+10y-5z=3\end{align*}

En un ejemplo anterior vimos que la matriz asociada A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix} tiene rango 2. Se puede verificar que la matriz aumentada

    \[(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 3 \end{pmatrix}\]

también tiene rango 2. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones AX=b, y el sistema homogéneo tiene espacio de soluciones de dimensión 3-2=1.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante 2(-1)-(3)(3)=-11\neq 0, entonces el sistema de ecuaciones original es equivalente al subsistema

    \begin{align*}2x+3y=1+z\\3x-y=-2z.\end{align*}

Para encontrar su solución, fijamos una z arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por

    \begin{align*}x&=\frac{\begin{vmatrix} 1+z & 3 \\ -2z & -1 \end{vmatrix}}{-11}=\frac{1-5z}{11}\\y&=\frac{\begin{vmatrix} 2 & 1+z \\ 3 & -2z \end{vmatrix}}{-11}=\frac{3+7z}{11}.\end{align*}

De esta forma, las soluciones al sistema original están dadas por

    \[\left(\frac{1-5z}{11}, \frac{3+7z}{11},z\right)=\left(\frac{1}{11},\frac{3}{11},0\right) + z \left(-\frac{5}{11},\frac{7}{11},1\right).\]

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión 1, pues está generado por el vector

    \[\left(-\frac{5}{11},\frac{7}{11},1\right),\]

y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular

    \[\left(\frac{1}{11},\frac{3}{11},0\right).\]

\square

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de 2\times 2 con un parámetro \theta. La intepretación geométrica del siguiente sistema de ecuaciones es “encuentra el punto (x,y) del plano tal que al rotarse en \theta alrededor del origen, llega al punto (a,b) ” .

Problema. Sea a,b,\theta números reales. Encuentra las soluciones x,y al sistema de ecuaciones

    \begin{align*}x \cos \theta  - y \sin \theta  = a\\x \sin \theta + y \cos \theta = b.\end{align*}

Solución. La matriz asociada al sistema es

    \[A=\begin{pmatrix} \cos \theta & -\sin\theta \\ \sin \theta & \cos \theta\end{pmatrix}\]

que tiene determinante

    \[\det A = \cos ^2 \theta + \sin^2 \theta = 1.\]

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

    \begin{align*}x&=\frac{\begin{vmatrix}a & -\sin \theta\\ b & \cos \theta \end{vmatrix}}{\det A} = a\cos \theta + b\sin \theta\\y&=\frac{\begin{vmatrix}\cos \theta & a \\ \sin \theta & b \end{vmatrix}}{\det A} = b\cos \theta - a\sin \theta.\end{align*}

\square

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Determina el rango de la matriz

        \[A=\begin{pmatrix} 2 & 0 & -1 \\ 3 & -2 & 4 \\ 5 & -2 & 3 \\ -1 & 2 & -5 \end{pmatrix}.\]

  • Para la matriz A del inciso anterior, resuelve los sistemas de ecuaciones lineales AX=\begin{pmatrix}5\\8\\3\\2\end{pmatrix} y AX=\begin{pmatrix}5\\8\\13\\-3\end{pmatrix}.
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango 2.
  • Muestra que si A es una matriz en M_n(\mathbb{R}) con entradas enteras y de determinante 1, y b es un vector en R^n con entradas enteras, entonces la solución X del sistema de ecuaciones AX=b tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible A?

Álgebra Lineal I: Problemas de rango de transformaciones y matrices.

Introducción

Con anterioridad vimos el concepto de rango de una matriz y rango de una transformación lineal, además del muy importante teorema de rango-nulidad y la desigualdad de Sylvester. Vimos también, como contenido optativo, el versátil teorema de la factorización PJQ. En esta ocasión nos enfocaremos en resolver problemas de rango que nos servirán para repasar dichos conceptos.

Problemas resueltos

Problema. Encuentra el kernel y el rango de la transformación lineal T:\mathbb{R}_2[x] \longrightarrow \mathbb{R}_3[x] definida por

    \[T(f(x))=2f'(x) + \int _{0}^{x} 3f(t)dt.\]

Antes de comenzar a leer la solución, es conveniente que te convenzas de que T es una transformación lineal y que está bien definida, es decir, que en efecto toma un polinomio de grado a lo más dos con coeficientes reales y lo lleva a un polinomio de grado a lo más tres con coeficientes reales.

Solución. Consideremos \mathcal{B}=\{1, x, x^2\} la base canónica de \mathbb{R}_2[x].
Entonces

    \begin{align*}\Ima(T)&=\text{span}(\{T(1),T(x),T(x^2)\})\\&= \text{span}(\{3x,2+\frac{3}{2}x^2,4x+x^3\}).\end{align*}

Para determinar el rango de \Ima{T}, colocamos a las coordenadas de estas imágenes en la siguiente matriz A,

    \[A=\begin{pmatrix}0 & 3 & 0 & 0\\2 & 0 & \frac{3}{2} & 0\\0 & 4 & 0 & 1 \end{pmatrix}\]

y con el algoritmo de reducción gaussiana llegamos a que

    \[A_{red}=\begin{pmatrix}1 & 0 & \frac{3}{4} & 0\\0 & 1 & 0 & 0\\0 & 0 & 0 & 1 \end{pmatrix}\]

Como A_{red} tiene 3 pivotes se sigue que \rank(T)=3.

Luego, por el teorema de rango nulidad se tiene que

    \begin{align*}3&=\dim(\mathbb{R}_2[x])\\&= \dim (\ker (T))+\rank(T)\\&=\dim(\ker(T))+3.\end{align*}

Así, \dim(\ker(T))=0, por lo tanto \ker(T)=\{0\}.

\square

La desigualdad de Sylvester nos ayuda a acotar el rango de una suma de matrices por abajo. La desigualdad

    \[\rank(A+B)\leq \rank(A)+\rank(B)\]

nos ayuda a acotarlo por arriba. Combinar ambas ideas puede ser útil en problemas de rango de matrices.

Problema. Sea A\in M_n(\mathbb{C}) una matriz idempotente. Prueba que

    \[\rank(A)+\rank(I_n-A)=n.\]

Recuerda que una matriz es idempotente si A^2=A.

Solución. Como A^2=A, entonces A(I_n - A)=O_n.
Luego, por la desigualdad de Sylvester se tiene que

    \begin{align*}0&=\rank(O_n)\\&=\rank(A(I_n-A))\\&\geq \rank(A) + \rank(I_n-A)-n, \end{align*}



entonces

    \[\rank(A)+\rank(I_n-A)\leq n.\]

Por otro lado, como para cualesquiera matrices X,Y se tiene
\rank(X+Y)\leq \rank(X)+\rank(Y), entonces

    \[n=\rank(I_n)\leq \rank(A) + \rank(I_n-A),\]


de modo que

    \[n\leq \rank(A)+\rank(I_n - A).\]

Combinando ambas desigualdades,

    \[\rank(A)+\rank(I_n-A)=n.\]

\square

Problema. Encuentra el rango de la transformación lineal T:\mathbb{R}_2[x]\longrightarrow M_2(\mathbb{R}) definida por

    \[T(f(x))=\begin{pmatrix}f(1)-f(2) & 0\\0 & f(0)\end{pmatrix}.\]

Solución. Para determinar el rango, basta tomar una base, encontrar la imagen de sus elementos bajo T y determinar cuántos de estos elementos son linealmente independientes. Considera \mathcal{B}=\{1,x,x^2\} la base canónica de \mathbb{R}_2[x]. Tenemos que

    \begin{align*}\Ima(T)&=\text{span}(T(\mathcal{B}))\\&=\text{span}(\{T(1), T(x), T(x^2)\})\\&=\text{span}\left(\left\{ \begin{pmatrix}0 & 0\\0 & 1\end{pmatrix}, \begin{pmatrix}-1 & 0\\0 & 0\end{pmatrix}, \begin{pmatrix}-3 & 0\\0 & 0\end{pmatrix} \right\} \right )\\&=\text{span}\left (\left\{ \begin{pmatrix}0 & 0\\0 & 1\end{pmatrix}, \begin{pmatrix}-1 & 0\\0 & 0\end{pmatrix} \right\} \right ).\end{align*}

Notemos también que \mathcal{C}=\left\{ \begin{pmatrix}0 & 0\\0 & 1\end{pmatrix}, \begin{pmatrix}-1 & 0\\0 & 0\end{pmatrix}} \right\} es linealmente independiente.

Por lo tanto \mathcal{C} es una base para \Ima(T) y así \rank(T)=2.

\square

Problema. Sean A\in M_{3,2}(\mathbb{R}) y B\in M_{2,3}(\mathbb{R}) matrices tales que

    \[AB=\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}\]

Muestra que BA es la identidad.

El enunciado no parece mostrar que este sea uno de los problemas de rango de matrices. Sin embargo, para poder resolverlo usaremos las herramientas que hemos desarrollado hasta ahora.

Partiremos el problema en los siguientes pasos.

  1. Verificar que (AB)^2=AB y que \rank(AB)=2.
  2. Probar que BA es invertible.
  3. Probar que (BA)^3=(BA)^2 y deducir que BA=I_2.

Solución.

1. Realizamos la operación matricial:

    \[\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}=\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}\]

Ahora, aplicando reducción gaussiana en AB obtenemos que

    \[(AB)_{red}=\begin{pmatrix}1 & 0 & -1\\0 & 1 & 1\\0 & 0 & 0\end{pmatrix}.\]

Como (AB)_{red} tiene sólo dos pivotes, entonces \rank(AB)=2.

2. Usando la desigualdad de rango para producto de matrices, obtenemos que

    \begin{align*}\rank(BA)&\geq \rank(A(BA)B)\\&=\rank((AB)^2)\\&=\rank(AB)=2.\end{align*}

Entonces, \rank(BA)\geq 2. Por otro lado, como BA\in M_2(\mathbb{R}), entonces \rank(BA)\leq 2. Así, \rank(BA)=2 y BA es una matriz en M_2(\mathbb{R}), así que es invertible.

3. Como (AB)^2=AB, entonces B(AB)^2 A=B(AB)A=(BA)^2. Por consiguiente BABABA=(BA)^2 y así (BA)^3=(BA)^2 y como BA es invertible, podemos multiplicar en ambos lados de esta última igualdad por ((BA)^{-1})^2 para obtener BA=I_2.

\square

Entradas relacionadas