Archivo de la etiqueta: rango

Álgebra Lineal II: Unicidad de la forma de Jordan para nilpotentes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan para matrices nilpotentes. Demostramos una parte: la existencia de la forma canónica de Jordan. Para ello, nos enfocamos en el teorema en su versión en términos de transformaciones lineales. En esta entrada nos enfocaremos en demostrar la unicidad de la forma canónica de Jordan. Curiosamente, en este caso será un poco más cómodo trabajar con la forma matricial del teorema. Para recordar lo que queremos probar, volvemos a poner el enunciado del teorema a continuación. Lo que buscamos es ver que los enteros $k_1,\ldots, k_d$ que menciona el teorema son únicos.

Teorema. Sea $A$ una matriz nilpotente en $M_n(F)$. Entonces existen únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} y para los cuales $A$ es similar a la siguiente matriz de bloques: $$\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Nuestra estrategia para mostrar la unicidad será el estudio del rango de las potencias de $A$. Si $A$ es similar una matriz en forma canónica $J$, entonces existe $P$ invertible tal que $A=P^{-1}JP$, de donde se puede mostrar indutivamente que $A^k=P^{-1}J^kP$, mostrando que $A^k$ y $J^k$ son similares. Además, sabemos por teoría anterior que matrices similares tienen el mismo rango. De modo que si $A$ es similar a $J$ entonces todas las potencias de $A$ tienen el mismo rango que todas las potencias de $J$. Con esta idea en mente estudiaremos cómo es el rango de matrices de bloques de Jordan de eigenvalor cero.

Rango de potencias de bloques de Jordan

Claramente el rango del bloque de Jordan $J_{0,n}$ es $n-1$, pues ya está en forma escalonada reducida y tiene $n-1$ vectores distintos de cero. El siguiente resultado generaliza esta observación.

Proposición. Sea $n$ un entero positivo, $F$ un campo y $J_{0,n}$ el bloque de Jordan de eigenvalor $0$ y tamaño $n$ en $M_n(F)$. Para $k=1,\ldots,n$ se tiene que el rango de $J_{0,n}^k$ es igual a $n-k$. Para valores de $k$ más grandes, el rango es igual a cero.

Demostración. Si $e_1,\ldots,e_n$ es la base canónica de $F^n$, tenemos que $J_{0,n}e_i=e_{i-1}$ para $i=2,\ldots,n$ y $J_{0,n}e_1=0$. De manera intuitiva, la multiplicación matricial por $J_{0,n}$ va «desplazando los elementos de la base $e_1,\ldots,e_n$ a la izquierda, hasta sacarlos». De este modo, $J_{0,n}^k$ para $k=1,\ldots,n$ hace lo siguiente:

$$J_{0,n}^k e_i=\begin{cases} 0 & \text{para $k\geq i$}\\ e_{i-k} & \text{para $k\leq i-1$.}\end{cases}$$

Así, $J_{0,n}^k$ manda a la base $e_1,\ldots,e_n$ a los vectores $e_1,\ldots,e_{n-k}$ y a $k$ copias del vector cero. Como los primeros son $n-k$ vectores linealmente independientes, obtenemos que el rango de $J_{0,n}^k$ es $n-k$.

Para valores de $k$ más grandes la potencia se hace la matriz cero, así que su rango es cero.

$\square$

Rango de potencias de matrices de bloques de Jordan

¿Qué sucede si ahora estudiamos el rango de las potencias de una matriz de bloques de Jordan? Consideremos, por ejemplo, la siguiente matriz, en donde $k_1,\ldots,k_d$ son enteros positivos de suma $n$ y con $k_1\leq \ldots \leq k_d$:

$$J=\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Por un lado, es sencillo elevar esta matriz a potencias, pues simplemente los bloques se elevan a las potencias correspondientes. En símbolos:

$$J^r=\begin{pmatrix} J_{0,k_1}^r& 0 & \cdots & 0 \\ 0 & J_{0,k_2}^r& \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}^r\end{pmatrix}.$$

¿Cuál es el rango de esta potencia? Nos conviene cambiar un poco de notación. En vez de considerar a los $k_i$ por separado, los agruparemos de acuerdo a su valor, que puede ir de $1$ a $n$. Así, para cada $j=1,\ldots,n$ definimos $m_j$ como la cantidad de valores $k_i$ iguales a $j$. Bajo esta notación, la igualdad $k_1+\ldots+k_d=n$ se puede reescribir como $$m_1+2m_2+3m_3+\ldots+nm_n=n.$$

Una primera observación es que el rango de $J$ es simplemente la suma de los rangos de cada una de las $J_{0,k_i}$. Cada una de éstas contribuye con rango $k_i-1$. Así, en términos de las $m_j$ tenemos lo siguiente:

\begin{align*}
\text{rango}(J)&=\sum_{i=1}^d (k_i-1)\\
&=\sum_{j=1}^n (j-1) m_j \\
&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n.
\end{align*}

De manera similar,

\begin{align*}
\text{rango}(J^r)&=\sum_{i=1}^d \text{rango}(J_{0,k_i}^r)\\
&=\sum_{j=1}^n m_j \text{rango}(J_{0,j}^r).
\end{align*}

El término $\text{rango}(J_{0,j}^r)$ lo podemos calcular con la proposición de la sección anterior, cuidando la restricción entre el tamaño y las potencias que queremos. De aquí y de la restricción original para la las $m_j$ salen todas las siguientes igualdades:

\begin{align*}
n&= 1\cdot m_1 + 2\cdot m_2 + 3 \cdot m_3 + \ldots + n \cdot m_n\\
\text{rango}(J)&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n\\
\text{rango}(J^2)&= 0 \cdot m_1 + 0 \cdot m_2 + 1 \cdot m_3 + \ldots + (n-2)\cdot m_n\\
\text{rango}(J^3)&= 0 \cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + (n-3)\cdot m_n\\
&\vdots\\
\text{rango}(J^{n-1})&= 0\cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + 1 \cdot m_n.
\end{align*}

A partir de aquí el rango de $J^n$ es $0$. Esto nos da una manera de entender con mucha precisión el rango de cualquier potencia de una matriz diagonal por bloques hecha con bloques de Jordan.

Unicidad de la forma canónica de Jordan

Estamos listos para justificar la unicidad de la forma canónica de Jordan. Una matriz diagonal por bloques hecha por bloques de Jordan queda totalmente determinada por los valores de $m_j$ de la sección anterior. Supongamos que $A$ tiene como forma canónica de Jordan tanto a una matriz $J$ con valores $m_j$, como a otra matriz $J’$ con valores $m_j’$.

Como dos matrices similares cumplen que sus potencias son todas del mismo rango, entonces para cualquier $r$ de $1$ a $n-1$ se cumple que $$\text{rango}(J^r)=\text{rango}(A^r)=\text{rango}(J’^r).$$ Así, tanto $(m_1,\ldots,m_n)$ como $({m_1}’,\ldots,{m_n}’)$ son soluciones al siguiente sistema de ecuaciones en variables $x_1,\ldots,x_n$.

\begin{align*}
n&= 1\cdot x_1 + 2\cdot x_2 + 3 \cdot x_3 + \ldots + n \cdot x_n\\
\text{rango}(A)&=0\cdot x_1 + 1\cdot x_2 + 2 \cdot x_3 + \ldots + (n-1) \cdot x_n\\
\text{rango}(A^2)&= 0 \cdot x_1 + 0 \cdot x_2 + 1 \cdot x_3 + \ldots + (n-2)\cdot x_n\\
\text{rango}(A^3)&= 0 \cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + (n-3)\cdot x_n\\
&\vdots\\
\text{rango}(A^{n-1})&= 0\cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + 1 \cdot x_n.
\end{align*}

Pero este es un sistema de $n$ ecuaciones en $n$ variables y con matriz asociada de determinante $1$, así que su solución es única. Esto muestra que $(m_1,\ldots,m_n)=({m_1}’,\ldots,{m_n}’)$. Entonces, en $J$ y $J’$ aparecen la misma cantidad de bloques de cada tamaño. Como además los bloques van de tamaño menor a mayor tanto en $J$ como en $J’$, concluimos que $J=J’$.

Como consecuencia de toda esta discusión, obtenemos de hecho lo siguiente.

Corolario. Dos matrices nilpotentes son semejantes si y sólo si tienen la misma forma canónica de Jordan. Distintas formas canónicas de Jordan dan distintas clases de semejanza.

Una receta para encontrar la forma canónica de Jordan de nilpotentes

La demostración anterior no sólo demuestra la unicidad de la forma canónica de Jordan. Además, nos dice exactamente cómo obtenerla. Para ello:

  1. Calculamos todas las potencias de $A$ hasta $n-1$.
  2. Usando reducción gaussiana (o de otro modo), calculamos el rango de cada una de estas potencias.
  3. Resolvemos el sistema de ecuaciones en variables $x_j$ de la sección anterior.
  4. La forma canónica de Jordan de $A$ tiene $x_j$ bloques de tamaño $j$, que debemos colocar en orden creciente de tamaño.

Ejemplo. Consideremos la siguiente matriz en $M_7(\mathbb{R})$: $$C=\begin{pmatrix}-27 & 266 & 1 & -37 & 135 & -125 & 53\\217 & -1563 & 118 & 33 & -1251 & 1020 & 361\\236 & -1784 & 188 & 16 & -1512 & 1234 & 585\\11 & -10 & -25 & 12 & 28 & -29 & -80\\-159 & 1133 & -114 & -98 & 878 & -690 & -232\\197 & -1409 & 88 & -19 & -1151 & 952 & 348\\-230 & 1605 & -179 & -100 & 1316 & -1031 & -440\end{pmatrix}$$

Sus números son muy complicados, sin embargo, nos podemos auxiliar de herramientas computacionales para encontrar sus potencias. Soprendentemente esta es una matriz nilpotente de índice $3$ pues:

$$C^2=\begin{pmatrix}0 & -10209 & -3403 & -6806 & -6806 & 10209 & 0\\0 & 14691 & 4897 & 9794 & 9794 & -14691 & 0\\0 & 2739 & 913 & 1826 & 1826 & -2739 & 0\\0 & 7221 & 2407 & 4814 & 4814 & -7221 & 0\\0 & -14193 & -4731 & -9462 & -9462 & 14193 & 0\\0 & 10956 & 3652 & 7304 & 7304 & -10956 & 0\\0 & -11952 & -3984 & -7968 & -7968 & 11952 & 0\end{pmatrix}$$

y

$$C^3=\begin{pmatrix}0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\end{pmatrix}.$$

Usando reducción gaussiana, o herramientas computacionales, obtenemos que el rango de $C$ es $4$ y que el rango de $C^2$ es $2$. A partir de $k\geq 3$ obtenemos que $\text{rango}(C^k)=\text{rango}(O_7)=0$. Si queremos encontrar la forma canónica de Jordan de $C$, necesitamos entonces resolver el siguiente sistema de ecuaciones, que nos dirá cuántos bloques $x_j$ de tamaño $j$ hay:

\begin{align*}
7&= x_1+2x_2+3x_3+4x_4+5x_5+6x_6+7x_7\\
4&=x_2 + 2x_3 + 3x_4+4x_5+5x_6+6x_7\\
2&= x_3 + 2x_4+3x_5+4x_6+5x_7 \\
0&= x_4+2x_5+3x_6+4x_7\\
0 &= x_5+2x_6+3x_7\\
0&= x_6+2x_7\\
0&= x_7
\end{align*}

Para resolverlo lo mejor es proceder «de abajo hacia arriba». Las últimas cuatro ecuaciones nos dicen que $x_7=x_6=x_5=x_4=0$. Así, el sistema queda un poco más simple, como:

\begin{align*}
7&= x_1+2x_2+3x_3\\
4&=x_2 + 2x_3\\
2&= x_3.
\end{align*}

De la última igualdad, tenemos $x_3=2$, lo que nos dice que la forma canónica de Jordan tendría dos bloques de tamaño $3$. Sustituyendo en la penúltima igualdad obtenemos que $4=x_2+4$, de donde $x_2=0$. Así, no tendremos ningún bloque de tamaño $2$. Finalmente, sustituyendo ambos valores en la primera igualdad obtenemos que $7=x_1+0+6$. De aquí obtenemos $x_1=1$, así que la forma canónica de Jordan tendrá un bloque de tamaño $1$. En resumen, la forma canónica de Jordan es la matriz $$\begin{pmatrix} J_{0,1} & 0 & 0 \\ 0 & J_{0,3} & 0 \\ 0 & 0 & J_{0,3}\end{pmatrix}.$$ Explícitamente, ésta es la siguiente matriz:

$$\begin{pmatrix} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{pmatrix}.$$

Para verla un poco más «como de bloques» la podemos reescribir de la siguiente manera:

$$\left(\begin{array}{c|ccc|ccc} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{array}\right).$$

$\triangle$

Más adelante…

Hemos demostrado la existencia y unicidad de la forma canónica de Jordan para matrices nilpotentes. Este es un resultado interesante por sí mismo. Sin embargo, también es un paso intermedio para un resultado más general. En las siguientes entradas hablaremos de una versión más general del teorema de Jordan, para matrices tales que su polinomio característico se descomponga totalmente en el campo en el que estemos trabajando.

Tarea moral

  1. Considera la siguiente matriz: $$M=\begin{pmatrix}11 & 11 & -11 & -11\\-1 & -1 & 1 & 1\\3 & 3 & -3 & -3\\7 & 7 & -7 & -7\end{pmatrix}.$$
    1. Muestra que $M$ es una matriz nilpotente y determina su índice.
    2. ¿Cuál es la forma canónica de Jordan de $M$?
  2. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{5}(F)$ de índice $2$.
  3. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{7}(F)$ de rango $5$.
  4. Encuentra de manera explícita la inversa de la siguiente matriz en $M_n(\mathbb{R})$ y usa esto para dar de manera explícita la solución al sistema de ecuación en las variables $x_i$ que aparece en la entrada: $$\begin{pmatrix} 1 & 2 & 3 & \cdots & n-1 & n \\ 0 & 1 & 2 & \cdots & n-2 & n-1 \\ 0 & 0 & 1 & \cdots & n-3 & n-2 \\ & \vdots & & \ddots & & \vdots\\ 0 & 0 & 0 & \cdots & 1 & 2 \\ 0 & 0 & 0 & \cdots & 0 & 1\end{pmatrix}.$$
  5. Sea $A$ una matriz nilpotente en $M_n(\mathbb{R})$. Muestra que las matrices $A$ y $5A$ son similares entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Seminario de Resolución de Problemas: Rango de matrices y el teorema de factorización PJQ

Por Leonardo Ignacio Martínez Sandoval

Introducción

El algunas ocasiones es suficiente saber si una matriz es invertible o no. Sin embargo, esta es una distinción muy poco fina. Hay algunos otros problemas en los que se necesita decir más acerca de la matriz. Podemos pensar que una matriz invertible, como transformación lineal, «guarda toda la información» al pasar de un espacio vectorial a otro. Cuando esto no sucede, nos gustaría entender «qué tanta información se guarda». El rango de matrices es una forma de medir esto. Si la matriz es de $m\times n$, el rango es un número entero que va de cero a $n$. Mientras mayor sea, «más información guarda».

Por definición, el rango de una matriz $A$ de $m\times n$ es igual a la dimensión del subespacio vectorial de $\mathbb{R}^m$ generado por los vectores columna de $A$. Una matriz de $n\times n$ tiene rango $n$ si y sólo si es invertible.

Si pensamos a $A$ como la transformación lineal de $\mathbb{R}^n$ a $\mathbb{R}^m$ tal que $X\mapsto AX$, entonces el rango es precisamente la dimensión de la imagen de $A$. Esto permite extender la definición de rango a transformaciones lineales arbitrarias, y se estudia con generalidad en un curso de álgebra lineal.

En las siguientes secciones enunciaremos sin demostración algunas propiedades del rango de matrices y las usaremos para resolver problemas.

Propiedades del rango de matrices

Comenzamos enunciando algunas propiedades del rango de matrices

Teorema. Sean $m$, $n$ y $p$ enteros. Sea $B$ una matriz de $n\times p$, y $A$, $A’$ matrices de $m\times n$. Sean además $P$ una matriz de $n\times p$ cuya transformación lineal asociada es suprayectiva y $Q$ una matriz de $r\times m$ cuya transformación lineal asociada es inyectiva. Entonces:

  1. $\rank(A)\leq \min(m,n)$
  2. $\rank(AB)\leq \min(\rank(A),\rank(B))$
  3. $\rank(A+A’)\leq \rank(A) + \rank(A’)$
  4. $\rank(QA) = \rank(A)$
  5. $\rank(AP)=\rank(A)$

Consideremos el siguiente problema, tomado del libro Essential Linear Algebra de Titu Andreescu.

Problema. Las matrices $A$ y $B$ tienen entradas reales. La matriz $A$ es de $3\times 3$, la matriz $B$ es de $2\times 3$ y además $$AB=\begin{pmatrix} 0 & -1 & -1 \\ -1 & 0 & -1 \\ 1 & 1 & 2 \end{pmatrix}.$$ Determina el valor del producto $BA$.

Sugerencia pre-solución. Un paso intermedio clave es mostrar que el producto $BA$ es invertible.

Solución. Para empezar, afirmamos que $(AB)^2=AB$. Esto se puede verificar directamente haciendo el producto de matrices.

Luego, afirmamos que el rango de $AB$ es $2$. En efecto, eso se puede hacer fácilmente por definición. Por un lado, la suma de las primeras dos columnas es igual a la tercera, así que el espacio vectorial que generan las tres es de dimensión a lo más dos. Pero es al menos dos, pues las primeras dos columnas son linealmente independientes. Esto muestra la afirmación.

Ahora, usando la propiedad (2) del teorema dos veces, tenemos que
\begin{align*}
\rank(BA)&\geq \rank (A(BA)) \\
&\geq \rank (A(BA)B)\\
&=\rank((AB)^2) \\
&= \rank (AB)\\
&=2.
\end{align*}

Así, $BA$ es una matriz de $2\times 2$ de rango $2$ y por lo tanto es invertible.

Consideremos ahora el producto $(BA)^3$. Desarrollando y usando que $(AB)^2=AB$, tenemos que

\begin{align*}
(BA)^3 &= BABABA \\
&=B(AB)^2 A\\
&=BABA\\
&=(BA)^2.
\end{align*}

Como $BA$ es invertible, entonces $(BA)^2$ tiene inversa. Si multiplicamos la igualdad $(BA)^3 = (BA)^2$ por esa inversa, obtenemos que $$BA=I_2.$$

$\square$

El teorema anterior nos permite acotar por arriba el rango del producto de dos matrices. También hay una desigualdad que nos permite acotar por abajo el rango de dicho producto, cuando las matrices son cuadradas.

Teorema (desigualdad de Sylvester). Para matrices $A$ y $B$ de $n\times n$, se tiene que $$\rank(AB)\geq \rank(A) + \rank(B) – n.$$

Problema. La matriz $A$ es de $2020 \times 2020$. Muestra que:

  • Si $A$ tiene rango $2017$, entonces la matriz $A^{673}$ no puede ser la matriz de $2020\times 2020$ de puros ceros, es decir, $O_{2020}$.
  • Si $A$ tiene rango $2016$, entonces la matriz $A^{673}$ puede ser la matriz $O_{2020}$.

Sugerencia pre-solución. Enuncia una afirmación más general relacionada con el rango que puedas probar por inducción utilizando la desigualdad de Sylvester.

Solución. Para la primer parte, probaremos primero algo más general. Afirmamos que si $M$ es una matriz de $n \times n$ de rango $n-s$ y $k$ es un entero positivo, entonces el rango de la matriz $M^k$ es por lo menos $n-ks$. Procedemos por inducción sobre $k$. Si $k=1$, el resultado es cierto pues $M$ tiene rango $n-s=n-1\cdot s$.

Supongamos el resultado para cierto entero $k$. Usando la desigualdad de Sylverster y la hipótesis inductiva, tenemos que
\begin{align*}
\rank(A^{k+1})&\geq \rank(A^k) + \rank(A) – n\\
&\geq (n-ks) + (n-s) – n\\
&=n-(k+1)s.
\end{align*}

Esto muestra la afirmación general.

Si regresamos a la primer parte del problema original y aplicamos el resultado anterior, tenemos que $A^{673}$ es una matriz de rango por lo menos $$2020 – 673 \cdot 3 = 2020 – 2019 = 1.$$ De esta forma, $A^{673}$ no puede ser la matriz $0$.

Hagamos ahora la segunda parte del problema. Para ello, debemos construir una matriz $A$ de $2020\times 2020$ de rango $2016$ tal que $A^{673}$ sea la matriz $0$. Para ello, consideremos la matriz $A$ tal que sus primeras $4$ columnas sean iguales al vector $0$, y que sus columnas de la $5$ a la $2020$ sean los vectores canónicos $e_1,\ldots, e_{2016}$.

Esta matriz claramente es de rango $2016$, pues el espacio generado por sus columnas es el espacio generado por $e_1,\ldots, e_{2016}$, que es de dimensión $2016$. Por otro lado, se puede mostrar inductivamente que para $k=1,\ldots,505$, se tiene que $A^{k}$ es una matriz en donde sus columnas de $1$ a $4k$ son todas el vector $0$, y sus columnas de $4k+1$ a $2020$ son $e_1,\ldots, e_{2020-4k}$. En particular, $A^{505}=O_{2020}$, y entonces $A^{673}$ también es la matriz de puros ceros.

$\square$

Equivalencias de rango de matrices

Hay muchas formas alternativas para calcular el rango de una matriz. El siguiente teorema resume las equivalencias más usadas en resolución de problemas.

Teorema. Sea $A$ una matriz de $m\times n$ con entradas reales. Los siguientes números son todos iguales:

  • El rango de $A$, es decir, la dimensión del espacio vectorial generado por los vectores columna de $A$.
  • La dimensión del espacio vectorial generado por los vectores fila de $A$. Observa que esto es, por definición, el rango de la transpuesta de $A$.
  • La cantidad de filas no cero que tiene la forma escalonada reducida de $A$.
  • (Teorema de rango-nulidad) $n-\dim \ker(A)$, donde $\ker(A)$ es el espacio vectorial de soluciones a $AX=0$.
  • El tamaño más grande de una submatriz cuadrada de $A$ que sea invertible.
  • La cantidad de eigenvalores complejos distintos de cero contando multiplicidades algebraicas.

Problema. Determina todos los posibles rangos que pueden tener las matrices con entradas reales de la forma $$\begin{pmatrix} a & b & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{pmatrix}.$$

Sugerencia pre-solución. Comienza haciendo casos pequeños. Para dar los ejemplos y mostrar que tienen el rango deseado, usa el teorema de equivalencia de rango para simplificar algunos argumentos.

Solución. El rango de una matriz de $4\times 4$ es un entero de $0$ a $4$. Debemos ver cuáles de estos valores se pueden alcanzar con matrices de la forma dada.

Tomando $a=b=c=d=0$, obtenemos la matriz $O_4$, que tiene rango $0$. Si $a=b=c=d=1$, obtenemos la matriz de puros unos, que tiene rango $1$. Además, si $a=1$ y $b=c=d=0$, obtenemos la matriz identidad, que tiene rango $4$.

Si $a=b=1$ y $c=d=0$, obtenemos la matriz $$A = \begin{pmatrix} 1 & 1 & 0 & 0 \\1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 1 & 1 \end{pmatrix}.$$ Esta matriz tiene sólo dos columnas diferentes, así que su rango es a lo más dos. Pero tiene como submatriz a la matriz $$I_2=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix},$$ que tiene rango $2$, entonces el rango de $A$ es al menos $2$. De esta forma, el rango de $A$ es $2$.

Veamos ahora que el rango puede ser $3$. Para ello, damos un argumento de determinantes. Llamemos $s=a+b+c+d$. Sumando las tres últimas filas a la primera y factorizando $s$, tenemos que
\begin{align*}
\begin{vmatrix} a & b & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}&=\begin{vmatrix} s & s & s & s \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}\\
&=s\begin{vmatrix} 1 & 1 & 1 & 1 \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}.
\end{align*}

Así, si tomamos $a=b=c=1$ y $d=-3$, entonces $s=0$ y por lo tanto la matriz $B$ que obtenemos no es invertible, así que su rango es a lo más tres. Pero además es de rango al menos tres pues $B$ tiene como submatriz a $$\begin{pmatrix} 1 & 1 & -3 \\ 1 & -3 & 1 \\ -3 & 1 & 1 \end{pmatrix},$$ que es invertible pues su determinante es $$-3-3-3-1-1+27=16\neq 0.$$

Concluimos que los posibles rangos que pueden tener las matrices de esa forma son $0,1,2,3,4$.

$\square$

El teorema de factorización $PJQ$

Existen diversos teoremas que nos permiten factorizar matrices en formas especiales. De acuerdo a lo que pida un problema, es posible que se requiera usar uno u otro resultado. El teorema de factorización más útil para cuando se están resolviendo problemas de rango es el siguiente.

Teorema (factorización $PJQ$). Sea $A$ una matriz de $m\times n$ y $r$ un entero en $\{0,\ldots,\min(m,n)\}$. El rango de $A$ es igual a $r$ si y sólo si existen matrices invertibles $P$ de $m\times m$ y $Q$ de $n\times n$ tales que $A=PJ_rQ$, en donde $J_r$ es la matriz de $m\times n$ cuyas primeras $r$ entradas de su diagonal principal son $1$ y todas las demás entradas son cero, es decir, en términos de matrices de bloque, $$J_r=\begin{pmatrix}
I_r & O_{r,n-r} \\
O_{m-r,r} & O_{m-r,n-r}
\end{pmatrix}.$$

Como evidencia de la utilidad de este teorema, sugerimos que intentes mostrar que el rango por columnas de una matriz es igual al rango por filas, usando únicamente la definición. Esto es relativamente difícil. Sin embargo, con el teorema $PJQ$ es inmediato. Si $A$ es de $m\times n$ y tiene rango $r$, entonces su factorización $PJQ$ es de la forma $$A=PJ_rQ.$$ Entonces al transponer obtenemos
\begin{align*}
^tA&= {^tQ} {^t J_r} {^tP}.
\end{align*}

Esto es de nuevo un factorización $PJQ$, con ${^t J_r}$ la matriz de $n\times m$ que indica que $^t A$ es de rango $r$.

Veamos ahora un problema clásico en el que se puede usar la factorización $PJQ$.

Problema. Sea $A$ una matriz de $m \times n$ y rango $r$. Muestra que:

  • $A$ puede ser escrita como la suma de $r$ matrices de rango $1$.
  • $A$ no puede ser escrita como la suma de $r-1$ o menos matrices de rango $1$.

Sugerencia pre-solución. Para la primer parte, usa el teorema $PJQ$. Para la segunda parte, usa desigualdades del rango.

Solución. Tomemos $A=PJ_rQ$ una factorización $PJQ$ de $A$.

Hagamos la primer parte. Para ello, para cada $i=1,\ldots,r$, consideremos la matriz $L_i$ de $m\times n$ tal que su $i$-ésima entrada en la diagonal principal es $1$ y el resto de sus entradas son iguales a $0$.

Por un lado, $L_i$ es de rango $1$, pues tiene sólo una columna distinta de cero. De este modo, $$\rank(PL_iQ)\leq \rank(PL_i) \leq \rank(L_i)=1,$$ y como $P$ y $Q$ son invertibles, $$\rank(PL_iQ)\geq \rank(L_i) \geq 1.$$ Así, para cada $i=1,\ldots, r$, se tiene que $L_i$ es de rango $1$.

Por otro lado, $$J_r = L_1 + L_2 + \ldots + L_r,$$ así que
\begin{align*}
A&=PJ_rQ\\
&=P(L_1 + L_2 + \ldots + L_r)Q\\
&=PL_1Q + PL_2Q + \ldots + PL_rQ.
\end{align*}

Esto expresa a $A$ como suma de $r$ matrices de rango $1$.

Para la segunda parte del problema, usamos repetidamente que el rango es subaditivo. Si tenemos matrices $B_1,\ldots,B_s$ matrices de $m\times n$, entonces
\begin{align*}
\rank(B_1&+B_2+\ldots+B_s) & \\
&\leq \rank(B_1) + \rank (B_2 + \ldots + B_s)\\
&\leq \rank(B_1) + \rank(B_2) + \rank(B_3+\ldots+B_s)\\
& vdots \\
&\leq \rank(B_1) + \rank(B_2) + \ldots + \rank(B_s).
\end{align*}

Si cada $B_i$ es de rango $1$, entonces su suma tiene rango a lo más $s$.

Así, la suma de $r-1$ o menos matrices de rango $1$ tiene rango a lo más $r-1$, y por lo tanto no puede ser igual a $A$.

$\square$

Más problemas

Puedes encontrar más problemas de rango de una matriz en la Sección 5.4 del libro Essential Linear Algebra de Titu Andreescu. El teorema $PJQ$, así como muchos problemas ejemplo, los puedes encontrar en el Capítulo 5 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.

Seminario de Resolución de Problemas: Sistemas de ecuaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Finalmente, en esta serie de entradas, veremos temas selectos de álgebra lineal y su aplicación a la resolución de problemas. Primero, hablaremos de sistemas de ecuaciones lineales. Luego, hablaremos de evaluación de determinantes. Después, veremos teoría de formas cuadráticas y matrices positivas. Finalmente, estudiaremos dos teoremas muy versátiles: el teorema de factorización $PJQ$ y el teorema de Cayley-Hamilton.

Como lo hemos hecho hasta ahora, frecuentemente no daremos las demostraciones para los resultados principales. Además, asumiremos conocimientos básicos de álgebra lineal. También, asumiremos que todos los espacios vectoriales y matrices con los que trabajaremos son sobre los reales o complejos, pero varios resultados se valen más en general.

Para cubrir los temas de álgebra lineal de manera sistemática, te recomendamos seguir un libro como el Essential Linear Algebra de Titu Andreescu, o el Linear Algebra de Friedberg, Insel y Spence. Mucho del material también lo puedes consultar en las notas de curso que tenemos disponibles en el blog.

Sistemas de ecuaciones lineales

Una ecuación lineal en $n$ incógnitas en $\mathbb{R}$ consiste en fijar reales $a_1,\ldots,a_n, b$ y determinar los valores de las variables $x_1,\ldots,x_n$ tales que $$a_1x_1+a_2x_2+\ldots+a_nx_n=b.$$

Si $a_1,\ldots,a_n$ no son todos cero, los puntos $(x_1,\ldots,x_n)$ en $\mathbb{R}^n$ que son solución a la ecuación definen un hiperplano en $\mathbb{R}^n$.

Un sistema de ecuaciones lineales con $m$ ecuaciones y $n$ variables consiste en fijar, para $i$ en $\{1,\ldots,m\}$ y $j$ en $\{1,\ldots,n\}$ a reales $a_{ij}$ y $b_i$, y determinar los valores de las variables $x_1,\ldots,x_n$ que simultáneamente satisfacen todas las $m$ ecuaciones
$$\begin{cases}
a_{11}x_1+ a_{12}x_2+\ldots + a_{1n}x_n = b_1\\
a_{21}x_1+a_{22}x_2+\ldots+a_{2n}x_n = b_2\\
\quad \quad \vdots\\
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n = b_m.
\end{cases}$$

Este sistema de ecuaciones se puede reescribir en términos matriciales de manera muy sencilla. Si $A$ es la matriz de $m\times n$ de entradas $[a_{ij}]$, $X$ es el vector de variables $(x_1,\ldots,x_n)$ y $b$ es el vector de reales $b_1,\ldots,b_m$, entonces el sistema de ecuaciones anterior se reescribe simplemente como $$AX=b.$$

Sistemas de ecuaciones lineales con mucha simetría

En algunos sistemas de ecuaciones hay mucha simetría, y no es necesario introducir técnicas avanzadas de álgebra lineal para resolverlos. Veamos el siguiente ejemplo.

Problema. Resuelve el sistema de ecuaciones

$$\begin{cases}
7a+2b+2c+2d+2e= -2020\\
2a+7b+2c+2d+2e=-1010\\
2a+2b+7c+2d+2e=0\\
2a+2b+2c+7d+2e=1010\\
2a+2b+2c+2d+7e=2020.
\end{cases}$$

Sugerencia pre-solución. Trabaja hacia atrás, suponiendo que el sistema tiene una solución. A partir de ahí, puedes usar las cinco ecuaciones y combinarlas con sumas o restas para obtener información.

Solución. Al sumar las cinco ecuaciones, obtenemos que $$15(a+b+c+d+e)=0,$$ de donde $2(a+b+c+d+e)=0$. Restando esta igualdad a cada una de las ecuaciones del sistema original, obtenemos que
$$\begin{cases}
5a= -2020\\
5b=-1010\\
5c=0\\
5d=1010\\
5e=2020.
\end{cases}$$

De aquí, si el sistema tiene alguna solución, debe suceder que
\begin{align*}
a&=\frac{-2020}{5}=-404\\
b&=\frac{-2020}{5}=-202\\
c&=\frac{-2020}{5}= 0\\
d&=\frac{-2020}{5}=202\\
e&=\frac{-2020}{5}=404.
\end{align*}

Como estamos trabajando hacia atrás, esta es sólo una condición necesaria para la solución. Sin embargo, una verificación sencilla muestra que también es una condición suficiente.

$\square$

Sistemas de ecuaciones de n x n y regla de Cramer

Si tenemos un sistema de $n$ variables y $n$ incógnitas, entonces es de la forma $$AX=b$$ con una matriz $A$ cuadrada de $n\times n$. Dos resultados importantes para sistemas de este tipo son el teorema de existencia y unicidad, y las fórmulas de Cramer.

Teorema (existencia y unicidad de soluciones). Si $A$ es una matriz cuadrada invertible de $n\times n$ y $b$ es un vector de $n$ entradas, entonces el sistema lineal de ecuaciones $$AX=b$$ tiene una solución única y está dada por $X=A^{-1}b$.

El teorema anterior requiere saber determinar si una matriz es invertible o no. Hay varias formas de hacer esto:

  • Una matriz cuadrada es invertible si y sólo si su determinante no es cero. Más adelante hablaremos de varias técnicas para evaluar determinantes.
  • Una matriz cuadrada es invertible si y sólo si al aplicar reducción gaussiana, se llega a la identidad.
  • También ,para mostrar que una matriz es invertible, se puede mostrar que cumple alguna de las equivalencias de invertibilidad.

Problema. Demuestra que el sistema lineal de ecuaciones

$$\begin{cases}
147a+85b+210c+483d+133e= 7\\
91a+245b+226c+273d+154e=77\\
-119a+903b+217c+220d+168e=777\\
189a+154b-210c-203d-108e=7777\\
229a+224b+266c-133d+98e=77777.
\end{cases}$$

tiene una solución única.

Sugerencia pre-solución. Reduce el problema a mostrar que cierta matriz es invertible. Para ello, usa alguno de los métodos mencionados. Luego, para simplificar mucho el problema, necesitarás un argumento de aritmética modular. Para elegir en qué módulo trabajar, busca un patrón en las entradas de la matriz.

Solución. Primero, notemos que el problema es equivalente a demostrar que la matriz

$$A=\begin{pmatrix}
147 & 85 & 210 & 483 & 133\\
91 & 245 & 226 & 273 & 154\\
-119 & 903 & 217 & 220 & 168\\
189 & 154 & -210 & -203 & -108 \\
229 & 224 & 266 & -133 & 98
\end{pmatrix}$$

es invertible. Mostraremos que su determinante no es $0$. Pero no calcularemos todo el determinante, pues esto es complicado.

Notemos que como $A$ es una matriz de entradas enteras, entonces su determinante (que es suma de productos de entradas), también es entero. Además, como trabajar en aritmética modular respeta sumas y productos, para encontrar el residuo de $\det(A)$ al dividirse entre $7$ se puede primero reducir las entradas de $A$ módulo $7$, y luego hacer la cuenta de determinante.

Al reducir las entradas módulo $7$, tenemos la matriz

$$B=\begin{pmatrix}
0 & 1 & 0 & 0 & 0 \\
0&0 & 2 & 0 & 0\\
0 & 0 & 0 & 3 & 0\\
0&0 & 0 & 0 & 4 \\
5& 0 & 0 & 0 & 0
\end{pmatrix}.$$

El determinante de la matriz $B$ es $-(1\cdot 2 \cdot 3 \cdot 4 \cdot 5)=-120$. Así,
\begin{align*}
\det(A) & \equiv \det(B)\\
&=-120\\
&\equiv 6 \pmod 7.
\end{align*}

Concluimos que $\det(A)$ es un entero que no es divisible entre $7$, por lo cual no puede ser cero. Así, $A$ es invertible.

$\square$

Por supuesto, en cualquier otro módulo podemos hacer la equivalencia y simplificar las cuentas. Pero $7$ es particularmente útil para el problema anterior pues se simplifican casi todas las entradas, y además funciona para dar un residuo no cero.

Ahora veremos otra herramienta importante para resolver problemas de ecuaciones lineales: las fórmulas de Cramer.

Teorema (fórmulas de Cramer). Sea $A$ una matriz invertible de $n\times n$ con entradas reales y $b=(b_1,\ldots,b_n)$ un vector de reales. Entonces el sistema lineal de ecuaciones $AX=b$ tiene una única solución $X=(x_1,\ldots,x_n)$ dada por $$x_i=\frac{\det A_i}{\det A},$$ en donde $A_i$ es la matriz obtenida al reemplazar la $i$-ésima columna de $A$ por el vector columna $b$.

En realidad este método no es tan útil en términos prácticos, pues requiere que se evalúen muchos determinantes, y esto no suele ser sencillo. Sin embargo, las fórmulas de Cramer tienen varias consecuencias teóricas importantes.

Problema. Muestra que una matriz invertible $A$ de $n\times n$ con entradas enteras cumple que su inversa también tiene entradas enteras si y sólo si el determinante de la matriz es $1$ ó $-1$.

Sugerencia pre-solución. Para uno de los lados necesitarás las fórmulas de Cramer, y para el otro necesitarás que el determinante es multiplicativo.

Solución. El determinante de una matriz con entradas enteras es un número entero. Si la inversa de $A$ tiene entradas enteras, entonces su determinante es un entero. Usando que el determinante es multiplicativo, tendríamos que $$\det(A)\cdot \det(A^{-1}) = \det (I) = 1.$$ La única forma en la que dos enteros tengan producto $1$ es si ambos son $1$ o si ambos son $-1$. Esto muestra una de las implicaciones.

Ahora, supongamos que $A$ tiene determinante $\pm 1$. Si tenemos una matriz $B$ de columnas $C_1,\ldots,C_n$, entonces para $j$ en $\{1,\ldots,n\}$ la $j$-ésima columna de $AB$ es $AC_j$. De este modo, si $D_1,\ldots, D_n$ son las columnas de $A^{-1}$, se debe cumplir para cada $j$ en $\{1,\ldots,n\}$ que $$AD_j= e_j,$$ en donde $e_j$ es el $j$-ésimo elemento de la base canónica. Para cada $j$ fija, esto es un sistema de ecuaciones.

Por las fórmulas de Cramer, la $i$-ésima entrada de $C_j$, que es la entrada $x_{ij}$ de la matriz $A^{-1}$, está dada por $$x_{ij}=\frac{\det(A_{ij})}{\det(A)}=\pm \det(A_{ij}),$$ donde $A_{ij}$ es la matriz obtenida de colocar al vector $e_j$ en la $i$-ésima columna de $A$.

La matriz $A_{ij}$ tiene entradas enteras, así que $x_{ij}=\pm \det(A_{ij})$ es un número entero. Así, $A^{-1}$ es una matriz de entradas enteras.

$\square$

Sistemas de ecuaciones de m x n y teorema de Rouché-Capelli

Hasta aquí, sólo hemos hablando de sistemas de ecuaciones que tienen matrices cuadradas asociadas. También, sólo hemos hablado de los casos en los que no hay solución, o bien en los que cuando la hay es única. Los sistemas de ecuaciones lineales en general tienen comportamientos más interesantes. El siguiente resultado caracteriza de manera elegante todo lo que puede pasar.

Teorema (Rouché-Capelli). Sea $A$ una matriz de $m\times n$ con entradas reales, $(b_1,\ldots,b_m)$ un vector de reales y $(x_1,\ldots,x_n)$ un vector de incógnitas. Supongamos que $A$ tiene rango $r$. Entonces:

  • El sistema $AX=b$ tiene al menos una solución $X_0$ si y sólo si el rango de la matriz de $m\times (n+1)$ obtenida de colocar el vector $b$ como columna al final de la matriz $A$ también tiene rango $r$.
  • El conjunto solución del sistema $AX=(0,0,\ldots,0)$ es un subespacio vectorial $\mathcal{S}$ de $\mathbb{R}^n$ de dimensión $n-r$.
  • Toda solución al sistema $AX=b$ se obtiene de sumar $X_0$ y un elemento de $\mathcal{S}$.

Problema. Encuentra todos los polinomios $p(x)$ con coeficientes reales y de grado a lo más $3$ tales que $p(2)=3$ y $p(3)=2$.

Sugerencia pre-solución. Usa notación efectiva, eligiendo variables para cada uno de los coeficientes de $p(x)$. Luego, enuncia cada hipótesis como una ecuación.

Solución. Tomemos $p(x)=ax^3+bx^2+cx+d$. La hipótesis implica que

$$\begin{cases}
8a+4b+2c+d=p(2)= 3\\
27a+9b+3c+d=p(3)=2.
\end{cases}$$

El rango de la matriz $$\begin{pmatrix} 8 & 4 & 2 & 1\\ 27 & 9 & 3 & 1\end{pmatrix}$$ es a lo más $2$, pues tiene $2$ renglones. Pero es al menos $2$, pues los dos vectores columna $(2,3)$ y $(1,1)$ son linealmente independientes. Exactamente el mismo argumento muestra que la matriz aumentada $$\begin{pmatrix} 8 & 4 & 2 & 1 & 3\\ 27 & 9 & 3 & 1 & 2\end{pmatrix}$$ es de rango $2$. Por el primer punto del teorema de Rouché-Capelli, este sistema tiene solución.

Para encontrar esta solución de manera práctica, fijamos reales $a$ y $b$ y notamos que ahora

$$\begin{cases}
2c+d= 3-8a-4b\\
3c+d=2-27a-9b
\end{cases}$$

es un sistema en $2$ variables, y como $$\det\begin{pmatrix} 2 & 1\\ 3 & 1\end{pmatrix}=-1,$$ tiene una única solución para $c$ y $d$. Al hacer las cuentas, o usar fórmulas de Cramer, obtenemos que
\begin{align*}
c&=-1-19a-5b\\
d&=5+30a+6b.
\end{align*}

Así, concluimos que los polinomios $p(x)$ solución consisten de elegir cualesquiera reales $a$ y $b$ y tomar $$p(x)=ax^3+bx^2-(1+19a+5b)x+(5+20a+6b).$$

$\square$

Por supuesto, para usar este teorema es necesario conocer el rango de la matriz $A$. En el problema tuvimos la suerte de que eso es sencillo. Hablaremos más adelante de varias técnicas para encontrar el rango de matrices.

Más problemas

Puedes encontrar más problemas de sistemas de ecuaciones lineales en el Capítulo 3 y en la Sección 7.6 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Por Blanca Radillo

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema 1. Considera los vectores

$v_1=(1,x,0,1), \quad v_2=(0,1,2,1), \quad v_3=(1,1,1,1)$

en $\mathbb{R}^4$. Prueba que para cualquier elección de $x\in\mathbb{R}$, los vectores $v_1,v_2,v_3$ son linealmente independientes.

Solución. Sea $A$ la matriz cuyas columnas son $v_1,v_2,v_3$, es decir,

$A=\begin{pmatrix} 1 & 0 & 1 \\ x & 1 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{pmatrix}.$

Sabemos que $v_1,v_2,v_3$ son linealmente independiente si y sólo si $\text{dim(span}(v_1,v_2,v_3))=3$, ya que $\text{rank}(A)=3$, y eso es equivalente (por la clase del lunes) a demostrar que $A$ tiene una submatriz de $3\times 3$ invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

$\begin{vmatrix} 1 & 0 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{vmatrix}=-1,$

lo que implica que es invertible, y por lo tanto $v_1,v_2, v_3$ son vectores linealmente independientes.

$\square$

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre $\mathbb{R}$ o sobre $\mathbb{C}$. Como $\mathbb{R}\subset \mathbb{C}$, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en $\mathbb{R}$ se cumplen en $\mathbb{C}$. En este caso particular, si las soluciones de una matriz en $M_{m,n}(\mathbb{R})$ son soluciones de la misma matriz pero vista como elemento en $M_{m,n}(\mathbb{C})$. El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea $A\in M_{m,n}(F)$ y sea $F_1$ un campo contenido en $F$. Consideremos el sistema lineal $AX=0$. Si el sistema tiene una solución no trivial en $F_1^n$, entonces tiene una solución no trivial en $F^n$.

Demostración. Dado que el sistema tiene una solución no trivial en $F_1^n$, $r:=\text{rank}(A) < n$ vista como elemento en $M_{m,n}(F_1)$. Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a $A$ como elemento de $M_{m,n}(F_1)$ o de $M_{m,n}(F)$. Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de $F^n$ de dimensión $n-r>0$. Por lo tanto, el sistema $AX=0$ tiene una solución no trivial en $F^n$.

$\square$

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. 2 Sea $S_a$ el siguiente sistema lineal:

$\begin{matrix} x-2y+z=1 \\ 3x+2y-2z=2 \\ 2x-y+az=3 \end{matrix}.$

Encuentra los valores de $a$ para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como $AX=b$ donde

$A=\begin{pmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{pmatrix} \quad \text{y} \quad b=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}.$

Notemos que

$\begin{vmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{vmatrix}=8a-1,$

entonces si $a\neq 1/8$, $A$ es invertible, y por lo tanto $\text{rank}(A)=3$, mientras que si $a=1/8$, $A$ no es invertible y $\text{rank}(A)=2$ ya que la submatriz es invertible

$\begin{vmatrix} 1 & -2 \\ 3 & 2 \end{vmatrix}=8.$

Además, si la matriz $(A,b)$ es igual a

$\begin{pmatrix} 1 & -2 & 1 & 1 \\ 3 & 2 & -2 & 2 \\ 2 & -1 & a & 3 \end{pmatrix},$

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, $\text{rank}(A,b)=3$.

Aplicando el Teorema de Rouché-Capelli, para $a=1/8$, el sistema $AX=b$ no tiene soluciones. También podemos concluir que como $\text{rank}(A)=3$ para todo $a\neq 1/8$, el sistema tiene exactamente una solución. (Y $AX=b$ nunca tiene infinitas soluciones).

$\triangle$

Problema 3. Sean $a,b,c$ números reales dados. Resuelve el sistema lineal

$\begin{matrix} (b+c)x+by+cz=1 \\ ax+ (a+c)y+cz=1 \\ ax+by+(a+b)z=1 \end{matrix}.$

Solución. La matriz del sistema es

$A=\begin{pmatrix} b+c & b & c \\ a & a+c & c \\ a & b & a+b \end{pmatrix}.$

No es difícil ver que $\text{det}(A)=4abc$. Si $abc\neq 0$, usando la regla de Cramer, la única solución al sistema está dada por

$x=\frac{\begin{vmatrix} 1 & b & c \\ 1 & a+c & c \\ 1 & b & a+b \end{vmatrix}}{4abc}, \quad y=\frac{\begin{vmatrix} b+c & 1 & c \\ a & 1 & c \\ a & 1 & a+b \end{vmatrix}}{4abc}$

$y=\frac{\begin{vmatrix} b+c & b & 1 \\ a & a+c & 1 \\ a & b & 1 \end{vmatrix}}{4abc},$

resolviendo los determinantes obtenemos que

$x=\frac{a^2 -(b-c)^2}{4abc}, \quad y=\frac{b^2 -(a-c)^2}{4abc}, \quad z=\frac{c^2-(a-b)^2}{4abc}.$

Ahora, si $abc=0$, entonces $A$ no es invertible ($\text{rank}(A)<3$). El sistema es consistente si y sólo si $\text{rank}(A)=\text{rank}(A,b)$.

Sin pérdida de generalidad, decimos que $a=0$ (pues $abc=0$). Esto reduce el sistema a

$\begin{matrix} (b+c)x+by+cz=1 \\ c(y+z)=1 \\ b(y+z)=1 \end{matrix}.$

El sistema es consistente si $b=c$ y distintos de cero. En este caso, tenemos que $b(2x+y+z)=1$ y $b(y+z)=1$, implicando $x=0$, $y+z=1/b$. De manera similar, obtenemos las posibles soluciones si $b=0$ o si $c=0$.

Resumiendo:

  • Si $abc\neq 0$, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) $a=0$ y $b=c \neq 0$; caso 2) $b=0$ y $a=c\neq 0$; caso 3) $c=0$ y $a=b\neq 0$, tenemos infinitas soluciones descritas como, para todo $w\in \mathbb{R}$: caso 1) $(0,w,1/b-w)$; caso 2) $(w,0,1/a-w)$; caso 3) $(w,1/a-w,0)$.
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para $a,b,c$, el sistema no es consistente.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz $A$ en $M_{m,n}(F)$ es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación $X\mapsto AX$ de $F^n\to F^m$. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de $A$. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de $A$.

Lo que veremos ahora es que podemos determinar el rango de una matriz $A$ calculando algunos determinantes de matrices pequeñas asociadas a $A$. Una submatriz de $A$ es una matriz que se obtiene de eliminar algunas filas o columnas de $A$.

Teorema. Sea $A$ una matriz en $M_{m,n}(F)$. El rango de $A$ es igual al tamaño de la submatriz cuadrada más grande de $A$ que sea invertible.

Demostración. Llamemos $C_1,\ldots,C_n$ a las columnas de $A$. Sabemos que $$r=\dim \text{span}(C_1,\ldots,C_n).$$

Mostraremos primero que hay una submatriz cuadrada de tamaño $r$. Por el lema de Steinitz, podemos escoger $r$ enteros $1\leq i_1<\ldots<i_r\leq n$ tal que las columnas $C_{i_1},\ldots,C_{i_r}$ de $A$ cumplen $$\text{span}(C_1,\ldots,C_n)=\text{span}(C_{i_1},\ldots,C_{i_r}).$$ Así, la matriz $B$ hecha por columnas $C_{i_1},\ldots,C_{i_r}$ está en $M_{m,r}(F)$ y es de rango $r$.

Ahora podemos calcular el rango de $B$ por filas. Si $F_1,\ldots,F_m$ son las filas de $B$, tenemos que $$r=\dim \text{span}(F_1,\ldots,F_m).$$ De nuevo, por el lema de Steinitz, existen enteros $1\leq j_1<\ldots<j_r\leq m$ tales que $$\text{span}(F_1,\ldots,F_m)=\text{span}(F_{i_1},\ldots,F_{i_r}).$$ De esta forma, la matriz $C$ hecha por las filas $F_{j_1},\ldots,F_{j_r}$ está en $M_r(F)$ y es de rango $r$. Por lo tanto, $C$ es una matriz cuadrada de tamaño $r$ y es invertible.

Esta matriz $C$ es una submatriz de $A$ pues se obtiene al eliminar de $A$ todas las columnas en posiciones distintas a $i_1,\ldots,i_r$ y todas las filas en posiciones distintas a $j_1,\ldots,j_r$. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si $B$ es una submatriz de $A$ cuadrada e invertible de tamaño $d$, entonces $d\leq r$. En efecto, tomemos una $B$ así. Sus columnas son linealmente independientes. Si $i_1<\ldots<i_n$ corresponden a los índices de las columnas de $A$ que se preservan al pasar a $B$, entonces las columnas $C_{i_1},\ldots,C_{i_d}$ de $A$ son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de $B$, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,
\begin{align*}
d&=\dim \text{span}(C_{i_1},\ldots,C_{i_d})\\
&\leq \dim \text{span} (C_1,\ldots,C_d)\\
&=r,
\end{align*}

que es la desigualdad que nos faltaba para terminar la prueba.

$\square$

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en $M_{3,5}(\mathbb{R})$: $$A=\begin{pmatrix}4 & 5 & -4 & 7 & 2\\ 0 & -3 & -1 & 0 & 9\\ 0 & -5 & 0 & 9 & -3 \end{pmatrix}.$$

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho $\min(3,5)=3$.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada $$\begin{pmatrix} 4 & -4 & 2\\ 0 & -1 & 9\\ 0 & 0 & -3\end{pmatrix}.$$ Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es $4\cdot (-1)\cdot (-3)=12$.

Como el determinante no es cero, es una matriz invertible de tamaño $3$. Por la proposición anterior, el rango de $A$ debe ser entonces mayor o igual a $3$. Juntando las dos desigualdades que encontramos, el rango de $A$ debe ser igual a $3$.

$\triangle$

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con $m$ ecuaciones y $n$ incógnitas es de la forma

\begin{align*}
a_{11}x_1 + a_{12} x_2 + \ldots + a_{1n}x_n &= b_1\\
a_{21}x_1 + a_{22} x_2 + \ldots + a_{2n}x_n &= b_2\\
\vdots&\\
a_{m1}x_1 + a_{m2} x_2 + \ldots + a_{mn}x_n &= b_m,
\end{align*}

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:
\begin{align*}
A&=\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix},\\
b&=\begin{pmatrix}b_1\\ \vdots\\ b_m\end{pmatrix} \text{ y }\; X=\begin{pmatrix}x_1\\ \vdots\\ x_n\end{pmatrix},
\end{align*} y reescribiendo el sistema como $$AX=b.$$

Si $C_1,\ldots, C_n$ son las columnas de la matriz $A$, también sabemos que $$AX=x_1C_1+\ldots + x_nC_n,$$ de modo que el sistema de ecuaciones puede ser escrito como $$x_1C_1+\ldots + x_nC_n=b.$$

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si $b$ está en el espacio generado por las columnas de $A$, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean $A\in M_n(F)$ y $b\in F^m$. Sea $(A|b)$ la matriz en $M_{n,n+1}(F)$ obtenida de agregar a $b$ como columna hasta la derecha de la matriz $A$. Entonces:

  • El sistema lineal de ecuaciones $AX=b$ tiene al menos una solución si y sólo si $\rank(A)=\rank((A|b))$.
  • El conjunto de soluciones $\mathcal{S}_h$ al sistema homogéneo es un subespacio de $F^n$ de dimensión $n-\rank(A)$.

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si $b$ es una combinación lineal de las columnas de $A$. De esta forma, si existe una solución, entonces $\rank(A)=\rank((A|b))$, pues el espacio generado por las columnas de $A$ sería el mismo que el de las columnas de $(A|b)$.

Por otro lado, si $\rank(A)=\rank((A|b))$ es porque las columnas de $A$ y las de $(A|b)$ generan el mismo espacio, de modo que $b$ está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es $AX=0$, de modo que el conjunto solución es precisamente el kernel de la transformación $T:F^n\to F^m$ tal que $X\mapsto AX$. Por el teorema de rango-nulidad, tenemos que $$\dim \mathcal{S}_h = n-\dim \text{Im}(T)=n-\text{rank}(A).$$ Esto termina la demostración.

$\square$

Como discutimos con anterioridad, ya que tenemos una solución $x_0$ para el sistema de ecuaciones $AX=b$, entonces todas las soluciones son el conjunto $$x_0+\mathcal S_h:=\{x_0 + x: x\in \mathcal S_h\}.$$ En otras palabras, cualquier solución al sistema se puede obtener sumando a $x_0$ una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en $\mathbb{R}$ en tres variables:
\begin{align*}
2x+3y-z=1\\
3x-y+2z=0\\
3x+10y-5z=0
\end{align*}

Afirmamos que el sistema no tiene solución. La matriz asociada es $A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}$. Por lo que sabemos de determinantes de $3\times 3$, podemos calcular su determinante como
\begin{align*}
\begin{vmatrix}
2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5
\end{vmatrix} &= (2)(-1)(-5)+(3)(10)(-1)+(3)(3)(2)\\
&-(-1)(-1)(3)-(2)(10)(2)-(3)(3)(-5)\\
&=10-30+18-3-40+45\\
&=0.
\end{align*}

Esto muestra que $A$ no es invertible, y que por lo tanto tiene rango a lo más $2$. Como $$\begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix} = (2)(-1)-(3)(3)=-11$$ es un subdeterminante no cero de tamaño 2, entonces $A$ tiene rango $2$.

Ahora consideremos la matriz $$(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 0\end{pmatrix}.$$ Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de $3\times 3$ por expansión de Laplace en la última columna:

\begin{align*}
\begin{vmatrix}
2 & 3 & 1\\ 3 & -1 & 0 \\ 3 & 10 & 0
\end{vmatrix} &= 1 \cdot \begin{vmatrix} 3 & -1 \\ 3 & 10 \end{vmatrix} – 0 \begin{vmatrix} 2 & 3 \\ 3 & 10 \end{vmatrix} + 0 \cdot \begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix}\\
&= 1 \cdot (3\cdot 10 + 1\cdot 3)\\
&=33.
\end{align*}

De esta forma, $(A|b)$ tiene una submatriz de $3\times 3$ invertible, y por lo tanto tiene rango al menos $3$. Como tiene $3$ filas, su rango es a lo más $3$. Con esto concluimos que su rango es exactamente $3$. Conluimos que $$\text{rank} A = 2 \neq 3 = \text{rank} (A|b),$$ de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

$\triangle$

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz $A$ es de rango $r$, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada $B$ de tamaño $r$ que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables $x_1,\ldots,x_r$ y a las primeras $r$ ecuaciones. De esta forma, el sistema $AX=b$ se resume en el siguiente sistema de ecuaciones equivalente:

\begin{align*}
a_{11}x_1 + a_{12} x_2 + \ldots + a_{1r}x_r &= b_1-a_{1,r+1}x_{r+1}-\ldots -a_{1,n} x_n\\
a_{21}x_1 + a_{22} x_2 + \ldots + a_{2r}x_r &= b_2-a_{2,r+1}x_{r+1}-\ldots -a_{2,n} x_n\\
\vdots\\
a_{r1}x_1 + a_{r2} x_2 + \ldots + a_{rr}x_r &= b_m-a_{r,r+1}x_{r+1}-\ldots -a_{r,n} x_n,
\end{align*}

Aquí $x_{r+1},\ldots,x_n$ son lo que antes llamábamos las variables libres y $x_1,\ldots,x_r$ son lo que llamábamos variables pivote. Como la submatriz $B$ correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal $AX=b$ en donde $A$ es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea $A$ una matriz invertible en $M_n(F)$ y $b=(b_1,\ldots,b_n)$ un vector en $F^n$. Entonces el sistema lineal de ecuaciones $AX=b$ tiene una única solución $X=(x_1,\ldots,x_n)$ dada por $$x_i=\frac{\det A_i}{\det A},$$ en donde $A_i$ es la matriz obtenida al reemplazar la $i$-ésima columna de $A$ por el vector columna $b$.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por $$X=(x_1,\ldots,x_n)=A^{-1}b.$$

Si $C_1,\ldots,C_n$ son las columnas de $A$, que $(x_1,\ldots,x_n)$ sea solución al sistema quiere decir que $$x_1C_1+\ldots+x_nC_n=b.$$

El determinante pensado como una función en $n$ vectores columna es $n$-lineal, de modo que usando la linealidad en la $i$-ésima entrada y que el determinantes es alternante, tenemos que:
\begin{align*}
\det A_i &= \det(C_1,\ldots,C_{i-1},b,C_{i+1},\ldots,C_n)\\
&= \det(C_1,\ldots,C_{i-1},\sum_{j=1}^n x_j C_j,C_{i+1},\ldots,C_n)\\
&=\sum_{j=1}^n x_j \det(C_1,\ldots,C_{i-1},C_j,C_{i+1},\ldots,C_n)\\
&=x_i \det(C_1,\ldots,C_{i-1},C_i,C_{i+1},\ldots,C_n)\\
&=x_i \det A
\end{align*}

Como $A$ es invertible, su determinante no es $0$, de modo que $$x_i=\frac{\det A_i}{\det A},$$ como queríamos.

$\square$

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en $\mathbb{R}$ en tres variables:
\begin{align*}
2x+3y-z=1\\
3x-y+2z=0\\
3x+10y-5z=3
\end{align*}

En un ejemplo anterior vimos que la matriz asociada $A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}$ tiene rango $2$. Se puede verificar que la matriz aumentada $$(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 3 \end{pmatrix}$$ también tiene rango $2$. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones $AX=b$, y el sistema homogéneo tiene espacio de soluciones de dimensión $3-2=1$.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante $2(-1)-(3)(3)=-11\neq 0$, entonces el sistema de ecuaciones original es equivalente al subsistema

\begin{align*}
2x+3y=1+z\\
3x-y=-2z.
\end{align*}

Para encontrar su solución, fijamos una $z$ arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por
\begin{align*}
x&=\frac{\begin{vmatrix} 1+z & 3 \\ -2z & -1 \end{vmatrix}}{-11}=\frac{1-5z}{11}\\
y&=\frac{\begin{vmatrix} 2 & 1+z \\ 3 & -2z \end{vmatrix}}{-11}=\frac{3+7z}{11}.
\end{align*}

De esta forma, las soluciones al sistema original están dadas por $$\left(\frac{1-5z}{11}, \frac{3+7z}{11},z\right)=\left(\frac{1}{11},\frac{3}{11},0\right) + z \left(-\frac{5}{11},\frac{7}{11},1\right).$$

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión $1$, pues está generado por el vector $$\left(-\frac{5}{11},\frac{7}{11},1\right),$$ y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular $$\left(\frac{1}{11},\frac{3}{11},0\right).$$

$\square$

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de $2\times 2$ con un parámetro $\theta$. La intepretación geométrica del siguiente sistema de ecuaciones es «encuentra el punto $(x,y)$ del plano tal que al rotarse en $\theta$ alrededor del origen, llega al punto $(a,b)$ » .

Problema. Sea $a,b,\theta$ números reales. Encuentra las soluciones $x,y$ al sistema de ecuaciones
\begin{align*}
x \cos \theta – y \sin \theta = a\\
x \sin \theta + y \cos \theta = b.
\end{align*}

Solución. La matriz asociada al sistema es $$A=\begin{pmatrix} \cos \theta & -\sin\theta \\ \sin \theta & \cos \theta\end{pmatrix}$$ que tiene determinante $$\det A = \cos ^2 \theta + \sin^2 \theta = 1.$$

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

\begin{align*}
x&=\frac{\begin{vmatrix}a & -\sin \theta\\ b & \cos \theta \end{vmatrix}}{\det A} = a\cos \theta + b\sin \theta\\
y&=\frac{\begin{vmatrix}\cos \theta & a \\ \sin \theta & b \end{vmatrix}}{\det A} = b\cos \theta – a\sin \theta.
\end{align*}

$\triangle$

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Más adelante…

En esta entrada volvimos a hablar de sistemas de ecuaciones lineales, pero ahora que ya sabemos determinantes, pudimos verlo con un enfoque diferente al que habíamos utilizado para abordar el tema en la primera unidad. También hablamos de la regla de Cramer, una herramienta muy poderosa cuando estamos intentando resolver sistemas de ecuaciones.

Ahora, vamos a ver cómo se usa lo que vimos en esta entrada resolviendo varios ejemplos. Después, empezaremos a abordar el tema de eigenvalores y eigenvectores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Determina el rango de la matriz $$A=\begin{pmatrix} 2 & 0 & -1 \\ 3 & -2 & 4 \\ 5 & -2 & 3 \\ -1 & 2 & -5 \end{pmatrix}.$$
  • Para la matriz $A$ del inciso anterior, resuelve los sistemas de ecuaciones lineales $AX=\begin{pmatrix}5\\8\\3\\2\end{pmatrix}$ y $AX=\begin{pmatrix}5\\8\\13\\-3\end{pmatrix}$.
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango $2$.
  • Muestra que si $A$ es una matriz en $M_n(\mathbb{R})$ con entradas enteras y de determinante $1$, y $b$ es un vector en $R^n$ con entradas enteras, entonces la solución $X$ del sistema de ecuaciones $AX=b$ tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible $A$?
  • Considera un sistema de ecuaciones con coeficientes en un campo $F_1$ y una extensión de campo $F_2$. Muestra que si el sistema tiene una solución en $F_2$, entonces también tiene una solución en $F_1$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»