Archivo de la etiqueta: rango

2.2. NÚCLEO, NULIDAD, IMAGEN Y RANGO: definiciones, ejemplos y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Analizaremos cuatro nuevos conceptos. Dos de ellos son conjuntos y los otros dos son las dimensiones de esos conjuntos.

Representación gráfica del núcleo y la imagen de una transformación $T$.

NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL

Definición: Sean $V$ y $W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$.
El núcleo de $T$ es $Núc\,T=\{v\in V|T(v)=\theta_W\}$.
La imagen de $T$ es $Im\, T=\{T(v)|v\in V\}$.

  • Sean $K$ un campo y $T:K^\infty\longrightarrow K^\infty$ lineal donde $\forall (x_1,x_2,x_3,…)\in K^\infty (T(x_1,x_2,x_3,…)=(x_2,x_3,x_4,…))$.
    $Núc\,T=\{(x_1,0_K,0_K,…)\in K^\infty | x_1\in K\}$ ; $Im\,T=K^\infty$

Justificación. Para el núcleo de $T$:

\begin{align*} T(x_1,x_2,x_3,…)=(0_K,0_K,0_K,…) \Leftrightarrow \\ (x_2,x_3,x_4,…)=(0_K,0_K,0_K,…)\Leftrightarrow \\x_i=0_K \text{ para toda }i\in\{2,3,4,…\}. \end{align*}


Para la imagen de $T$:

Sea $(y_1,y_2,y_3,…)\in K^\infty$. Tenemos que $T(0_K,y_1,y_2,…)=(y_1,y_2,y_3,…)$, por lo cual $T$ es suprayectiva y su imagen es todo el codominio.

  • Sea $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ donde $\forall (x,y)\in\mathbb{R}^2(T(x,y)=(x,0))$
    $Núc\,T=\{(0,y)\in\mathbb{R}^2|y\in\mathbb{R}\}$ ; $Im\,T=\{(x,0)\mathbb{R}^2|x\in\mathbb{R}\}$

Justificación. Para el núcleo de $T$:

$$T(x,y)=(0,0) \Leftrightarrow (x,0)=(0,0)\Leftrightarrow x=0.$$

Para la imagen de $T$:

Sea $(a,0)\in \{ (x,0)\in\mathbb{R}^2|x\in\mathbb{R}^2\}$. Dado que $T(a,0)=(a,0)$ se tiene que $(a,0)\in Im\,T$. A la inversa, si $(a,b)\in Im\, T$ se tiene que $T(x,y)=(a,b)$ para alguna $(x,y)\in \mathbb{R}^2$, por lo que $(x,0)=(a,b)$ y así $b=0$.

  • Sean $K$ un campo, $A\in\mathcal{M}_{m\times n}(K)$ y $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$
    $Núc\,T$ es el conjunto de las soluciones del sistema homogéneo con matriz de coeficientes $A$ ; $Im\,T$ es el espacio generado por las columnas de $A$

Justificación. Para el núcleo de $T$:

$$T(X)=\theta_{m\times 1}\Leftrightarrow AX=\theta_{m\times 1} \Leftrightarrow X \text{ es solución del sistema homogéneo con matriz de coeficientes }A.$$


Para la imagen de $T$:

\begin{align*}Im\,T&=\{AX:X\in K^n\}\\&=\left\{ \begin{pmatrix} a_{11} & … & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & … & a_{mn} \end{pmatrix} \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ \begin{pmatrix} a_{11}x_1 + … + a_{1n}x_n \\ … \\ a_{m1}x_1 + … + a_{mn}x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ x_1\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} + … + x_n\begin{pmatrix} a_{1n}\\ \vdots \\ a_{mn} \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\langle \begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix},…,\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} \right\rangle\end{align*}

Proposición: Sean $V,W$ $K$ – espacios vectoriales, $T\in\mathcal{L}(V,W)$. Se cumple que:

a) $Núc\,T\leqslant V$.
b) $Im\,T\leqslant W$.

Demostración: Para cada inciso es necesario demostrar dos propiedades:

a) P.D. $\theta_V\in Núc\,T$ y $\forall\lambda\in K$ $\forall u,v\in Núc\,T (\lambda u + v\in Núc\,T)$

Como $T$ es una transformación lineal tenemos que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_V\in Núc\,T.$

Sean $\lambda\in K$ y $u,v\in Núc\,T$. Entonces $T(u)=\theta_W=T(v).$ Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal. Así, $$T(\lambda u+v)=\lambda\theta_W +\theta_W=\theta_W$$
de donde $\lambda u + v\in Núc\,T.$

b) P.D. $\theta_W\in Im\,T$ y $\forall\lambda\in K$ $\forall w,z\in Im\,T (\lambda u + v\in Im\,T)$

Como $T$ es una transformación lineal tenemos que $\theta_V\in V$ cumple que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_W\in Im\,T$.

Sean $\lambda\in K$ y $w,z\in Im\,T$. Entonces $\exists u,v\in V (T(u)=w\wedge T(v)=z)$. Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal.
Así, $$T(\lambda u+v)=\lambda w+z$$
de donde $\lambda w+ z\in Im\,T.$

NULIDAD Y RANGO DE UNA TRANSFORMACIÓN LINEAL

Definición: Sea $T$ una transformación lineal con $Núc \,T$ de dimensión finita. Decimos que la dimensión de $Núc\,T$ es la nulidad de $T$.

Definición: Sea $T$ una transformación lineal con $Im \,T$ de dimensión finita. Decimos que la dimensión de $Im\,T$ es el rango de $T$.

Ejemplo

  • Sea $K=\mathbb{R}$ y sean $V=\mathcal{P}_3$ y $W=\mathcal{P}_2$ $K$ – espacios vectoriales.
    Sea $T:V\longrightarrow W$ donde $\forall p(x)\in T(p(x))=p'(x)$.
    La nulidad de $T$ es $1$ y su rango es $3$

Justificación. Los polinomios con derivada cero son únicamente las constantes. Así, $Núc(T)=\{a|a\in\mathbb{R}\}$ que tiene dimensión $1$.

Por otro lado todo polinomio de grado $2$ se puede obtener derivando un polinomio de grado $3$. Basta con integrar el polinomio de grado $2$ para encontrar cómo son los polinomios de grado $3$ que cumplen lo deseado. De modo que $W\subseteq Im(T)$ y como $Im(T)\subseteq W$ por definición, entonces $Im(T)=W$ que tiene dimensión $3$.

Por lo tanto, el núcleo y la imagen son de dimensión finita y la nulidad de $T$ es $1$ y su rango es $3.$

Tarea Moral

  1. Sean $K$ un campo, $V$ y $W$ $K$-espacios vectoriales y $T:V\longrightarrow W$ lineal. Sea $\{ w_1, w_2, …, w_k\}$ un subconjunto l.i. de $Im\,T$.
    Si $S=\{ v_1,v_2,…,v_k \}$ se selecciona de tal forma que $\forall i\in \{ 1,2,…,k\}(T(v_i)=w_i)$, demuestra que $S$ es l.i.
  2. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ encuentra bases para $Núc(T)$ e $Im(T)$.
  3. Sean $K$ un campo y $P: \mathcal{M}_{m\times m}(K) \longrightarrow \mathcal{M}_{m\times m}(K)$ definida por $\forall A\in \mathcal{M}_{m\times m}(K) \left( P(A)=\frac{A + A^{t}}{2} \right)$. Verifica que $T$ es lineal y encuentra su núcleo e imagen.

Más adelante…

En la siguiente entrada veremos el vínculo que existe entre la dimensión del núcleo, de la imagen y del espacio vectorial que aparece como dominio de una transformación lineal. Esta relación numérica nos permite calcular cualquiera de estas dimensiones si tenemos conocimiento de las otras dos.

Entradas relacionadas

Álgebra Lineal II: Unicidad de la forma de Jordan para nilpotentes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan para matrices nilpotentes. Demostramos una parte: la existencia de la forma canónica de Jordan. Para ello, nos enfocamos en el teorema en su versión en términos de transformaciones lineales. En esta entrada nos enfocaremos en demostrar la unicidad de la forma canónica de Jordan. Curiosamente, en este caso será un poco más cómodo trabajar con la forma matricial del teorema. Para recordar lo que queremos probar, volvemos a poner el enunciado del teorema a continuación. Lo que buscamos es ver que los enteros $k_1,\ldots, k_d$ que menciona el teorema son únicos.

Teorema. Sea $A$ una matriz nilpotente en $M_n(F)$. Entonces existen únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} y para los cuales $A$ es similar a la siguiente matriz de bloques: $$\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Nuestra estrategia para mostrar la unicidad será el estudio del rango de las potencias de $A$. Si $A$ es similar una matriz en forma canónica $J$, entonces existe $P$ invertible tal que $A=P^{-1}JP$, de donde se puede mostrar indutivamente que $A^k=P^{-1}J^kP$, mostrando que $A^k$ y $J^k$ son similares. Además, sabemos por teoría anterior que matrices similares tienen el mismo rango. De modo que si $A$ es similar a $J$ entonces todas las potencias de $A$ tienen el mismo rango que todas las potencias de $J$. Con esta idea en mente estudiaremos cómo es el rango de matrices de bloques de Jordan de eigenvalor cero.

Rango de potencias de bloques de Jordan

Claramente el rango del bloque de Jordan $J_{0,n}$ es $n-1$, pues ya está en forma escalonada reducida y tiene $n-1$ vectores distintos de cero. El siguiente resultado generaliza esta observación.

Proposición. Sea $n$ un entero positivo, $F$ un campo y $J_{0,n}$ el bloque de Jordan de eigenvalor $0$ y tamaño $n$ en $M_n(F)$. Para $k=1,\ldots,n$ se tiene que el rango de $J_{0,n}^k$ es igual a $n-k$. Para valores de $k$ más grandes, el rango es igual a cero.

Demostración. Si $e_1,\ldots,e_n$ es la base canónica de $F^n$, tenemos que $J_{0,n}e_i=e_{i-1}$ para $i=2,\ldots,n$ y $J_{0,n}e_1=0$. De manera intuitiva, la multiplicación matricial por $J_{0,n}$ va «desplazando los elementos de la base $e_1,\ldots,e_n$ a la izquierda, hasta sacarlos». De este modo, $J_{0,n}^k$ para $k=1,\ldots,n$ hace lo siguiente:

$$J_{0,n}^k e_i=\begin{cases} 0 & \text{para $k\geq i$}\\ e_{i-k} & \text{para $k\leq i-1$.}\end{cases}$$

Así, $J_{0,n}^k$ manda a la base $e_1,\ldots,e_n$ a los vectores $e_1,\ldots,e_{n-k}$ y a $k$ copias del vector cero. Como los primeros son $n-k$ vectores linealmente independientes, obtenemos que el rango de $J_{0,n}^k$ es $n-k$.

Para valores de $k$ más grandes la potencia se hace la matriz cero, así que su rango es cero.

$\square$

Rango de potencias de matrices de bloques de Jordan

¿Qué sucede si ahora estudiamos el rango de las potencias de una matriz de bloques de Jordan? Consideremos, por ejemplo, la siguiente matriz, en donde $k_1,\ldots,k_d$ son enteros positivos de suma $n$ y con $k_1\leq \ldots \leq k_d$:

$$J=\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Por un lado, es sencillo elevar esta matriz a potencias, pues simplemente los bloques se elevan a las potencias correspondientes. En símbolos:

$$J^r=\begin{pmatrix} J_{0,k_1}^r& 0 & \cdots & 0 \\ 0 & J_{0,k_2}^r& \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}^r\end{pmatrix}.$$

¿Cuál es el rango de esta potencia? Nos conviene cambiar un poco de notación. En vez de considerar a los $k_i$ por separado, los agruparemos de acuerdo a su valor, que puede ir de $1$ a $n$. Así, para cada $j=1,\ldots,n$ definimos $m_j$ como la cantidad de valores $k_i$ iguales a $j$. Bajo esta notación, la igualdad $k_1+\ldots+k_d=n$ se puede reescribir como $$m_1+2m_2+3m_3+\ldots+nm_n=n.$$

Una primera observación es que el rango de $J$ es simplemente la suma de los rangos de cada una de las $J_{0,k_i}$. Cada una de éstas contribuye con rango $k_i-1$. Así, en términos de las $m_j$ tenemos lo siguiente:

\begin{align*}
\text{rango}(J)&=\sum_{i=1}^d (k_i-1)\\
&=\sum_{j=1}^n (j-1) m_j \\
&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n.
\end{align*}

De manera similar,

\begin{align*}
\text{rango}(J^r)&=\sum_{i=1}^d \text{rango}(J_{0,k_i}^r)\\
&=\sum_{j=1}^n m_j \text{rango}(J_{0,j}^r).
\end{align*}

El término $\text{rango}(J_{0,j}^r)$ lo podemos calcular con la proposición de la sección anterior, cuidando la restricción entre el tamaño y las potencias que queremos. De aquí y de la restricción original para la las $m_j$ salen todas las siguientes igualdades:

\begin{align*}
n&= 1\cdot m_1 + 2\cdot m_2 + 3 \cdot m_3 + \ldots + n \cdot m_n\\
\text{rango}(J)&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n\\
\text{rango}(J^2)&= 0 \cdot m_1 + 0 \cdot m_2 + 1 \cdot m_3 + \ldots + (n-2)\cdot m_n\\
\text{rango}(J^3)&= 0 \cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + (n-3)\cdot m_n\\
&\vdots\\
\text{rango}(J^{n-1})&= 0\cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + 1 \cdot m_n.
\end{align*}

A partir de aquí el rango de $J^n$ es $0$. Esto nos da una manera de entender con mucha precisión el rango de cualquier potencia de una matriz diagonal por bloques hecha con bloques de Jordan.

Unicidad de la forma canónica de Jordan

Estamos listos para justificar la unicidad de la forma canónica de Jordan. Una matriz diagonal por bloques hecha por bloques de Jordan queda totalmente determinada por los valores de $m_j$ de la sección anterior. Supongamos que $A$ tiene como forma canónica de Jordan tanto a una matriz $J$ con valores $m_j$, como a otra matriz $J’$ con valores $m_j’$.

Como dos matrices similares cumplen que sus potencias son todas del mismo rango, entonces para cualquier $r$ de $1$ a $n-1$ se cumple que $$\text{rango}(J^r)=\text{rango}(A^r)=\text{rango}(J’^r).$$ Así, tanto $(m_1,\ldots,m_n)$ como $({m_1}’,\ldots,{m_n}’)$ son soluciones al siguiente sistema de ecuaciones en variables $x_1,\ldots,x_n$.

\begin{align*}
n&= 1\cdot x_1 + 2\cdot x_2 + 3 \cdot x_3 + \ldots + n \cdot x_n\\
\text{rango}(A)&=0\cdot x_1 + 1\cdot x_2 + 2 \cdot x_3 + \ldots + (n-1) \cdot x_n\\
\text{rango}(A^2)&= 0 \cdot x_1 + 0 \cdot x_2 + 1 \cdot x_3 + \ldots + (n-2)\cdot x_n\\
\text{rango}(A^3)&= 0 \cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + (n-3)\cdot x_n\\
&\vdots\\
\text{rango}(A^{n-1})&= 0\cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + 1 \cdot x_n.
\end{align*}

Pero este es un sistema de $n$ ecuaciones en $n$ variables y con matriz asociada de determinante $1$, así que su solución es única. Esto muestra que $(m_1,\ldots,m_n)=({m_1}’,\ldots,{m_n}’)$. Entonces, en $J$ y $J’$ aparecen la misma cantidad de bloques de cada tamaño. Como además los bloques van de tamaño menor a mayor tanto en $J$ como en $J’$, concluimos que $J=J’$.

Como consecuencia de toda esta discusión, obtenemos de hecho lo siguiente.

Corolario. Dos matrices nilpotentes son semejantes si y sólo si tienen la misma forma canónica de Jordan. Distintas formas canónicas de Jordan dan distintas clases de semejanza.

Una receta para encontrar la forma canónica de Jordan de nilpotentes

La demostración anterior no sólo demuestra la unicidad de la forma canónica de Jordan. Además, nos dice exactamente cómo obtenerla. Para ello:

  1. Calculamos todas las potencias de $A$ hasta $n-1$.
  2. Usando reducción gaussiana (o de otro modo), calculamos el rango de cada una de estas potencias.
  3. Resolvemos el sistema de ecuaciones en variables $x_j$ de la sección anterior.
  4. La forma canónica de Jordan de $A$ tiene $x_j$ bloques de tamaño $j$, que debemos colocar en orden creciente de tamaño.

Ejemplo. Consideremos la siguiente matriz en $M_7(\mathbb{R})$: $$C=\begin{pmatrix}-27 & 266 & 1 & -37 & 135 & -125 & 53\\217 & -1563 & 118 & 33 & -1251 & 1020 & 361\\236 & -1784 & 188 & 16 & -1512 & 1234 & 585\\11 & -10 & -25 & 12 & 28 & -29 & -80\\-159 & 1133 & -114 & -98 & 878 & -690 & -232\\197 & -1409 & 88 & -19 & -1151 & 952 & 348\\-230 & 1605 & -179 & -100 & 1316 & -1031 & -440\end{pmatrix}$$

Sus números son muy complicados, sin embargo, nos podemos auxiliar de herramientas computacionales para encontrar sus potencias. Soprendentemente esta es una matriz nilpotente de índice $3$ pues:

$$C^2=\begin{pmatrix}0 & -10209 & -3403 & -6806 & -6806 & 10209 & 0\\0 & 14691 & 4897 & 9794 & 9794 & -14691 & 0\\0 & 2739 & 913 & 1826 & 1826 & -2739 & 0\\0 & 7221 & 2407 & 4814 & 4814 & -7221 & 0\\0 & -14193 & -4731 & -9462 & -9462 & 14193 & 0\\0 & 10956 & 3652 & 7304 & 7304 & -10956 & 0\\0 & -11952 & -3984 & -7968 & -7968 & 11952 & 0\end{pmatrix}$$

y

$$C^3=\begin{pmatrix}0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\end{pmatrix}.$$

Usando reducción gaussiana, o herramientas computacionales, obtenemos que el rango de $C$ es $4$ y que el rango de $C^2$ es $2$. A partir de $k\geq 3$ obtenemos que $\text{rango}(C^k)=\text{rango}(O_7)=0$. Si queremos encontrar la forma canónica de Jordan de $C$, necesitamos entonces resolver el siguiente sistema de ecuaciones, que nos dirá cuántos bloques $x_j$ de tamaño $j$ hay:

\begin{align*}
7&= x_1+2x_2+3x_3+4x_4+5x_5+6x_6+7x_7\\
4&=x_2 + 2x_3 + 3x_4+4x_5+5x_6+6x_7\\
2&= x_3 + 2x_4+3x_5+4x_6+5x_7 \\
0&= x_4+2x_5+3x_6+4x_7\\
0 &= x_5+2x_6+3x_7\\
0&= x_6+2x_7\\
0&= x_7
\end{align*}

Para resolverlo lo mejor es proceder «de abajo hacia arriba». Las últimas cuatro ecuaciones nos dicen que $x_7=x_6=x_5=x_4=0$. Así, el sistema queda un poco más simple, como:

\begin{align*}
7&= x_1+2x_2+3x_3\\
4&=x_2 + 2x_3\\
2&= x_3.
\end{align*}

De la última igualdad, tenemos $x_3=2$, lo que nos dice que la forma canónica de Jordan tendría dos bloques de tamaño $3$. Sustituyendo en la penúltima igualdad obtenemos que $4=x_2+4$, de donde $x_2=0$. Así, no tendremos ningún bloque de tamaño $2$. Finalmente, sustituyendo ambos valores en la primera igualdad obtenemos que $7=x_1+0+6$. De aquí obtenemos $x_1=1$, así que la forma canónica de Jordan tendrá un bloque de tamaño $1$. En resumen, la forma canónica de Jordan es la matriz $$\begin{pmatrix} J_{0,1} & 0 & 0 \\ 0 & J_{0,3} & 0 \\ 0 & 0 & J_{0,3}\end{pmatrix}.$$ Explícitamente, ésta es la siguiente matriz:

$$\begin{pmatrix} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{pmatrix}.$$

Para verla un poco más «como de bloques» la podemos reescribir de la siguiente manera:

$$\left(\begin{array}{c|ccc|ccc} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{array}\right).$$

$\triangle$

Más adelante…

Hemos demostrado la existencia y unicidad de la forma canónica de Jordan para matrices nilpotentes. Este es un resultado interesante por sí mismo. Sin embargo, también es un paso intermedio para un resultado más general. En las siguientes entradas hablaremos de una versión más general del teorema de Jordan, para matrices tales que su polinomio característico se descomponga totalmente en el campo en el que estemos trabajando.

Tarea moral

  1. Considera la siguiente matriz: $$M=\begin{pmatrix}11 & 11 & -11 & -11\\-1 & -1 & 1 & 1\\3 & 3 & -3 & -3\\7 & 7 & -7 & -7\end{pmatrix}.$$
    1. Muestra que $M$ es una matriz nilpotente y determina su índice.
    2. ¿Cuál es la forma canónica de Jordan de $M$?
  2. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{5}(F)$ de índice $2$.
  3. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{7}(F)$ de rango $5$.
  4. Encuentra de manera explícita la inversa de la siguiente matriz en $M_n(\mathbb{R})$ y usa esto para dar de manera explícita la solución al sistema de ecuación en las variables $x_i$ que aparece en la entrada: $$\begin{pmatrix} 1 & 2 & 3 & \cdots & n-1 & n \\ 0 & 1 & 2 & \cdots & n-2 & n-1 \\ 0 & 0 & 1 & \cdots & n-3 & n-2 \\ & \vdots & & \ddots & & \vdots\\ 0 & 0 & 0 & \cdots & 1 & 2 \\ 0 & 0 & 0 & \cdots & 0 & 1\end{pmatrix}.$$
  5. Sea $A$ una matriz nilpotente en $M_n(\mathbb{R})$. Muestra que las matrices $A$ y $5A$ son similares entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Seminario de Resolución de Problemas: Rango de matrices y el teorema de factorización PJQ

Por Leonardo Ignacio Martínez Sandoval

Introducción

El algunas ocasiones es suficiente saber si una matriz es invertible o no. Sin embargo, esta es una distinción muy poco fina. Hay algunos otros problemas en los que se necesita decir más acerca de la matriz. Podemos pensar que una matriz invertible, como transformación lineal, «guarda toda la información» al pasar de un espacio vectorial a otro. Cuando esto no sucede, nos gustaría entender «qué tanta información se guarda». El rango de matrices es una forma de medir esto. Si la matriz es de $m\times n$, el rango es un número entero que va de cero a $n$. Mientras mayor sea, «más información guarda».

Por definición, el rango de una matriz $A$ de $m\times n$ es igual a la dimensión del subespacio vectorial de $\mathbb{R}^m$ generado por los vectores columna de $A$. Una matriz de $n\times n$ tiene rango $n$ si y sólo si es invertible.

Si pensamos a $A$ como la transformación lineal de $\mathbb{R}^n$ a $\mathbb{R}^m$ tal que $X\mapsto AX$, entonces el rango es precisamente la dimensión de la imagen de $A$. Esto permite extender la definición de rango a transformaciones lineales arbitrarias, y se estudia con generalidad en un curso de álgebra lineal.

En las siguientes secciones enunciaremos sin demostración algunas propiedades del rango de matrices y las usaremos para resolver problemas.

Propiedades del rango de matrices

Comenzamos enunciando algunas propiedades del rango de matrices

Teorema. Sean $m$, $n$ y $p$ enteros. Sea $B$ una matriz de $n\times p$, y $A$, $A’$ matrices de $m\times n$. Sean además $P$ una matriz de $n\times p$ cuya transformación lineal asociada es suprayectiva y $Q$ una matriz de $r\times m$ cuya transformación lineal asociada es inyectiva. Entonces:

  1. $\rank(A)\leq \min(m,n)$
  2. $\rank(AB)\leq \min(\rank(A),\rank(B))$
  3. $\rank(A+A’)\leq \rank(A) + \rank(A’)$
  4. $\rank(QA) = \rank(A)$
  5. $\rank(AP)=\rank(A)$

Consideremos el siguiente problema, tomado del libro Essential Linear Algebra de Titu Andreescu.

Problema. Las matrices $A$ y $B$ tienen entradas reales. La matriz $A$ es de $3\times 3$, la matriz $B$ es de $2\times 3$ y además $$AB=\begin{pmatrix} 0 & -1 & -1 \\ -1 & 0 & -1 \\ 1 & 1 & 2 \end{pmatrix}.$$ Determina el valor del producto $BA$.

Sugerencia pre-solución. Un paso intermedio clave es mostrar que el producto $BA$ es invertible.

Solución. Para empezar, afirmamos que $(AB)^2=AB$. Esto se puede verificar directamente haciendo el producto de matrices.

Luego, afirmamos que el rango de $AB$ es $2$. En efecto, eso se puede hacer fácilmente por definición. Por un lado, la suma de las primeras dos columnas es igual a la tercera, así que el espacio vectorial que generan las tres es de dimensión a lo más dos. Pero es al menos dos, pues las primeras dos columnas son linealmente independientes. Esto muestra la afirmación.

Ahora, usando la propiedad (2) del teorema dos veces, tenemos que
\begin{align*}
\rank(BA)&\geq \rank (A(BA)) \\
&\geq \rank (A(BA)B)\\
&=\rank((AB)^2) \\
&= \rank (AB)\\
&=2.
\end{align*}

Así, $BA$ es una matriz de $2\times 2$ de rango $2$ y por lo tanto es invertible.

Consideremos ahora el producto $(BA)^3$. Desarrollando y usando que $(AB)^2=AB$, tenemos que

\begin{align*}
(BA)^3 &= BABABA \\
&=B(AB)^2 A\\
&=BABA\\
&=(BA)^2.
\end{align*}

Como $BA$ es invertible, entonces $(BA)^2$ tiene inversa. Si multiplicamos la igualdad $(BA)^3 = (BA)^2$ por esa inversa, obtenemos que $$BA=I_2.$$

$\square$

El teorema anterior nos permite acotar por arriba el rango del producto de dos matrices. También hay una desigualdad que nos permite acotar por abajo el rango de dicho producto, cuando las matrices son cuadradas.

Teorema (desigualdad de Sylvester). Para matrices $A$ y $B$ de $n\times n$, se tiene que $$\rank(AB)\geq \rank(A) + \rank(B) – n.$$

Problema. La matriz $A$ es de $2020 \times 2020$. Muestra que:

  • Si $A$ tiene rango $2017$, entonces la matriz $A^{673}$ no puede ser la matriz de $2020\times 2020$ de puros ceros, es decir, $O_{2020}$.
  • Si $A$ tiene rango $2016$, entonces la matriz $A^{673}$ puede ser la matriz $O_{2020}$.

Sugerencia pre-solución. Enuncia una afirmación más general relacionada con el rango que puedas probar por inducción utilizando la desigualdad de Sylvester.

Solución. Para la primer parte, probaremos primero algo más general. Afirmamos que si $M$ es una matriz de $n \times n$ de rango $n-s$ y $k$ es un entero positivo, entonces el rango de la matriz $M^k$ es por lo menos $n-ks$. Procedemos por inducción sobre $k$. Si $k=1$, el resultado es cierto pues $M$ tiene rango $n-s=n-1\cdot s$.

Supongamos el resultado para cierto entero $k$. Usando la desigualdad de Sylverster y la hipótesis inductiva, tenemos que
\begin{align*}
\rank(A^{k+1})&\geq \rank(A^k) + \rank(A) – n\\
&\geq (n-ks) + (n-s) – n\\
&=n-(k+1)s.
\end{align*}

Esto muestra la afirmación general.

Si regresamos a la primer parte del problema original y aplicamos el resultado anterior, tenemos que $A^{673}$ es una matriz de rango por lo menos $$2020 – 673 \cdot 3 = 2020 – 2019 = 1.$$ De esta forma, $A^{673}$ no puede ser la matriz $0$.

Hagamos ahora la segunda parte del problema. Para ello, debemos construir una matriz $A$ de $2020\times 2020$ de rango $2016$ tal que $A^{673}$ sea la matriz $0$. Para ello, consideremos la matriz $A$ tal que sus primeras $4$ columnas sean iguales al vector $0$, y que sus columnas de la $5$ a la $2020$ sean los vectores canónicos $e_1,\ldots, e_{2016}$.

Esta matriz claramente es de rango $2016$, pues el espacio generado por sus columnas es el espacio generado por $e_1,\ldots, e_{2016}$, que es de dimensión $2016$. Por otro lado, se puede mostrar inductivamente que para $k=1,\ldots,505$, se tiene que $A^{k}$ es una matriz en donde sus columnas de $1$ a $4k$ son todas el vector $0$, y sus columnas de $4k+1$ a $2020$ son $e_1,\ldots, e_{2020-4k}$. En particular, $A^{505}=O_{2020}$, y entonces $A^{673}$ también es la matriz de puros ceros.

$\square$

Equivalencias de rango de matrices

Hay muchas formas alternativas para calcular el rango de una matriz. El siguiente teorema resume las equivalencias más usadas en resolución de problemas.

Teorema. Sea $A$ una matriz de $m\times n$ con entradas reales. Los siguientes números son todos iguales:

  • El rango de $A$, es decir, la dimensión del espacio vectorial generado por los vectores columna de $A$.
  • La dimensión del espacio vectorial generado por los vectores fila de $A$. Observa que esto es, por definición, el rango de la transpuesta de $A$.
  • La cantidad de filas no cero que tiene la forma escalonada reducida de $A$.
  • (Teorema de rango-nulidad) $n-\dim \ker(A)$, donde $\ker(A)$ es el espacio vectorial de soluciones a $AX=0$.
  • El tamaño más grande de una submatriz cuadrada de $A$ que sea invertible.
  • La cantidad de eigenvalores complejos distintos de cero contando multiplicidades algebraicas.

Problema. Determina todos los posibles rangos que pueden tener las matrices con entradas reales de la forma $$\begin{pmatrix} a & b & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{pmatrix}.$$

Sugerencia pre-solución. Comienza haciendo casos pequeños. Para dar los ejemplos y mostrar que tienen el rango deseado, usa el teorema de equivalencia de rango para simplificar algunos argumentos.

Solución. El rango de una matriz de $4\times 4$ es un entero de $0$ a $4$. Debemos ver cuáles de estos valores se pueden alcanzar con matrices de la forma dada.

Tomando $a=b=c=d=0$, obtenemos la matriz $O_4$, que tiene rango $0$. Si $a=b=c=d=1$, obtenemos la matriz de puros unos, que tiene rango $1$. Además, si $a=1$ y $b=c=d=0$, obtenemos la matriz identidad, que tiene rango $4$.

Si $a=b=1$ y $c=d=0$, obtenemos la matriz $$A = \begin{pmatrix} 1 & 1 & 0 & 0 \\1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 1 & 1 \end{pmatrix}.$$ Esta matriz tiene sólo dos columnas diferentes, así que su rango es a lo más dos. Pero tiene como submatriz a la matriz $$I_2=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix},$$ que tiene rango $2$, entonces el rango de $A$ es al menos $2$. De esta forma, el rango de $A$ es $2$.

Veamos ahora que el rango puede ser $3$. Para ello, damos un argumento de determinantes. Llamemos $s=a+b+c+d$. Sumando las tres últimas filas a la primera y factorizando $s$, tenemos que
\begin{align*}
\begin{vmatrix} a & b & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}&=\begin{vmatrix} s & s & s & s \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}\\
&=s\begin{vmatrix} 1 & 1 & 1 & 1 \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}.
\end{align*}

Así, si tomamos $a=b=c=1$ y $d=-3$, entonces $s=0$ y por lo tanto la matriz $B$ que obtenemos no es invertible, así que su rango es a lo más tres. Pero además es de rango al menos tres pues $B$ tiene como submatriz a $$\begin{pmatrix} 1 & 1 & -3 \\ 1 & -3 & 1 \\ -3 & 1 & 1 \end{pmatrix},$$ que es invertible pues su determinante es $$-3-3-3-1-1+27=16\neq 0.$$

Concluimos que los posibles rangos que pueden tener las matrices de esa forma son $0,1,2,3,4$.

$\square$

El teorema de factorización $PJQ$

Existen diversos teoremas que nos permiten factorizar matrices en formas especiales. De acuerdo a lo que pida un problema, es posible que se requiera usar uno u otro resultado. El teorema de factorización más útil para cuando se están resolviendo problemas de rango es el siguiente.

Teorema (factorización $PJQ$). Sea $A$ una matriz de $m\times n$ y $r$ un entero en $\{0,\ldots,\min(m,n)\}$. El rango de $A$ es igual a $r$ si y sólo si existen matrices invertibles $P$ de $m\times m$ y $Q$ de $n\times n$ tales que $A=PJ_rQ$, en donde $J_r$ es la matriz de $m\times n$ cuyas primeras $r$ entradas de su diagonal principal son $1$ y todas las demás entradas son cero, es decir, en términos de matrices de bloque, $$J_r=\begin{pmatrix}
I_r & O_{r,n-r} \\
O_{m-r,r} & O_{m-r,n-r}
\end{pmatrix}.$$

Como evidencia de la utilidad de este teorema, sugerimos que intentes mostrar que el rango por columnas de una matriz es igual al rango por filas, usando únicamente la definición. Esto es relativamente difícil. Sin embargo, con el teorema $PJQ$ es inmediato. Si $A$ es de $m\times n$ y tiene rango $r$, entonces su factorización $PJQ$ es de la forma $$A=PJ_rQ.$$ Entonces al transponer obtenemos
\begin{align*}
^tA&= {^tQ} {^t J_r} {^tP}.
\end{align*}

Esto es de nuevo un factorización $PJQ$, con ${^t J_r}$ la matriz de $n\times m$ que indica que $^t A$ es de rango $r$.

Veamos ahora un problema clásico en el que se puede usar la factorización $PJQ$.

Problema. Sea $A$ una matriz de $m \times n$ y rango $r$. Muestra que:

  • $A$ puede ser escrita como la suma de $r$ matrices de rango $1$.
  • $A$ no puede ser escrita como la suma de $r-1$ o menos matrices de rango $1$.

Sugerencia pre-solución. Para la primer parte, usa el teorema $PJQ$. Para la segunda parte, usa desigualdades del rango.

Solución. Tomemos $A=PJ_rQ$ una factorización $PJQ$ de $A$.

Hagamos la primer parte. Para ello, para cada $i=1,\ldots,r$, consideremos la matriz $L_i$ de $m\times n$ tal que su $i$-ésima entrada en la diagonal principal es $1$ y el resto de sus entradas son iguales a $0$.

Por un lado, $L_i$ es de rango $1$, pues tiene sólo una columna distinta de cero. De este modo, $$\rank(PL_iQ)\leq \rank(PL_i) \leq \rank(L_i)=1,$$ y como $P$ y $Q$ son invertibles, $$\rank(PL_iQ)\geq \rank(L_i) \geq 1.$$ Así, para cada $i=1,\ldots, r$, se tiene que $L_i$ es de rango $1$.

Por otro lado, $$J_r = L_1 + L_2 + \ldots + L_r,$$ así que
\begin{align*}
A&=PJ_rQ\\
&=P(L_1 + L_2 + \ldots + L_r)Q\\
&=PL_1Q + PL_2Q + \ldots + PL_rQ.
\end{align*}

Esto expresa a $A$ como suma de $r$ matrices de rango $1$.

Para la segunda parte del problema, usamos repetidamente que el rango es subaditivo. Si tenemos matrices $B_1,\ldots,B_s$ matrices de $m\times n$, entonces
\begin{align*}
\rank(B_1&+B_2+\ldots+B_s) & \\
&\leq \rank(B_1) + \rank (B_2 + \ldots + B_s)\\
&\leq \rank(B_1) + \rank(B_2) + \rank(B_3+\ldots+B_s)\\
& vdots \\
&\leq \rank(B_1) + \rank(B_2) + \ldots + \rank(B_s).
\end{align*}

Si cada $B_i$ es de rango $1$, entonces su suma tiene rango a lo más $s$.

Así, la suma de $r-1$ o menos matrices de rango $1$ tiene rango a lo más $r-1$, y por lo tanto no puede ser igual a $A$.

$\square$

Más problemas

Puedes encontrar más problemas de rango de una matriz en la Sección 5.4 del libro Essential Linear Algebra de Titu Andreescu. El teorema $PJQ$, así como muchos problemas ejemplo, los puedes encontrar en el Capítulo 5 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.

Seminario de Resolución de Problemas: Sistemas de ecuaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Finalmente, en esta serie de entradas, veremos temas selectos de álgebra lineal y su aplicación a la resolución de problemas. Primero, hablaremos de sistemas de ecuaciones lineales. Luego, hablaremos de evaluación de determinantes. Después, veremos teoría de formas cuadráticas y matrices positivas. Finalmente, estudiaremos dos teoremas muy versátiles: el teorema de factorización $PJQ$ y el teorema de Cayley-Hamilton.

Como lo hemos hecho hasta ahora, frecuentemente no daremos las demostraciones para los resultados principales. Además, asumiremos conocimientos básicos de álgebra lineal. También, asumiremos que todos los espacios vectoriales y matrices con los que trabajaremos son sobre los reales o complejos, pero varios resultados se valen más en general.

Para cubrir los temas de álgebra lineal de manera sistemática, te recomendamos seguir un libro como el Essential Linear Algebra de Titu Andreescu, o el Linear Algebra de Friedberg, Insel y Spence. Mucho del material también lo puedes consultar en las notas de curso que tenemos disponibles en el blog.

Sistemas de ecuaciones lineales

Una ecuación lineal en $n$ incógnitas en $\mathbb{R}$ consiste en fijar reales $a_1,\ldots,a_n, b$ y determinar los valores de las variables $x_1,\ldots,x_n$ tales que $$a_1x_1+a_2x_2+\ldots+a_nx_n=b.$$

Si $a_1,\ldots,a_n$ no son todos cero, los puntos $(x_1,\ldots,x_n)$ en $\mathbb{R}^n$ que son solución a la ecuación definen un hiperplano en $\mathbb{R}^n$.

Un sistema de ecuaciones lineales con $m$ ecuaciones y $n$ variables consiste en fijar, para $i$ en $\{1,\ldots,m\}$ y $j$ en $\{1,\ldots,n\}$ a reales $a_{ij}$ y $b_i$, y determinar los valores de las variables $x_1,\ldots,x_n$ que simultáneamente satisfacen todas las $m$ ecuaciones
$$\begin{cases}
a_{11}x_1+ a_{12}x_2+\ldots + a_{1n}x_n = b_1\\
a_{21}x_1+a_{22}x_2+\ldots+a_{2n}x_n = b_2\\
\quad \quad \vdots\\
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n = b_m.
\end{cases}$$

Este sistema de ecuaciones se puede reescribir en términos matriciales de manera muy sencilla. Si $A$ es la matriz de $m\times n$ de entradas $[a_{ij}]$, $X$ es el vector de variables $(x_1,\ldots,x_n)$ y $b$ es el vector de reales $b_1,\ldots,b_m$, entonces el sistema de ecuaciones anterior se reescribe simplemente como $$AX=b.$$

Sistemas de ecuaciones lineales con mucha simetría

En algunos sistemas de ecuaciones hay mucha simetría, y no es necesario introducir técnicas avanzadas de álgebra lineal para resolverlos. Veamos el siguiente ejemplo.

Problema. Resuelve el sistema de ecuaciones

$$\begin{cases}
7a+2b+2c+2d+2e= -2020\\
2a+7b+2c+2d+2e=-1010\\
2a+2b+7c+2d+2e=0\\
2a+2b+2c+7d+2e=1010\\
2a+2b+2c+2d+7e=2020.
\end{cases}$$

Sugerencia pre-solución. Trabaja hacia atrás, suponiendo que el sistema tiene una solución. A partir de ahí, puedes usar las cinco ecuaciones y combinarlas con sumas o restas para obtener información.

Solución. Al sumar las cinco ecuaciones, obtenemos que $$15(a+b+c+d+e)=0,$$ de donde $2(a+b+c+d+e)=0$. Restando esta igualdad a cada una de las ecuaciones del sistema original, obtenemos que
$$\begin{cases}
5a= -2020\\
5b=-1010\\
5c=0\\
5d=1010\\
5e=2020.
\end{cases}$$

De aquí, si el sistema tiene alguna solución, debe suceder que
\begin{align*}
a&=\frac{-2020}{5}=-404\\
b&=\frac{-2020}{5}=-202\\
c&=\frac{-2020}{5}= 0\\
d&=\frac{-2020}{5}=202\\
e&=\frac{-2020}{5}=404.
\end{align*}

Como estamos trabajando hacia atrás, esta es sólo una condición necesaria para la solución. Sin embargo, una verificación sencilla muestra que también es una condición suficiente.

$\square$

Sistemas de ecuaciones de n x n y regla de Cramer

Si tenemos un sistema de $n$ variables y $n$ incógnitas, entonces es de la forma $$AX=b$$ con una matriz $A$ cuadrada de $n\times n$. Dos resultados importantes para sistemas de este tipo son el teorema de existencia y unicidad, y las fórmulas de Cramer.

Teorema (existencia y unicidad de soluciones). Si $A$ es una matriz cuadrada invertible de $n\times n$ y $b$ es un vector de $n$ entradas, entonces el sistema lineal de ecuaciones $$AX=b$$ tiene una solución única y está dada por $X=A^{-1}b$.

El teorema anterior requiere saber determinar si una matriz es invertible o no. Hay varias formas de hacer esto:

  • Una matriz cuadrada es invertible si y sólo si su determinante no es cero. Más adelante hablaremos de varias técnicas para evaluar determinantes.
  • Una matriz cuadrada es invertible si y sólo si al aplicar reducción gaussiana, se llega a la identidad.
  • También ,para mostrar que una matriz es invertible, se puede mostrar que cumple alguna de las equivalencias de invertibilidad.

Problema. Demuestra que el sistema lineal de ecuaciones

$$\begin{cases}
147a+85b+210c+483d+133e= 7\\
91a+245b+226c+273d+154e=77\\
-119a+903b+217c+220d+168e=777\\
189a+154b-210c-203d-108e=7777\\
229a+224b+266c-133d+98e=77777.
\end{cases}$$

tiene una solución única.

Sugerencia pre-solución. Reduce el problema a mostrar que cierta matriz es invertible. Para ello, usa alguno de los métodos mencionados. Luego, para simplificar mucho el problema, necesitarás un argumento de aritmética modular. Para elegir en qué módulo trabajar, busca un patrón en las entradas de la matriz.

Solución. Primero, notemos que el problema es equivalente a demostrar que la matriz

$$A=\begin{pmatrix}
147 & 85 & 210 & 483 & 133\\
91 & 245 & 226 & 273 & 154\\
-119 & 903 & 217 & 220 & 168\\
189 & 154 & -210 & -203 & -108 \\
229 & 224 & 266 & -133 & 98
\end{pmatrix}$$

es invertible. Mostraremos que su determinante no es $0$. Pero no calcularemos todo el determinante, pues esto es complicado.

Notemos que como $A$ es una matriz de entradas enteras, entonces su determinante (que es suma de productos de entradas), también es entero. Además, como trabajar en aritmética modular respeta sumas y productos, para encontrar el residuo de $\det(A)$ al dividirse entre $7$ se puede primero reducir las entradas de $A$ módulo $7$, y luego hacer la cuenta de determinante.

Al reducir las entradas módulo $7$, tenemos la matriz

$$B=\begin{pmatrix}
0 & 1 & 0 & 0 & 0 \\
0&0 & 2 & 0 & 0\\
0 & 0 & 0 & 3 & 0\\
0&0 & 0 & 0 & 4 \\
5& 0 & 0 & 0 & 0
\end{pmatrix}.$$

El determinante de la matriz $B$ es $-(1\cdot 2 \cdot 3 \cdot 4 \cdot 5)=-120$. Así,
\begin{align*}
\det(A) & \equiv \det(B)\\
&=-120\\
&\equiv 6 \pmod 7.
\end{align*}

Concluimos que $\det(A)$ es un entero que no es divisible entre $7$, por lo cual no puede ser cero. Así, $A$ es invertible.

$\square$

Por supuesto, en cualquier otro módulo podemos hacer la equivalencia y simplificar las cuentas. Pero $7$ es particularmente útil para el problema anterior pues se simplifican casi todas las entradas, y además funciona para dar un residuo no cero.

Ahora veremos otra herramienta importante para resolver problemas de ecuaciones lineales: las fórmulas de Cramer.

Teorema (fórmulas de Cramer). Sea $A$ una matriz invertible de $n\times n$ con entradas reales y $b=(b_1,\ldots,b_n)$ un vector de reales. Entonces el sistema lineal de ecuaciones $AX=b$ tiene una única solución $X=(x_1,\ldots,x_n)$ dada por $$x_i=\frac{\det A_i}{\det A},$$ en donde $A_i$ es la matriz obtenida al reemplazar la $i$-ésima columna de $A$ por el vector columna $b$.

En realidad este método no es tan útil en términos prácticos, pues requiere que se evalúen muchos determinantes, y esto no suele ser sencillo. Sin embargo, las fórmulas de Cramer tienen varias consecuencias teóricas importantes.

Problema. Muestra que una matriz invertible $A$ de $n\times n$ con entradas enteras cumple que su inversa también tiene entradas enteras si y sólo si el determinante de la matriz es $1$ ó $-1$.

Sugerencia pre-solución. Para uno de los lados necesitarás las fórmulas de Cramer, y para el otro necesitarás que el determinante es multiplicativo.

Solución. El determinante de una matriz con entradas enteras es un número entero. Si la inversa de $A$ tiene entradas enteras, entonces su determinante es un entero. Usando que el determinante es multiplicativo, tendríamos que $$\det(A)\cdot \det(A^{-1}) = \det (I) = 1.$$ La única forma en la que dos enteros tengan producto $1$ es si ambos son $1$ o si ambos son $-1$. Esto muestra una de las implicaciones.

Ahora, supongamos que $A$ tiene determinante $\pm 1$. Si tenemos una matriz $B$ de columnas $C_1,\ldots,C_n$, entonces para $j$ en $\{1,\ldots,n\}$ la $j$-ésima columna de $AB$ es $AC_j$. De este modo, si $D_1,\ldots, D_n$ son las columnas de $A^{-1}$, se debe cumplir para cada $j$ en $\{1,\ldots,n\}$ que $$AD_j= e_j,$$ en donde $e_j$ es el $j$-ésimo elemento de la base canónica. Para cada $j$ fija, esto es un sistema de ecuaciones.

Por las fórmulas de Cramer, la $i$-ésima entrada de $C_j$, que es la entrada $x_{ij}$ de la matriz $A^{-1}$, está dada por $$x_{ij}=\frac{\det(A_{ij})}{\det(A)}=\pm \det(A_{ij}),$$ donde $A_{ij}$ es la matriz obtenida de colocar al vector $e_j$ en la $i$-ésima columna de $A$.

La matriz $A_{ij}$ tiene entradas enteras, así que $x_{ij}=\pm \det(A_{ij})$ es un número entero. Así, $A^{-1}$ es una matriz de entradas enteras.

$\square$

Sistemas de ecuaciones de m x n y teorema de Rouché-Capelli

Hasta aquí, sólo hemos hablando de sistemas de ecuaciones que tienen matrices cuadradas asociadas. También, sólo hemos hablado de los casos en los que no hay solución, o bien en los que cuando la hay es única. Los sistemas de ecuaciones lineales en general tienen comportamientos más interesantes. El siguiente resultado caracteriza de manera elegante todo lo que puede pasar.

Teorema (Rouché-Capelli). Sea $A$ una matriz de $m\times n$ con entradas reales, $(b_1,\ldots,b_m)$ un vector de reales y $(x_1,\ldots,x_n)$ un vector de incógnitas. Supongamos que $A$ tiene rango $r$. Entonces:

  • El sistema $AX=b$ tiene al menos una solución $X_0$ si y sólo si el rango de la matriz de $m\times (n+1)$ obtenida de colocar el vector $b$ como columna al final de la matriz $A$ también tiene rango $r$.
  • El conjunto solución del sistema $AX=(0,0,\ldots,0)$ es un subespacio vectorial $\mathcal{S}$ de $\mathbb{R}^n$ de dimensión $n-r$.
  • Toda solución al sistema $AX=b$ se obtiene de sumar $X_0$ y un elemento de $\mathcal{S}$.

Problema. Encuentra todos los polinomios $p(x)$ con coeficientes reales y de grado a lo más $3$ tales que $p(2)=3$ y $p(3)=2$.

Sugerencia pre-solución. Usa notación efectiva, eligiendo variables para cada uno de los coeficientes de $p(x)$. Luego, enuncia cada hipótesis como una ecuación.

Solución. Tomemos $p(x)=ax^3+bx^2+cx+d$. La hipótesis implica que

$$\begin{cases}
8a+4b+2c+d=p(2)= 3\\
27a+9b+3c+d=p(3)=2.
\end{cases}$$

El rango de la matriz $$\begin{pmatrix} 8 & 4 & 2 & 1\\ 27 & 9 & 3 & 1\end{pmatrix}$$ es a lo más $2$, pues tiene $2$ renglones. Pero es al menos $2$, pues los dos vectores columna $(2,3)$ y $(1,1)$ son linealmente independientes. Exactamente el mismo argumento muestra que la matriz aumentada $$\begin{pmatrix} 8 & 4 & 2 & 1 & 3\\ 27 & 9 & 3 & 1 & 2\end{pmatrix}$$ es de rango $2$. Por el primer punto del teorema de Rouché-Capelli, este sistema tiene solución.

Para encontrar esta solución de manera práctica, fijamos reales $a$ y $b$ y notamos que ahora

$$\begin{cases}
2c+d= 3-8a-4b\\
3c+d=2-27a-9b
\end{cases}$$

es un sistema en $2$ variables, y como $$\det\begin{pmatrix} 2 & 1\\ 3 & 1\end{pmatrix}=-1,$$ tiene una única solución para $c$ y $d$. Al hacer las cuentas, o usar fórmulas de Cramer, obtenemos que
\begin{align*}
c&=-1-19a-5b\\
d&=5+30a+6b.
\end{align*}

Así, concluimos que los polinomios $p(x)$ solución consisten de elegir cualesquiera reales $a$ y $b$ y tomar $$p(x)=ax^3+bx^2-(1+19a+5b)x+(5+20a+6b).$$

$\square$

Por supuesto, para usar este teorema es necesario conocer el rango de la matriz $A$. En el problema tuvimos la suerte de que eso es sencillo. Hablaremos más adelante de varias técnicas para encontrar el rango de matrices.

Más problemas

Puedes encontrar más problemas de sistemas de ecuaciones lineales en el Capítulo 3 y en la Sección 7.6 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Por Blanca Radillo

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema 1. Considera los vectores

$v_1=(1,x,0,1), \quad v_2=(0,1,2,1), \quad v_3=(1,1,1,1)$

en $\mathbb{R}^4$. Prueba que para cualquier elección de $x\in\mathbb{R}$, los vectores $v_1,v_2,v_3$ son linealmente independientes.

Solución. Sea $A$ la matriz cuyas columnas son $v_1,v_2,v_3$, es decir,

$A=\begin{pmatrix} 1 & 0 & 1 \\ x & 1 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{pmatrix}.$

Sabemos que $v_1,v_2,v_3$ son linealmente independiente si y sólo si $\text{dim(span}(v_1,v_2,v_3))=3$, ya que $\text{rank}(A)=3$, y eso es equivalente (por la clase del lunes) a demostrar que $A$ tiene una submatriz de $3\times 3$ invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

$\begin{vmatrix} 1 & 0 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{vmatrix}=-1,$

lo que implica que es invertible, y por lo tanto $v_1,v_2, v_3$ son vectores linealmente independientes.

$\square$

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre $\mathbb{R}$ o sobre $\mathbb{C}$. Como $\mathbb{R}\subset \mathbb{C}$, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en $\mathbb{R}$ se cumplen en $\mathbb{C}$. En este caso particular, si las soluciones de una matriz en $M_{m,n}(\mathbb{R})$ son soluciones de la misma matriz pero vista como elemento en $M_{m,n}(\mathbb{C})$. El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea $A\in M_{m,n}(F)$ y sea $F_1$ un campo contenido en $F$. Consideremos el sistema lineal $AX=0$. Si el sistema tiene una solución no trivial en $F_1^n$, entonces tiene una solución no trivial en $F^n$.

Demostración. Dado que el sistema tiene una solución no trivial en $F_1^n$, $r:=\text{rank}(A) < n$ vista como elemento en $M_{m,n}(F_1)$. Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a $A$ como elemento de $M_{m,n}(F_1)$ o de $M_{m,n}(F)$. Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de $F^n$ de dimensión $n-r>0$. Por lo tanto, el sistema $AX=0$ tiene una solución no trivial en $F^n$.

$\square$

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. 2 Sea $S_a$ el siguiente sistema lineal:

$\begin{matrix} x-2y+z=1 \\ 3x+2y-2z=2 \\ 2x-y+az=3 \end{matrix}.$

Encuentra los valores de $a$ para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como $AX=b$ donde

$A=\begin{pmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{pmatrix} \quad \text{y} \quad b=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}.$

Notemos que

$\begin{vmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{vmatrix}=8a-1,$

entonces si $a\neq 1/8$, $A$ es invertible, y por lo tanto $\text{rank}(A)=3$, mientras que si $a=1/8$, $A$ no es invertible y $\text{rank}(A)=2$ ya que la submatriz es invertible

$\begin{vmatrix} 1 & -2 \\ 3 & 2 \end{vmatrix}=8.$

Además, si la matriz $(A,b)$ es igual a

$\begin{pmatrix} 1 & -2 & 1 & 1 \\ 3 & 2 & -2 & 2 \\ 2 & -1 & a & 3 \end{pmatrix},$

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, $\text{rank}(A,b)=3$.

Aplicando el Teorema de Rouché-Capelli, para $a=1/8$, el sistema $AX=b$ no tiene soluciones. También podemos concluir que como $\text{rank}(A)=3$ para todo $a\neq 1/8$, el sistema tiene exactamente una solución. (Y $AX=b$ nunca tiene infinitas soluciones).

$\triangle$

Problema 3. Sean $a,b,c$ números reales dados. Resuelve el sistema lineal

$\begin{matrix} (b+c)x+by+cz=1 \\ ax+ (a+c)y+cz=1 \\ ax+by+(a+b)z=1 \end{matrix}.$

Solución. La matriz del sistema es

$A=\begin{pmatrix} b+c & b & c \\ a & a+c & c \\ a & b & a+b \end{pmatrix}.$

No es difícil ver que $\text{det}(A)=4abc$. Si $abc\neq 0$, usando la regla de Cramer, la única solución al sistema está dada por

$x=\frac{\begin{vmatrix} 1 & b & c \\ 1 & a+c & c \\ 1 & b & a+b \end{vmatrix}}{4abc}, \quad y=\frac{\begin{vmatrix} b+c & 1 & c \\ a & 1 & c \\ a & 1 & a+b \end{vmatrix}}{4abc}$

$y=\frac{\begin{vmatrix} b+c & b & 1 \\ a & a+c & 1 \\ a & b & 1 \end{vmatrix}}{4abc},$

resolviendo los determinantes obtenemos que

$x=\frac{a^2 -(b-c)^2}{4abc}, \quad y=\frac{b^2 -(a-c)^2}{4abc}, \quad z=\frac{c^2-(a-b)^2}{4abc}.$

Ahora, si $abc=0$, entonces $A$ no es invertible ($\text{rank}(A)<3$). El sistema es consistente si y sólo si $\text{rank}(A)=\text{rank}(A,b)$.

Sin pérdida de generalidad, decimos que $a=0$ (pues $abc=0$). Esto reduce el sistema a

$\begin{matrix} (b+c)x+by+cz=1 \\ c(y+z)=1 \\ b(y+z)=1 \end{matrix}.$

El sistema es consistente si $b=c$ y distintos de cero. En este caso, tenemos que $b(2x+y+z)=1$ y $b(y+z)=1$, implicando $x=0$, $y+z=1/b$. De manera similar, obtenemos las posibles soluciones si $b=0$ o si $c=0$.

Resumiendo:

  • Si $abc\neq 0$, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) $a=0$ y $b=c \neq 0$; caso 2) $b=0$ y $a=c\neq 0$; caso 3) $c=0$ y $a=b\neq 0$, tenemos infinitas soluciones descritas como, para todo $w\in \mathbb{R}$: caso 1) $(0,w,1/b-w)$; caso 2) $(w,0,1/a-w)$; caso 3) $(w,1/a-w,0)$.
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para $a,b,c$, el sistema no es consistente.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»