Introducción
El algunas ocasiones es suficiente saber si una matriz es invertible o no. Sin embargo, esta es una distinción muy poco fina. Hay algunos otros problemas en los que se necesita decir más acerca de la matriz. Podemos pensar que una matriz invertible, como transformación lineal, «guarda toda la información» al pasar de un espacio vectorial a otro. Cuando esto no sucede, nos gustaría entender «qué tanta información se guarda». El rango de matrices es una forma de medir esto. Si la matriz es de $m\times n$, el rango es un número entero que va de cero a $n$. Mientras mayor sea, «más información guarda».
Por definición, el rango de una matriz $A$ de $m\times n$ es igual a la dimensión del subespacio vectorial de $\mathbb{R}^m$ generado por los vectores columna de $A$. Una matriz de $n\times n$ tiene rango $n$ si y sólo si es invertible.
Si pensamos a $A$ como la transformación lineal de $\mathbb{R}^n$ a $\mathbb{R}^m$ tal que $X\mapsto AX$, entonces el rango es precisamente la dimensión de la imagen de $A$. Esto permite extender la definición de rango a transformaciones lineales arbitrarias, y se estudia con generalidad en un curso de álgebra lineal.
En las siguientes secciones enunciaremos sin demostración algunas propiedades del rango de matrices y las usaremos para resolver problemas.
Propiedades del rango de matrices
Comenzamos enunciando algunas propiedades del rango de matrices
Teorema. Sean $m$, $n$ y $p$ enteros. Sea $B$ una matriz de $n\times p$, y $A$, $A’$ matrices de $m\times n$. Sean además $P$ una matriz de $n\times p$ cuya transformación lineal asociada es suprayectiva y $Q$ una matriz de $r\times m$ cuya transformación lineal asociada es inyectiva. Entonces:
- $\rank(A)\leq \min(m,n)$
- $\rank(AB)\leq \min(\rank(A),\rank(B))$
- $\rank(A+A’)\leq \rank(A) + \rank(A’)$
- $\rank(QA) = \rank(A)$
- $\rank(AP)=\rank(A)$
Consideremos el siguiente problema, tomado del libro Essential Linear Algebra de Titu Andreescu.
Problema. Las matrices $A$ y $B$ tienen entradas reales. La matriz $A$ es de $3\times 3$, la matriz $B$ es de $2\times 3$ y además $$AB=\begin{pmatrix} 0 & -1 & -1 \\ -1 & 0 & -1 \\ 1 & 1 & 2 \end{pmatrix}.$$ Determina el valor del producto $BA$.
Sugerencia pre-solución. Un paso intermedio clave es mostrar que el producto $BA$ es invertible.
Solución. Para empezar, afirmamos que $(AB)^2=AB$. Esto se puede verificar directamente haciendo el producto de matrices.
Luego, afirmamos que el rango de $AB$ es $2$. En efecto, eso se puede hacer fácilmente por definición. Por un lado, la suma de las primeras dos columnas es igual a la tercera, así que el espacio vectorial que generan las tres es de dimensión a lo más dos. Pero es al menos dos, pues las primeras dos columnas son linealmente independientes. Esto muestra la afirmación.
Ahora, usando la propiedad (2) del teorema dos veces, tenemos que
\begin{align*}
\rank(BA)&\geq \rank (A(BA)) \\
&\geq \rank (A(BA)B)\\
&=\rank((AB)^2) \\
&= \rank (AB)\\
&=2.
\end{align*}
Así, $BA$ es una matriz de $2\times 2$ de rango $2$ y por lo tanto es invertible.
Consideremos ahora el producto $(BA)^3$. Desarrollando y usando que $(AB)^2=AB$, tenemos que
\begin{align*}
(BA)^3 &= BABABA \\
&=B(AB)^2 A\\
&=BABA\\
&=(BA)^2.
\end{align*}
Como $BA$ es invertible, entonces $(BA)^2$ tiene inversa. Si multiplicamos la igualdad $(BA)^3 = (BA)^2$ por esa inversa, obtenemos que $$BA=I_2.$$
$\square$
El teorema anterior nos permite acotar por arriba el rango del producto de dos matrices. También hay una desigualdad que nos permite acotar por abajo el rango de dicho producto, cuando las matrices son cuadradas.
Teorema (desigualdad de Sylvester). Para matrices $A$ y $B$ de $n\times n$, se tiene que $$\rank(AB)\geq \rank(A) + \rank(B) – n.$$
Problema. La matriz $A$ es de $2020 \times 2020$. Muestra que:
- Si $A$ tiene rango $2017$, entonces la matriz $A^{673}$ no puede ser la matriz de $2020\times 2020$ de puros ceros, es decir, $O_{2020}$.
- Si $A$ tiene rango $2016$, entonces la matriz $A^{673}$ puede ser la matriz $O_{2020}$.
Sugerencia pre-solución. Enuncia una afirmación más general relacionada con el rango que puedas probar por inducción utilizando la desigualdad de Sylvester.
Solución. Para la primer parte, probaremos primero algo más general. Afirmamos que si $M$ es una matriz de $n \times n$ de rango $n-s$ y $k$ es un entero positivo, entonces el rango de la matriz $M^k$ es por lo menos $n-ks$. Procedemos por inducción sobre $k$. Si $k=1$, el resultado es cierto pues $M$ tiene rango $n-s=n-1\cdot s$.
Supongamos el resultado para cierto entero $k$. Usando la desigualdad de Sylverster y la hipótesis inductiva, tenemos que
\begin{align*}
\rank(A^{k+1})&\geq \rank(A^k) + \rank(A) – n\\
&\geq (n-ks) + (n-s) – n\\
&=n-(k+1)s.
\end{align*}
Esto muestra la afirmación general.
Si regresamos a la primer parte del problema original y aplicamos el resultado anterior, tenemos que $A^{673}$ es una matriz de rango por lo menos $$2020 – 673 \cdot 3 = 2020 – 2019 = 1.$$ De esta forma, $A^{673}$ no puede ser la matriz $0$.
Hagamos ahora la segunda parte del problema. Para ello, debemos construir una matriz $A$ de $2020\times 2020$ de rango $2016$ tal que $A^{673}$ sea la matriz $0$. Para ello, consideremos la matriz $A$ tal que sus primeras $4$ columnas sean iguales al vector $0$, y que sus columnas de la $5$ a la $2020$ sean los vectores canónicos $e_1,\ldots, e_{2016}$.
Esta matriz claramente es de rango $2016$, pues el espacio generado por sus columnas es el espacio generado por $e_1,\ldots, e_{2016}$, que es de dimensión $2016$. Por otro lado, se puede mostrar inductivamente que para $k=1,\ldots,505$, se tiene que $A^{k}$ es una matriz en donde sus columnas de $1$ a $4k$ son todas el vector $0$, y sus columnas de $4k+1$ a $2020$ son $e_1,\ldots, e_{2020-4k}$. En particular, $A^{505}=O_{2020}$, y entonces $A^{673}$ también es la matriz de puros ceros.
$\square$
Equivalencias de rango de matrices
Hay muchas formas alternativas para calcular el rango de una matriz. El siguiente teorema resume las equivalencias más usadas en resolución de problemas.
Teorema. Sea $A$ una matriz de $m\times n$ con entradas reales. Los siguientes números son todos iguales:
- El rango de $A$, es decir, la dimensión del espacio vectorial generado por los vectores columna de $A$.
- La dimensión del espacio vectorial generado por los vectores fila de $A$. Observa que esto es, por definición, el rango de la transpuesta de $A$.
- La cantidad de filas no cero que tiene la forma escalonada reducida de $A$.
- (Teorema de rango-nulidad) $n-\dim \ker(A)$, donde $\ker(A)$ es el espacio vectorial de soluciones a $AX=0$.
- El tamaño más grande de una submatriz cuadrada de $A$ que sea invertible.
- La cantidad de eigenvalores complejos distintos de cero contando multiplicidades algebraicas.
Problema. Determina todos los posibles rangos que pueden tener las matrices con entradas reales de la forma $$\begin{pmatrix} a & b & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{pmatrix}.$$
Sugerencia pre-solución. Comienza haciendo casos pequeños. Para dar los ejemplos y mostrar que tienen el rango deseado, usa el teorema de equivalencia de rango para simplificar algunos argumentos.
Solución. El rango de una matriz de $4\times 4$ es un entero de $0$ a $4$. Debemos ver cuáles de estos valores se pueden alcanzar con matrices de la forma dada.
Tomando $a=b=c=d=0$, obtenemos la matriz $O_4$, que tiene rango $0$. Si $a=b=c=d=1$, obtenemos la matriz de puros unos, que tiene rango $1$. Además, si $a=1$ y $b=c=d=0$, obtenemos la matriz identidad, que tiene rango $4$.
Si $a=b=1$ y $c=d=0$, obtenemos la matriz $$A = \begin{pmatrix} 1 & 1 & 0 & 0 \\1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 1 & 1 \end{pmatrix}.$$ Esta matriz tiene sólo dos columnas diferentes, así que su rango es a lo más dos. Pero tiene como submatriz a la matriz $$I_2=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix},$$ que tiene rango $2$, entonces el rango de $A$ es al menos $2$. De esta forma, el rango de $A$ es $2$.
Veamos ahora que el rango puede ser $3$. Para ello, damos un argumento de determinantes. Llamemos $s=a+b+c+d$. Sumando las tres últimas filas a la primera y factorizando $s$, tenemos que
\begin{align*}
\begin{vmatrix} a & b & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}&=\begin{vmatrix} s & s & s & s \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}\\
&=s\begin{vmatrix} 1 & 1 & 1 & 1 \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}.
\end{align*}
Así, si tomamos $a=b=c=1$ y $d=-3$, entonces $s=0$ y por lo tanto la matriz $B$ que obtenemos no es invertible, así que su rango es a lo más tres. Pero además es de rango al menos tres pues $B$ tiene como submatriz a $$\begin{pmatrix} 1 & 1 & -3 \\ 1 & -3 & 1 \\ -3 & 1 & 1 \end{pmatrix},$$ que es invertible pues su determinante es $$-3-3-3-1-1+27=16\neq 0.$$
Concluimos que los posibles rangos que pueden tener las matrices de esa forma son $0,1,2,3,4$.
$\square$
El teorema de factorización $PJQ$
Existen diversos teoremas que nos permiten factorizar matrices en formas especiales. De acuerdo a lo que pida un problema, es posible que se requiera usar uno u otro resultado. El teorema de factorización más útil para cuando se están resolviendo problemas de rango es el siguiente.
Teorema (factorización $PJQ$). Sea $A$ una matriz de $m\times n$ y $r$ un entero en $\{0,\ldots,\min(m,n)\}$. El rango de $A$ es igual a $r$ si y sólo si existen matrices invertibles $P$ de $m\times m$ y $Q$ de $n\times n$ tales que $A=PJ_rQ$, en donde $J_r$ es la matriz de $m\times n$ cuyas primeras $r$ entradas de su diagonal principal son $1$ y todas las demás entradas son cero, es decir, en términos de matrices de bloque, $$J_r=\begin{pmatrix}
I_r & O_{r,n-r} \\
O_{m-r,r} & O_{m-r,n-r}
\end{pmatrix}.$$
Como evidencia de la utilidad de este teorema, sugerimos que intentes mostrar que el rango por columnas de una matriz es igual al rango por filas, usando únicamente la definición. Esto es relativamente difícil. Sin embargo, con el teorema $PJQ$ es inmediato. Si $A$ es de $m\times n$ y tiene rango $r$, entonces su factorización $PJQ$ es de la forma $$A=PJ_rQ.$$ Entonces al transponer obtenemos
\begin{align*}
^tA&= {^tQ} {^t J_r} {^tP}.
\end{align*}
Esto es de nuevo un factorización $PJQ$, con ${^t J_r}$ la matriz de $n\times m$ que indica que $^t A$ es de rango $r$.
Veamos ahora un problema clásico en el que se puede usar la factorización $PJQ$.
Problema. Sea $A$ una matriz de $m \times n$ y rango $r$. Muestra que:
- $A$ puede ser escrita como la suma de $r$ matrices de rango $1$.
- $A$ no puede ser escrita como la suma de $r-1$ o menos matrices de rango $1$.
Sugerencia pre-solución. Para la primer parte, usa el teorema $PJQ$. Para la segunda parte, usa desigualdades del rango.
Solución. Tomemos $A=PJ_rQ$ una factorización $PJQ$ de $A$.
Hagamos la primer parte. Para ello, para cada $i=1,\ldots,r$, consideremos la matriz $L_i$ de $m\times n$ tal que su $i$-ésima entrada en la diagonal principal es $1$ y el resto de sus entradas son iguales a $0$.
Por un lado, $L_i$ es de rango $1$, pues tiene sólo una columna distinta de cero. De este modo, $$\rank(PL_iQ)\leq \rank(PL_i) \leq \rank(L_i)=1,$$ y como $P$ y $Q$ son invertibles, $$\rank(PL_iQ)\geq \rank(L_i) \geq 1.$$ Así, para cada $i=1,\ldots, r$, se tiene que $L_i$ es de rango $1$.
Por otro lado, $$J_r = L_1 + L_2 + \ldots + L_r,$$ así que
\begin{align*}
A&=PJ_rQ\\
&=P(L_1 + L_2 + \ldots + L_r)Q\\
&=PL_1Q + PL_2Q + \ldots + PL_rQ.
\end{align*}
Esto expresa a $A$ como suma de $r$ matrices de rango $1$.
Para la segunda parte del problema, usamos repetidamente que el rango es subaditivo. Si tenemos matrices $B_1,\ldots,B_s$ matrices de $m\times n$, entonces
\begin{align*}
\rank(B_1&+B_2+\ldots+B_s) & \\
&\leq \rank(B_1) + \rank (B_2 + \ldots + B_s)\\
&\leq \rank(B_1) + \rank(B_2) + \rank(B_3+\ldots+B_s)\\
& vdots \\
&\leq \rank(B_1) + \rank(B_2) + \ldots + \rank(B_s).
\end{align*}
Si cada $B_i$ es de rango $1$, entonces su suma tiene rango a lo más $s$.
Así, la suma de $r-1$ o menos matrices de rango $1$ tiene rango a lo más $r-1$, y por lo tanto no puede ser igual a $A$.
$\square$
Más problemas
Puedes encontrar más problemas de rango de una matriz en la Sección 5.4 del libro Essential Linear Algebra de Titu Andreescu. El teorema $PJQ$, así como muchos problemas ejemplo, los puedes encontrar en el Capítulo 5 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.
B6 putnam 1969.
Solo alguien como tú puede hacer ver trivial un problema de putnam.
Gracias por el comentario Shadow. En efecto, los problemas de Putnam son bien difíciles y truculentos. Hay que conocer mucha teoría para poder resolverlos.