Archivo de la etiqueta: rango

Seminario de Resolución de Problemas: Sistemas de ecuaciones lineales

Introducción

Finalmente, en esta serie de entradas, veremos temas selectos de álgebra lineal y su aplicación a la resolución de problemas. Primero, hablaremos de sistemas de ecuaciones lineales. Luego, hablaremos de evaluación de determinantes. Después, veremos teoría de formas cuadráticas y matrices positivas. Finalmente, estudiaremos dos teoremas muy versátiles: el teorema de factorización PJQ y el teorema de Cayley-Hamilton.

Como lo hemos hecho hasta ahora, frecuentemente no daremos las demostraciones para los resultados principales. Además, asumiremos conocimientos básicos de álgebra lineal. También, asumiremos que todos los espacios vectoriales y matrices con los que trabajaremos son sobre los reales o complejos, pero varios resultados se valen más en general.

Para cubrir los temas de álgebra lineal de manera sistemática, te recomendamos seguir un libro como el Essential Linear Algebra de Titu Andreescu, o el Linear Algebra de Friedberg, Insel y Spence. Mucho del material también lo puedes consultar en las notas de curso que tenemos disponibles en el blog.

Sistemas de ecuaciones lineales

Una ecuación lineal en n incógnitas en \mathbb{R} consiste en fijar reales a_1,\ldots,a_n, b y determinar los valores de las variables x_1,\ldots,x_n tales que

    \[a_1x_1+a_2x_2+\ldots+a_nx_n=b.\]

Si a_1,\ldots,a_n no son todos cero, los puntos (x_1,\ldots,x_n) en \mathbb{R}^n que son solución a la ecuación definen un hiperplano en \mathbb{R}^n.

Un sistema de ecuaciones lineales con m ecuaciones y n variables consiste en fijar, para i en \{1,\ldots,m\} y j en \{1,\ldots,n\} a reales a_{ij} y b_i, y determinar los valores de las variables x_1,\ldots,x_n que simultáneamente satisfacen todas las m ecuaciones

    \[\begin{cases}a_{11}x_1+ a_{12}x_2+\ldots + a_{1n}x_n = b_1\\a_{21}x_1+a_{22}x_2+\ldots+a_{2n}x_n = b_2\\\quad \quad \vdots\\a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n = b_m.\end{cases}\]

Este sistema de ecuaciones se puede reescribir en términos matriciales de manera muy sencilla. Si A es la matriz de m\times n de entradas [a_{ij}], X es el vector de variables (x_1,\ldots,x_n) y b es el vector de reales b_1,\ldots,b_m, entonces el sistema de ecuaciones anterior se reescribe simplemente como

    \[AX=b.\]

Sistemas de ecuaciones lineales con mucha simetría

En algunos sistemas de ecuaciones hay mucha simetría, y no es necesario introducir técnicas avanzadas de álgebra lineal para resolverlos. Veamos el siguiente ejemplo.

Problema. Resuelve el sistema de ecuaciones

    \[\begin{cases}7a+2b+2c+2d+2e= -2020\\2a+7b+2c+2d+2e=-1010\\2a+2b+7c+2d+2e=0\\2a+2b+2c+7d+2e=1010\\2a+2b+2c+2d+7e=2020.\end{cases}\]

Sugerencia pre-solución. Trabaja hacia atrás, suponiendo que el sistema tiene una solución. A partir de ahí, puedes usar las cinco ecuaciones y combinarlas con sumas o restas para obtener información.

Solución. Al sumar las cinco ecuaciones, obtenemos que

    \[15(a+b+c+d+e)=0,\]

de donde 2(a+b+c+d+e)=0. Restando esta igualdad a cada una de las ecuaciones del sistema original, obtenemos que

    \[\begin{cases}5a= -2020\\5b=-1010\\5c=0\\5d=1010\\5e=2020.\end{cases}\]

De aquí, si el sistema tiene alguna solución, debe suceder que

    \begin{align*}a&=\frac{-2020}{5}=-404\\b&=\frac{-2020}{5}=-202\\c&=\frac{-2020}{5}= 0\\d&=\frac{-2020}{5}=202\\e&=\frac{-2020}{5}=404.\end{align*}

Como estamos trabajando hacia atrás, esta es sólo una condición necesaria para la solución. Sin embargo, una verificación sencilla muestra que también es una condición suficiente.

\square

Sistemas de ecuaciones de n x n y regla de Cramer

Si tenemos un sistema de n variables y n incógnitas, entonces es de la forma

    \[AX=b\]

con una matriz A cuadrada de n\times n. Dos resultados importantes para sistemas de este tipo son el teorema de existencia y unicidad, y las fórmulas de Cramer.

Teorema (existencia y unicidad de soluciones). Si A es una matriz cuadrada invertible de n\times n y b es un vector de n entradas, entonces el sistema lineal de ecuaciones

    \[AX=b\]

tiene una solución única y está dada por X=A^{-1}b.

El teorema anterior requiere saber determinar si una matriz es invertible o no. Hay varias formas de hacer esto:

  • Una matriz cuadrada es invertible si y sólo si su determinante no es cero. Más adelante hablaremos de varias técnicas para evaluar determinantes.
  • Una matriz cuadrada es invertible si y sólo si al aplicar reducción gaussiana, se llega a la identidad.
  • También ,para mostrar que una matriz es invertible, se puede mostrar que cumple alguna de las equivalencias de invertibilidad.

Problema. Demuestra que el sistema lineal de ecuaciones

    \[\begin{cases}147a+85b+210c+483d+133e= 7\\91a+245b+226c+273d+154e=77\\-119a+903b+217c+220d+168e=777\\189a+154b-210c-203d-108e=7777\\229a+224b+266c-133d+98e=77777.\end{cases}\]

tiene una solución única.

Sugerencia pre-solución. Reduce el problema a mostrar que cierta matriz es invertible. Para ello, usa alguno de los métodos mencionados. Luego, para simplificar mucho el problema, necesitarás un argumento de aritmética modular. Para elegir en qué módulo trabajar, busca un patrón en las entradas de la matriz.

Solución. Primero, notemos que el problema es equivalente a demostrar que la matriz

    \[A=\begin{pmatrix}147 & 85 & 210 & 483 & 133\\91 & 245 & 226 & 273 & 154\\-119 & 903 & 217 & 220 & 168\\189 & 154 & -210 & -203 & -108 \\229 & 224 & 266 & -133 & 98\end{pmatrix}\]

es invertible. Mostraremos que su determinante no es 0. Pero no calcularemos todo el determinante, pues esto es complicado.

Notemos que como A es una matriz de entradas enteras, entonces su determinante (que es suma de productos de entradas), también es entero. Además, como trabajar en aritmética modular respeta sumas y productos, para encontrar el residuo de \det(A) al dividirse entre 7 se puede primero reducir las entradas de A módulo 7, y luego hacer la cuenta de determinante.

Al reducir las entradas módulo 7, tenemos la matriz

    \[B=\begin{pmatrix}0 & 1 & 0 & 0 & 0 \\0&0 & 2 & 0 & 0\\0 & 0 & 0 & 3 & 0\\0&0 & 0 & 0 & 4 \\5& 0 & 0 & 0 & 0\end{pmatrix}.\]

El determinante de la matriz B es -(1\cdot 2 \cdot 3 \cdot 4 \cdot 5)=-120. Así,

    \begin{align*}\det(A) & \equiv \det(B)\\&=-120\\&\equiv 6 \pmod 7.\end{align*}

Concluimos que \det(A) es un entero que no es divisible entre 7, por lo cual no puede ser cero. Así, A es invertible.

\square

Por supuesto, en cualquier otro módulo podemos hacer la equivalencia y simplificar las cuentas. Pero 7 es particularmente útil para el problema anterior pues se simplifican casi todas las entradas, y además funciona para dar un residuo no cero.

Ahora veremos otra herramienta importante para resolver problemas de ecuaciones lineales: las fórmulas de Cramer.

Teorema (fórmulas de Cramer). Sea A una matriz invertible de n\times n con entradas reales y b=(b_1,\ldots,b_n) un vector de reales. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x_1,\ldots,x_n) dada por

    \[x_i=\frac{\det A_i}{\det A},\]

en donde A_i es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

En realidad este método no es tan útil en términos prácticos, pues requiere que se evalúen muchos determinantes, y esto no suele ser sencillo. Sin embargo, las fórmulas de Cramer tienen varias consecuencias teóricas importantes.

Problema. Muestra que una matriz invertible A de n\times n con entradas enteras cumple que su inversa también tiene entradas enteras si y sólo si el determinante de la matriz es 1 ó -1.

Sugerencia pre-solución. Para uno de los lados necesitarás las fórmulas de Cramer, y para el otro necesitarás que el determinante es multiplicativo.

Solución. El determinante de una matriz con entradas enteras es un número entero. Si la inversa de A tiene entradas enteras, entonces su determinante es un entero. Usando que el determinante es multiplicativo, tendríamos que

    \[\det(A)\cdot \det(A^{-1}) = \det (I) = 1.\]

La única forma en la que dos enteros tengan producto 1 es si ambos son 1 o si ambos son -1. Esto muestra una de las implicaciones.

Ahora, supongamos que A tiene determinante \pm 1. Si tenemos una matriz B de columnas C_1,\ldots,C_n, entonces para j en \{1,\ldots,n\} la j-ésima columna de AB es AC_j. De este modo, si D_1,\ldots, D_n son las columnas de A^{-1}, se debe cumplir para cada j en \{1,\ldots,n\} que

    \[AD_j= e_j,\]

en donde e_j es el j-ésimo elemento de la base canónica. Para cada j fija, esto es un sistema de ecuaciones.

Por las fórmulas de Cramer, la i-ésima entrada de C_j, que es la entrada x_{ij} de la matriz A^{-1}, está dada por

    \[x_{ij}=\frac{\det(A_{ij})}{\det(A)}=\pm \det(A_{ij}),\]

donde A_{ij} es la matriz obtenida de colocar al vector e_j en la i-ésima columna de A.

La matriz A_{ij} tiene entradas enteras, así que x_{ij}=\pm \det(A_{ij}) es un número entero. Así, A^{-1} es una matriz de entradas enteras.

\square

Sistemas de ecuaciones de m x n y teorema de Rouché-Capelli

Hasta aquí, sólo hemos hablando de sistemas de ecuaciones que tienen matrices cuadradas asociadas. También, sólo hemos hablado de los casos en los que no hay solución, o bien en los que cuando la hay es única. Los sistemas de ecuaciones lineales en general tienen comportamientos más interesantes. El siguiente resultado caracteriza de manera elegante todo lo que puede pasar.

Teorema (Rouché-Capelli). Sea A una matriz de m\times n con entradas reales, (b_1,\ldots,b_m) un vector de reales y (x_1,\ldots,x_n) un vector de incógnitas. Supongamos que A tiene rango r. Entonces:

  • El sistema AX=b tiene al menos una solución X_0 si y sólo si el rango de la matriz de m\times (n+1) obtenida de colocar el vector b como columna al final de la matriz A también tiene rango r.
  • El conjunto solución del sistema AX=(0,0,\ldots,0) es un subespacio vectorial \mathcal{S} de \mathbb{R}^n de dimensión n-r.
  • Toda solución al sistema AX=b se obtiene de sumar X_0 y un elemento de \mathcal{S}.

Problema. Encuentra todos los polinomios p(x) con coeficientes reales y de grado a lo más 3 tales que p(2)=3 y p(3)=2.

Sugerencia pre-solución. Usa notación efectiva, eligiendo variables para cada uno de los coeficientes de p(x). Luego, enuncia cada hipótesis como una ecuación.

Solución. Tomemos p(x)=ax^3+bx^2+cx+d. La hipótesis implica que

    \[\begin{cases}8a+4b+2c+d=p(2)= 3\\27a+9b+3c+d=p(3)=2.\end{cases}\]

El rango de la matriz

    \[\begin{pmatrix} 8 & 4 & 2 & 1\\ 27 & 9 & 3 & 1\end{pmatrix}\]

es a lo más 2, pues tiene 2 renglones. Pero es al menos 2, pues los dos vectores columna (2,3) y (1,1) son linealmente independientes. Exactamente el mismo argumento muestra que la matriz aumentada

    \[\begin{pmatrix} 8 & 4 & 2 & 1 & 3\\ 27 & 9 & 3 & 1 & 2\end{pmatrix}\]

es de rango 2. Por el primer punto del teorema de Rouché-Capelli, este sistema tiene solución.

Para encontrar esta solución de manera práctica, fijamos reales a y b y notamos que ahora

    \[\begin{cases}2c+d= 3-8a-4b\\3c+d=2-27a-9b\end{cases}\]

es un sistema en 2 variables, y como

    \[\det\begin{pmatrix} 2 & 1\\ 3 & 1\end{pmatrix}=-1,\]

tiene una única solución para c y d. Al hacer las cuentas, o usar fórmulas de Cramer, obtenemos que

    \begin{align*}c&=-1-19a-5b\\d&=5+30a+6b.\end{align*}

Así, concluimos que los polinomios p(x) solución consisten de elegir cualesquiera reales a y b y tomar

    \[p(x)=ax^3+bx^2-(1+19a+5b)x+(5+20a+6b).\]

\square

Por supuesto, para usar este teorema es necesario conocer el rango de la matriz A. En el problema tuvimos la suerte de que eso es sencillo. Hablaremos más adelante de varias técnicas para encontrar el rango de matrices.

Más problemas

Puedes encontrar más problemas de sistemas de ecuaciones lineales en el Capítulo 3 y en la Sección 7.6 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema. Considera los vectores

v_1=(1,x,0,1), \quad v_2=(0,1,2,1), \quad v_3=(1,1,1,1)

en \mathbb{R}^4. Prueba que para cualquier elección de x\in\mathbb{R}, los vectores v_1,v_2,v_3 son linealmente independientes.

Solución. Sea A la matriz cuyas columnas son v_1,v_2,v_3, es decir,

A=\begin{pmatrix} 1 & 0 & 1 \\ x & 1 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{pmatrix}.

Sabemos que v_1,v_2,v_3 son linealmente independiente si y sólo si \text{dim(span}(v_1,v_2,v_3))=3, ya que \text{rank}(A)=3, y eso es equivalente (por la clase del lunes) a demostrar que A tiene una submatriz de 3\times 3 invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

\begin{vmatrix} 1 & 0 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{vmatrix}=-1,

lo que implica que es invertible, y por lo tanto v_1,v_2, v_3 son vectores linealmente independientes.

\square

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre \mathbb{R} o sobre \mathbb{C}. Como \mathbb{R}\subset \mathbb{C}, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en \mathbb{R} se cumplen en \mathbb{C}. En este caso particular, si las soluciones de una matriz en M_{m,n}(\mathbb{R}) son soluciones de la misma matriz pero vista como elemento en M_{m,n}(\mathbb{C}). El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea A\in M_{m,n}(F) y sea F_1 un campo contenido en F. Consideremos el sistema lineal AX=0. Si el sistema tiene una solución no trivial en F_1^n, entonces tiene una solución no trivial en F^n.

Demostración. Dado que el sistema tiene una solución no trivial en F_1^n, r:=\text{rank}(A) < n vista como elemento en M_{m,n}(F_1). Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a A como elemento de M_{m,n}(F_1) o de M_{m,n}(F). Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de F^n de dimensión n-r>0. Por lo tanto, el sistema AX=0 tiene una solución no trivial en F^n.

\square

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. Sea S_a el siguiente sistema lineal:

\begin{matrix} x-2y+z=1 \\ 3x+2y-2z=2 \\ 2x-y+az=3 \end{matrix}.

Encuentra los valores de a para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como AX=b donde

A=\begin{pmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{pmatrix} \quad \text{y} \quad b=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}.

Notemos que

\begin{vmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{vmatrix}=8a-1,

entonces si a\neq 1/8, A es invertible, y por lo tanto \text{rank}(A)=3, mientras que si a=1/8, A no es invertible y \text{rank}(A)=2 ya que la submatriz es invertible

\begin{vmatrix} 1 & -2 \\ 3 & 2 \end{vmatrix}=8.

Además, si la matriz (A,b) es igual a

\begin{pmatrix} 1 & -2 & 1 & 1 \\ 3 & 2 & -2 & 2 \\ 2 & -1 & a & 3 \end{pmatrix},

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, \text{rank}(A,b)=3.

Aplicando el Teorema de Rouché-Capelli, para a=1/8, el sistema AX=b no tiene soluciones. También podemos concluir que como \text{rank}(A)=3 para todo a\neq 1/8, el sistema tiene exactamente una solución. (Y AX=b nunca tiene infinitas soluciones).

\square

Problema. Sean a,b,c números reales dados. Resuelve el sistema lineal

\begin{matrix} (b+c)x+by+cz=1 \\ ax+ (a+c)y+cz=1 \\ ax+by+(a+b)z=1 \end{matrix}.

Solución. La matriz del sistema es

A=\begin{pmatrix} b+c & b & c \\ a & a+c & c \\ a & b & a+b \end{pmatrix}.

No es difícil ver que \text{det}(A)=4abc. Si abc\neq 0, usando la regla de Cramer, la única solución al sistema está dada por

x=\frac{\begin{vmatrix} 1 & b & c \\ 1 & a+c & c \\ 1 & b & a+b \end{vmatrix}}{4abc}, \quad y=\frac{\begin{vmatrix} b+c & 1 & c \\ a & 1 & c \\ a & 1 & a+b \end{vmatrix}}{4abc}

y=\frac{\begin{vmatrix} b+c & b & 1 \\ a & a+c & 1 \\ a & b & 1 \end{vmatrix}}{4abc},

resolviendo los determinantes obtenemos que

x=\frac{a^2 -(b-c)^2}{4abc}, \quad y=\frac{b^2 -(a-c)^2}{4abc}, \quad z=\frac{c^2-(a-b)^2}{4abc}.

Ahora, si abc=0, entonces A no es invertible (\text{rank}(A)<3). El sistema es consistente si y sólo si \text{rank}(A)=\text{rank}(A,b).

Sin pérdida de generalidad, decimos que a=0 (pues abc=0). Esto reduce el sistema a

\begin{matrix} (b+c)x+by+cz=1 \\ c(y+z)=1 \\ b(y+z)=1 \end{matrix}.

El sistema es consistente si b=c y distintos de cero. En este caso, tenemos que b(2x+y+z)=1 y b(y+z)=1, implicando x=0, y+z=1/b. De manera similar, obtenemos las posibles soluciones si b=0 o si c=0.

Resumiendo:

  • Si abc\neq 0, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) a=0 y b=c \neq 0; caso 2) b=0 y a=c\neq 0; caso 3) c=0 y a=b\neq 0, tenemos infinitas soluciones descritas como, para todo w\in \mathbb{R}: caso 1) (0,w,1/b-w); caso 2) (w,0,1/a-w); caso 3) (w,1/a-w,0).
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para a,b,c, el sistema no es consistente.

\square

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, ero es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz A en M_{m,n}(F) es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación X\mapsto AX de F^n\to F^m. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de A. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de A.

Lo que veremos ahora es que podemos determinar el rango de una matriz A calculando algunos determinantes de matrices pequeñas asociadas a A. Una submatriz de A es una matriz que se obtiene de eliminar algunas filas o columnas de A.

Teorema. Sea A una matriz en M_{m,n}(F). El rango de A es igual al tamaño de la submatriz cuadrada más grande de A que sea invertible.

Demostración. Llamemos C_1,\ldots,C_n a las columnas de A. Sabemos que

    \[r=\dim \text{span}(C_1,\ldots,C_n).\]

Mostraremos primero que hay una submatriz cuadrada de tamaño r. Por el lema de Steinitz, podemos escoger r enteros 1\leq i_1<\ldots<i_r\leq n tal que las columnas C_{i_1},\ldots,C_{i_r} de A cumplen

    \[\text{span}(C_1,\ldots,C_n)=\text{span}(C_{i_1},\ldots,C_{i_r}).\]

Así, la matriz B hecha por columnas C_{i_1},\ldots,C_{i_r} está en M_{m,r}(F) y es de rango r.

Ahora podemos calcular el rango de B por filas. Si F_1,\ldots,F_m son las filas de B, tenemos que

    \[r=\dim \text{span}(F_1,\ldots,F_m).\]

De nuevo, por el lema de Steinitz, existen enteros 1\leq j_1<\ldots<j_r\leq m tales que

    \[\text{span}(F_1,\ldots,F_m)=\text{span}(F_{i_1},\ldots,F_{i_r}).\]

De esta forma, la matriz C hecha por las filas F_{j_1},\ldots,F_{j_r} está en M_r(F) y es de rango r. Por lo tanto, C es una matriz cuadrada de tamaño r y es invertible.

Esta matriz C es una submatriz de A pues se obtiene al eliminar de A todas las columnas en posiciones distintas a i_1,\ldots,i_r y todas las filas en posiciones distintas a j_1,\ldots,j_r. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si B es una submatriz de A cuadrada e invertible de tamaño d, entonces d\leq r. En efecto, tomemos una B así. Sus columnas son linealmente independientes. Si i_1<\ldots<i_n corresponden a los índices de las columnas de A que se preservan al pasar a B, entonces las columnas C_{i_1},\ldots,C_{i_d} de A son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de B, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,

    \begin{align*}d&=\dim \text{span}(C_{i_1},\ldots,C_{i_d})\\&\leq \dim \text{span} (C_1,\ldots,C_d)\\&=r,\end{align*}

que es la desigualdad que nos faltaba para terminar la prueba.

\square

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en M_{3,5}(\mathbb{R}):

    \[A=\begin{pmatrix}4 & 5 & -4 & 7 & 2\\ 0 & -3 & -1 & 0 & 9\\ 0 & -5 & 0 & 9 & -3 \end{pmatrix}.\]

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho \min(3,5)=3.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada

    \[\begin{pmatrix} 4 & -4 & 2\\ 0 & -1 & 9\\ 0 & 0 & -3\end{pmatrix}.\]

Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es 4\cdot (-1)\cdot (-3)=12.

Como el determinante no es cero, es una matriz invertible de tamaño 3. Por la proposición anterior, el rango de A debe ser entonces mayor o igual a 3. Juntando las dos desigualdades que encontramos, el rango de A debe ser igual a 3.

\square

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con m ecuaciones y n incógnitas es de la forma

    \begin{align*}a_{11}x_1 + a_{12} x_2 + \ldots + a_{1n}x_n &= b_1\\a_{21}x_1 + a_{22} x_2 + \ldots + a_{2n}x_n &= b_2\\\vdots&\\a_{m1}x_1 + a_{m2} x_2 + \ldots + a_{mn}x_n &= b_m,\end{align*}

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:

    \begin{align*}A&=\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\  \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix},\\b&=\begin{pmatrix}b_1\\ \vdots\\ b_m\end{pmatrix} \text{ y }\; X=\begin{pmatrix}x_1\\ \vdots\\ x_n\end{pmatrix},\end{align*}

y reescribiendo el sistema como

    \[AX=b.\]

Si C_1,\ldots, C_n son las columnas de la matriz A, también sabemos que

    \[AX=x_1C_1+\ldots + x_nC_n,\]

de modo que el sistema de ecuaciones puede ser escrito como

    \[x_1C_1+\ldots + x_nC_n=b.\]

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si b está en el espacio generado por las columnas de A, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean A\in M_n(F) y b\in F^m. Sea (A|b) la matriz en M_{n,n+1}(F) obtenida de agregar a b como columna hasta la derecha de la matriz A. Entonces:

  • El sistema lineal de ecuaciones AX=b tiene al menos una solución si y sólo si \rank(A)=\rank((A|b)).
  • El conjunto de soluciones \mathcal{S}_h al sistema homogéneo es un subespacio de F^n de dimensión n-\rank(A).

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si b es una combinación lineal de las columnas de A. De esta forma, si existe una solución, entonces \rank(A)=\rank((A|b)), pues el espacio generado por las columnas de A sería el mismo que el de las columnas de (A|b).

Por otro lado, si \rank(A)=\rank((A|b)) es porque las columnas de A y las de (A|b) generan el mismo espacio, de modo que b está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es AX=0, de modo que el conjunto solución es precisamente el kernel de la transformación T:F^n\to F^m tal que X\mapsto AX. Por el teorema de rango-nulidad, tenemos que

    \[\dim \mathcal{S}_h = n-\dim \text{Im}(T)=n-\text{rank}(A).\]

Esto termina la demostración.

\square

Como discutimos con anterioridad, ya que tenemos una solución x_0 para el sistema de ecuaciones AX=b, entonces todas las soluciones son el conjunto

    \[x_0+\mathcal S_h:=\{x_0 + x: x\in \mathcal S_h\}.\]

En otras palabras, cualquier solución al sistema se puede obtener sumando a x_0 una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en \mathbb{R} en tres variables:

    \begin{align*}2x+3y-z=1\\3x-y+2z=0\\3x+10y-5z=0\end{align*}

Afirmamos que el sistema no tiene solución. La matriz asociada es A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}. Por lo que sabemos de determinantes de 3\times 3, podemos calcular su determinante como

    \begin{align*}\begin{vmatrix}2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{vmatrix} &= (2)(-1)(-5)+(3)(10)(-1)+(3)(3)(2)\\&-(-1)(-1)(3)-(2)(10)(2)-(3)(3)(-5)\\&=10-30+18-3-40+45\\&=0.\end{align*}

Esto muestra que A no es invertible, y que por lo tanto tiene rango a lo más 2. Como

    \[\begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix} = (2)(-1)-(3)(3)=-11\]

es un subdeterminante no cero de tamaño 2, entonces A tiene rango 2.

Ahora consideremos la matriz

    \[(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 0\end{pmatrix}.\]

Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de 3\times 3 por expansión de Laplace en la última columna:

    \begin{align*}\begin{vmatrix}2 & 3 & 1\\ 3 & -1 & 0 \\ 3 & 10 & 0\end{vmatrix} &= 1 \cdot \begin{vmatrix}  3 & -1 \\ 3 & 10 \end{vmatrix} - 0 \begin{vmatrix} 2 & 3 \\ 3 & 10 \end{vmatrix} + 0 \cdot \begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix}\\&= 1 \cdot (3\cdot 10 + 1\cdot 3)\\&=33.\end{align*}

De esta forma, (A|b) tiene una submatriz de 3\times 3 invertible, y por lo tanto tiene rango al menos 3. Como tiene 3 filas, su rango es a lo más 3. Con esto concluimos que su rango es exactamente 3. Conluimos que

    \[\text{rank} A = 2 \neq 3 = \text{rank} (A|b),\]

de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

\square

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz A es de rango r, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada B de tamaño r que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables x_1,\ldots,x_r y a las primeras r ecuaciones. De esta forma, el sistema AX=b se resume en el siguiente sistema de ecuaciones equivalente:

    \begin{align*}a_{11}x_1 + a_{12} x_2 + \ldots + a_{1r}x_r &= b_1-a_{1,r+1}x_{r+1}-\ldots -a_{1,n} x_n\\a_{21}x_1 + a_{22} x_2 + \ldots + a_{2r}x_r &= b_2-a_{2,r+1}x_{r+1}-\ldots -a_{2,n} x_n\\\vdots\\a_{r1}x_1 + a_{r2} x_2 + \ldots + a_{rr}x_r &= b_m-a_{r,r+1}x_{r+1}-\ldots -a_{r,n} x_n,\end{align*}

Aquí x_{r+1},\ldots,x_n son lo que antes llamábamos las variables libres y x_1,\ldots,x_r son lo que llamábamos variables pivote. Como la submatriz B correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal AX=b en donde A es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea A una matriz invertible en M_n(F) y b=(b_1,\ldots,b_n) un vector en F^n. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x_1,\ldots,x_n) dada por

    \[x_i=\frac{\det A_i}{\det A},\]

en donde A_i es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por

    \[X=(x_1,\ldots,x_n)=A^{-1}b.\]

Si C_1,\ldots,C_n son las columnas de A, que (x_1,\ldots,x_n) sea solución al sistema quiere decir que

    \[x_1C_1+\ldots+x_nC_n=b.\]

El determinante pensado como una función en n vectores columna es n-lineal, de modo que usando la linealidad en la i-ésima entrada y que el determinantes es alternante, tenemos que:

    \begin{align*}\det A_i &= \det(C_1,\ldots,C_{i-1},b,C_{i+1},\ldots,C_n)\\&= \det(C_1,\ldots,C_{i-1},\sum_{j=1}^n x_j C_j,C_{i+1},\ldots,C_n)\\&=\sum_{j=1}^n x_j \det(C_1,\ldots,C_{i-1},C_j,C_{i+1},\ldots,C_n)\\&=x_i \det(C_1,\ldots,C_{i-1},C_i,C_{i+1},\ldots,C_n)\\&=x_i \det A\end{align*}

Como A es invertible, su determinante no es 0, de modo que

    \[x_i=\frac{\det A_i}{\det A},\]

como queríamos.

\square

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en \mathbb{R} en tres variables:

    \begin{align*}2x+3y-z=1\\3x-y+2z=0\\3x+10y-5z=3\end{align*}

En un ejemplo anterior vimos que la matriz asociada A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix} tiene rango 2. Se puede verificar que la matriz aumentada

    \[(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 3 \end{pmatrix}\]

también tiene rango 2. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones AX=b, y el sistema homogéneo tiene espacio de soluciones de dimensión 3-2=1.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante 2(-1)-(3)(3)=-11\neq 0, entonces el sistema de ecuaciones original es equivalente al subsistema

    \begin{align*}2x+3y=1+z\\3x-y=-2z.\end{align*}

Para encontrar su solución, fijamos una z arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por

    \begin{align*}x&=\frac{\begin{vmatrix} 1+z & 3 \\ -2z & -1 \end{vmatrix}}{-11}=\frac{1-5z}{11}\\y&=\frac{\begin{vmatrix} 2 & 1+z \\ 3 & -2z \end{vmatrix}}{-11}=\frac{3+7z}{11}.\end{align*}

De esta forma, las soluciones al sistema original están dadas por

    \[\left(\frac{1-5z}{11}, \frac{3+7z}{11},z\right)=\left(\frac{1}{11},\frac{3}{11},0\right) + z \left(-\frac{5}{11},\frac{7}{11},1\right).\]

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión 1, pues está generado por el vector

    \[\left(-\frac{5}{11},\frac{7}{11},1\right),\]

y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular

    \[\left(\frac{1}{11},\frac{3}{11},0\right).\]

\square

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de 2\times 2 con un parámetro \theta. La intepretación geométrica del siguiente sistema de ecuaciones es «encuentra el punto (x,y) del plano tal que al rotarse en \theta alrededor del origen, llega al punto (a,b) » .

Problema. Sea a,b,\theta números reales. Encuentra las soluciones x,y al sistema de ecuaciones

    \begin{align*}x \cos \theta  - y \sin \theta  = a\\x \sin \theta + y \cos \theta = b.\end{align*}

Solución. La matriz asociada al sistema es

    \[A=\begin{pmatrix} \cos \theta & -\sin\theta \\ \sin \theta & \cos \theta\end{pmatrix}\]

que tiene determinante

    \[\det A = \cos ^2 \theta + \sin^2 \theta = 1.\]

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

    \begin{align*}x&=\frac{\begin{vmatrix}a & -\sin \theta\\ b & \cos \theta \end{vmatrix}}{\det A} = a\cos \theta + b\sin \theta\\y&=\frac{\begin{vmatrix}\cos \theta & a \\ \sin \theta & b \end{vmatrix}}{\det A} = b\cos \theta - a\sin \theta.\end{align*}

\square

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Determina el rango de la matriz

        \[A=\begin{pmatrix} 2 & 0 & -1 \\ 3 & -2 & 4 \\ 5 & -2 & 3 \\ -1 & 2 & -5 \end{pmatrix}.\]

  • Para la matriz A del inciso anterior, resuelve los sistemas de ecuaciones lineales AX=\begin{pmatrix}5\\8\\3\\2\end{pmatrix} y AX=\begin{pmatrix}5\\8\\13\\-3\end{pmatrix}.
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango 2.
  • Muestra que si A es una matriz en M_n(\mathbb{R}) con entradas enteras y de determinante 1, y b es un vector en R^n con entradas enteras, entonces la solución X del sistema de ecuaciones AX=b tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible A?

Álgebra Lineal I: Problemas de rango de transformaciones y matrices.

Introducción

En la entrada del viernes vimos el concepto de rango de una matriz y rango de una transformación lineal, además del muy importante teorema de rango nulidad y la desigualdad de Sylvester. Vimos también, como contenido optativo, el versátil teorema de la factorización PJQ. En esta ocasión nos enfocaremos en resolver problemas de rango que nos servirán para repasar dichos conceptos.

Problemas de rango resueltos

Problema 1. Encuentra el kernel y el rango de la transformación lineal T:\mathbb{R}_2[x] \longrightarrow \mathbb{R}_3[x] definida por

    \[T(f(x))=2f'(x) + \int _{0}^{x} 3f(t)dt.\]

Antes de comenzar a leer la solución, es conveniente que te convenzas de que T es una transformación lineal y que está bien definida, es decir, que en efecto toma un polinomio de grado a lo más dos con coeficientes reales y lo lleva a un polinomio de grado a lo más tres con coeficientes reales.

Solución. Consideremos \mathcal{B}=\{1, x, x^2\} la base canónica de \mathbb{R}_2[x].
Entonces

    \begin{align*}\Ima(T)&=span(\{T(1),T(x),T(x^2)\})\\&= span(\{3x,2+\frac{3}{2}x^2,4x+x^3\}).\end{align*}

Para determinar el rango de \Ima{T}, colocamos a las coordenadas de estas imágenes en la siguiente matriz A,

    \[A=\begin{pmatrix}0 & 3 & 0 & 0\\2 & 0 & \frac{3}{2} & 0\\0 & 4 & 0 & 1 \end{pmatrix}\]

y con el algoritmo de reducción gaussiana llegamos a que

    \[A_{red}=\begin{pmatrix}1 & 0 & \frac{3}{4} & 0\\0 & 1 & 0 & 0\\0 & 0 & 0 & 1 \end{pmatrix}\]

Como A_{red} tiene 3 pivotes se sigue que \rank(T)=3.

Luego, por el teorema de rango nulidad se tiene que

    \begin{align*}3&=\dim(\mathbb{R}_2[x])\\&= \dim (\ker (T))+\rank(T)\\&=\dim(\ker(T))+3.\end{align*}

Así, \dim(\ker(T))=0, por lo tanto \ker(T)=\{0\}

\square

La desigualdad de Sylvester nos ayuda a acotar el rango de una suma de matrices por abajo. La desigualdad

    \[\rank(A+B)\leq \rank(A)+\rank(B)\]

nos ayuda a acotarlo por arriba. Combinar ambas ideas puede ser útil en problemas de rango de matrices.

Problema 2. Sea A\in M_n(\mathbb{C}) una matriz idempotente. Prueba que

    \[rank(A)+rank(I_n-A)=n.\]

Recuerda que una matriz es idempotente si A^2=A.

Solución. Como A^2=A, entonces A(I_n - A)=O_n.
Luego, por la desigualdad de Sylvester se tiene que

    \begin{align*}0&=\rank(O_n)\\&=\rank(A(I_n-A))\\&\geq \rank(A) + \rank(I_n-A)-n, \end{align*}



entonces

    \[rank(A)+rank(I_n-A)\leq n\]

Por otro lado, como para cualesquiera matrices X,Y se tiene
rank(X+Y)\leq rank(X)+rank(Y), entonces

    \[rank(I_n)\leq rank(A) + rank(I_n-A),\]


de modo que

    \[n\leq rank(A)+rank(I_n - A).\]

Combinando ambas desigualdades,

    \[rank(A)+rank(I_n-A)=n.\]

\square

Problema 3. Encuentra el rango de la transformación lineal T:\mathbb{R}_2[x]\longrightarrow M_2(\mathbb{R}) definida por

    \[T(f(x))=\begin{pmatrix}f(1)-f(2) & 0\\0 & f(0)\end{pmatrix}.\]

Solución. Para determinar el rango, basta tomar una base, encontrar la imagen de sus elementos bajo T y determinar cuántos de estos elementos son linealmente independientes. Considera \mathcal{B}=\{1,x,x^2\} la base canónica de \mathbb{R}_2[x]. Tenemos que

    \begin{align*}\Ima(T)&=span(T(\mathcal{B}))\\&=span(\{T(1), T(x), T(x^2)\})\\&=span\left(\left\{ \begin{pmatrix}0 & 0\\0 & 1\end{pmatrix}, \begin{pmatrix}-1 & 0\\0 & 0\end{pmatrix}, \begin{pmatrix}-3 & 0\\0 & 0\end{pmatrix} \right\} \right )\\&=span\left (\left\{ \begin{pmatrix}0 & 0\\0 & 1\end{pmatrix}, \begin{pmatrix}-1 & 0\\0 & 0\end{pmatrix} \right\} \right ).\end{align*}

Notemos también que \mathcal{C}=\left\{ \begin{pmatrix}0 & 0\\0 & 1\end{pmatrix}, \begin{pmatrix}-1 & 0\\0 & 0\end{pmatrix}} \right\} es linealmente independiente.

Por lo tanto \mathcal{C} es una base para \Ima(T) y así \rank(T)=2.

\square

Problema 4. Sean A\in M_{3,2}(\mathbb{R}) y B\in M_{2,3}(\mathbb{R}) matrices tales que

    \[AB=\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}\]

Muestra que BA es la identidad.

El enunciado no parece mostrar que este sea uno de los problemas de rango de matrices. Sin embargo, para poder resolverlo usaremos las herramientas que hemos desarrollado hasta ahora.

Partiremos el problema en los siguientes pasos.

  1. Verificar que (AB)^2=AB y que \rank(AB)=2.
  2. Probar que BA es invertible.
  3. Probar que (BA)^3=(BA)^2 y deducir que BA=I_2.

Solución.

1. Realizamos la operación matricial:

    \[\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}=\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}\]

Ahora, aplicando reducción gaussiana en AB obtenemos que

    \[(AB)_{red}=\begin{pmatrix}1 & 0 & -1\\0 & 1 & 1\\0 & 0 & 0\end{pmatrix}.\]

Como (AB)_{red} tiene sólo dos pivotes, entonces rank(AB)=2.

2. Usando la desigualdad de rango para producto de matrices, obtenemos que

    \begin{align*}\rank(BA)&\geq \rank(A(BA)B)\\&=\rank((AB)^2)\\&=\rank(AB)=2.\end{align*}

Entonces, \rank(BA)\geq 2. Por otro lado, como BA\in M_2(\mathbb{R}), entonces rank(BA)\leq 2. Así, rank(BA)=2 y BA es una matriz en M_2(\mathbb{R}), así que es invertible.

3. Como (AB)^2=AB, entonces B(AB)^2 A=B(AB)A=(BA)^2. Por consiguiente BABABA=(BA)^2 y así (BA)^3=(BA)^2 y como BA es invertible, podemos multiplicar en ambos lados de esta última igualdad por ((BA)^{-1})^2 para obtener BA=I_2.

\square

Álgebra Lineal I: Rango de transformaciones lineales y matrices

Introducción

En entradas anteriores hablamos de transformaciones lineales, cómo actúan en conjuntos especiales de vectores y de cómo se pueden representar con matrices. Hablamos también de cómo cambiar de una base a otra y cómo usar esto para entender transformaciones en varias bases. Estamos listos para introducir un concepto fundamental de álgebra lineal, el de rango de una transformación lineal y de una matriz.

Antes de entrar en las definiciones formales, vale la pena hablar un poco de rango de manera intuitiva. Supongamos que V es un espacio vectorial de dimensión n y que W es un espacio vectorial sobre el mismo campo que V. Una transformación lineal T:V\to W puede «guardar mucha independencia lineal» o «muy poquita». Si T es inyectiva, ya vimos antes que T manda linealmente independientes a linealmente independientes. Si T es la transformación 0, entonces se «pierde toda la independencia».

El rango mide algo intermedio entre estos dos extremos. Mientras mayor sea el rango, más independencia lineal se preserva y viceversa. Si mantienes esta intuición en mente, varias de las proposiciones te resultarán más naturales.

Otro buen ejemplo para tener en mente es tomar una transformación lineal T:\mathbb{R}^3\to \mathbb{R}^3. Si es la transformación identidad, la base canónica se preserva. Si es la proyección al plano xy, entonces «perdemos» al vector (0,0,1), pues se va al (0,0,0). Si es la proyección al eje x, «perdemos» al (0,1,0) y al (0,0,1) pues ambos se van a (0,0,0). Y si es la transformación 0, perdemos a todos. El rango precisamente va a medir esto, y para estos ejemplos tendremos rango 3, 2, 1 y 0 respectivamente.

Rango para transformaciones lineales

Como en otras ocasiones, cuando hablemos de transformaciones lineales entre espacios vectoriales, serán sobre un mismo campo F.

Definición. Sean V y W espacios de dimensión finita. El rango de una transformación lineal T:V\to W es la dimensión de la imagen de T, es decir,

    \[\rank(T)=\dim\Ima T.\]

Si B es una base de V, entonces genera a V. La transformación T es suprayectiva de V a \Ima T, de modo que T(B) es generador de \Ima T. De esta forma, para encontrar el rango de una transformación lineal T:V\to W basta:

  • Tomar una base B de V
  • Aplicar T a cada elemento de B
  • Determinar un conjunto linealmente independiente máximo en T(B)

Para hacer este último paso, podemos poner a los vectores coordenada de T(B) con respecto a una base de W como los vectores fila de una matriz A y usar reducción gaussiana. Las operaciones elementales no cambian el espacio generado por las filas, así que el rango de T es el número de vectores fila no cero en la forma escalonada reducida A_{\text{red}} de A.

Ejemplo. Encuentra el rango de la transformación lineal T:\mathbb{R}^3\to M_{2}(\mathbb{R}) que manda (x,y,z) a

    \[\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.\]

Solución. Tomemos e_1,e_2,e_3 la base canónica de \mathbb{R}^3. Tenemos que T(e_1)=\begin{pmatrix}1 & 2\\ 0 & 1\end{pmatrix}, T(e_2)=\begin{pmatrix} 1 & 0 \\ 2 & -1\end{pmatrix} y T(e_3)=\begin{pmatrix}-1 & 0\\ -2 & 1\end{pmatrix}.

Tomando la base canónica E_{11},E_{12},E_{21},E_{22} de M_2(\mathbb{R}), podemos entonces poner a las coordenadas de T(e_1),T(e_2),T(e_2) como vectores columna de una matriz

    \[\begin{pmatrix}1 & 2 & 0 & 1\\ 1 & 0 & 2 & -1\\ -1& 0 & -2 & 1\end{pmatrix}.\]

Sumando la segunda fila a la tercera, y después restando la primera a la segunda,obtenemos la matriz

    \[\begin{pmatrix}1 & 2 & 0 & 1\\ 0 & -2 & 2 & -2\\ 0& 0 & 0 & 0\end{pmatrix}.\]

De aquí, sin necesidad de terminar la reducción gaussiana, podemos ver que habrá exactamente dos filas no cero. De este modo, el rango de la transformación es 2.

\square

Propiedades del rango

Demostremos ahora algunas propiedades teóricas importantes acerca del rango de una transfromación lineal.

Proposición. Sean U, V y W espacios de dimensión finita. Sean S:U\to V, T:V\to W, T':V\to W transformaciones lineales. Entonces:

  1. \rank(T)\leq \dim V
  2. \rank(T)\leq \dim W
  3. \rank(T\circ S)\leq \rank(T)
  4. \rank(T\circ S)\leq \rank(S)
  5. \rank(T+T')\leq \rank(T) + \rank(T')

Demostración. (1) Pensemos a T como una transformación T:V\to \Ima(T). Haciendo esto, T resulta ser suprayectiva, y por un resultado anterior tenemos que \dim V\geq \dim \Ima T = \rank (T).

(2) Sabemos que \Ima (T) es un subespacio de W, así que \rank(T)=\dim \Ima T \leq \dim W.

(3) La imagen de T contiene a la imagen de T\circ S, pues cada vector de la forma T(S(v)) es de la forma T(w) (para w=S(v)). Así,

    \[\rank(T) =\dim \Ima T \geq \dim \ima T\circ S = \rank (T\circ S).\]

(4) La función T\circ S coincide con la restricción T_{\Ima S} de T a \Ima S. Por el inciso (1), \rank(T_{\Ima S})\leq \dim \Ima S = \rank(S), así que \rank (T\circ S) \leq \rank(S).

(5) Tenemos que \Ima (T+T') \subseteq \Ima T + \Ima T'. Además, por un corolario de la fórmula de Grassman, sabemos que

    \begin{align*}\dim (\Ima T + \Ima T')&\leq \dim \Ima T + \dim \Ima T'\\&= \rank(T) + \rank(T').\end{align*}

Así,

    \begin{align*}\rank(T+T')&\leq \rank(\Ima T + \Ima T')\\&\leq \rank(T)+\rank(T').\end{align*}

\square

Proposición. Sean R:U\to V, T:V\to W y S:W\to Z transformaciones lineales con R suprayectiva y S inyectiva. Entonces

    \[\rank(S\circ T\circ R)=\rank (T).\]

Dicho de otra forma «composición por la izquierda con transformaciones inyectivas no cambia el rango» y «composición por la derecha con transformaciones suprayectivas no cambia el rango». Un corolario es «composición con transformaciones invertibles no cambia el rango».

Demostración. De la proposición anterior, tenemos que \rank(S\circ T)\leq \rank (T). La restricción S_{\Ima T} de S a la imagen de T es una transformación lineal de \Ima T a \Ima (S\circ T) que es inyectiva, de modo que \dim \Ima T \leq \dim \Ima (S\circ T), que es justo \rank(T)\leq \rank(S\circ T), de modo que tenemos la igualdad \rank(S\circ T)=\rank (T).

Como R es suprayectiva, \Ima R= V, de modo que \Ima(S\circ T \circ R)=\Ima(S\circ T). Así,

    \[\rank (S\circ T \circ R) = \rank (S\circ T)=\rank(T).\]

\square

Teorema de rango-nulidad

Una transformación lineal T:V\to W determina automáticamente dos subespacios de manera natural: el kernel \ker T y la imagen \Ima T. Resulta que las dimensiones de \ker T, de \Ima T y de V están fuertemente relacionadas entre sí.

Teorema. Sean V y W espacios de dimensión finita. Sea T:V\to W una transformación lineal. Entonces

    \[\dim\ker T + \rank(T) = \dim V.\]

Demostración. Supongamos que \dim V=n y \dim \ker T = k. Queremos mostrar que \rank(T)=n-k. Para ello, tomemos una base B de \ker T y tomemos B'=\{v_1,\ldots,v_{n-k}\} tal que B\cup B' sea base de V. Basta mostrar que T(B')=\{T(v_1),\ldots,T(v_{n-k})\}\subset \Ima T es base de \Ima T. Sea U el generado por B', de modo que V=U \oplus \ker T.

Veamos que T(B') es generador de \Ima T. Tomemos T(v) en \Ima T. Podemos escribir v=z+u con z\in \ker T y u\in U. Así, T(v)=T(z)+T(u)=T(u)\in T(B').

Ahora veamos que T(B') es linealmente independiente. Si

    \[\alpha_1T(v_1)+\ldots+\alpha_{n-k}T(v_{n-k})=0,\]

entonces T(\alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k})=0, de modo que \alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k} está en U y en \ker T, pero la intersección de estos espacios es \{0\}. Como esta combinación lineal es 0 y B' es linealmente independiente, \alpha_1=\ldots=\alpha_n=0.

De esta forma, T(B') es linealmente independiente y genera a \Ima T, de modo que \rank(T) =|B'|=n-k.

\square

Ejemplo. Consideremos de nuevo la transformación lineal T:\mathbb{R}^3\to M_{2}(\mathbb{R}) que manda (x,y,z) a

    \[\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.\]

Muestra que T no es inyectiva.

Solución. Ya determinamos previamente que esta transformación tiene rango 2. Por el teorema de rango-nulidad, su kernel tiene dimensión 1. Así, hay un vector v\neq (0,0,0) en el kernel, para el cual T(v)=0=T(0), de modo que T no es inyectiva.

\square

Problema. Demuestra que para cualquier entero n existe una terna (a,b,c)\neq (0,0,0) con a+b+c=0 y tal que

    \[\int_0^1 at^{2n}+bt^n+c \,dt = 0.\]

Solución. Podríamos hacer la integral y plantear dos ecuaciones lineales. Sin embargo, daremos argumentos dimensionales para evitar la integral. Consideremos las transformaciones lineales T:\mathbb{R}^3\to \mathbb{R} y S:\mathbb{R}^3\to \mathbb{R} dadas por

    \begin{align*}T(x,y,z)&=\int_0^1 xt^{2n}+yt^n+z \,dt\\S(x,y,z)&=x+y+z.\end{align*}


Notemos que T(0,0,1)=\int_0^1 1\, dt = 1=S(0,0,1), de modo que ni T ni S son la transformación 0. Como su rango puede ser a lo más \dim\mathbb{R}=1, entonces su rango es 1. Por el teorema de rango-nulidad, \dim \ker S= \dim \ker T = 2. Como ambos son subespacios de \mathbb{R}^3, es imposible que \ker S \cap \ker T=\{0\}, de modo que existe (a,b,c) no cero tal que T(a,b,c)=S(a,b,c)=0. Esto es justo lo que buscábamos.

\square

Rango para matrices

Definición. El rango de una matriz A en M_{m,n}(F) es el rango de la transformación lineal asociada de F^n a F^m dada por X\mapsto AX. Lo denotamos por \rank(A).

A partir de esta definición y de las propiedades de rango para transformaciones lineales obtenemos directamente las siguientes propiedades para rango de matrices.

Proposición. Sean m, n y p enteros. Sea B una matriz en M_{n,p}(F) y A, A' matrices en M_{m,n}. Sea P una matriz en M_{n,p} cuya transformación lineal asociada es suprayectiva y Q una matriz en M_{r,m} cuya transformación lineal asociada es inyectiva. Entonces:

  1. \rank(A)\leq \min(m,n)
  2. \rank(AB)\leq \min(\rank(A),\rank(B))
  3. \rank(A+A')\leq \rank(A) + \rank(A')
  4. \rank(QAP) = \rank(A)

Como discutimos anteriormente, el rango de una transformación se puede obtener aplicando la transformación a una base y viendo cuál es el máximo subconjunto de imágenes de elementos de la base que sea linealmente independiente. Si tomamos una matriz A en M_{m,n}(F), podemos aplicar esta idea con los vectores e_1,\ldots,e_n de la base canónica de F^{n}. Como hemos visto con anterioridad, para cada i=1,\ldots, n tenemos que el vector Ae_i es exactamente la i-ésima columna de A. Esto nos permite determinar el rango de una matriz en términos de sus vectores columna.

Proposición. El rango de una matriz en M_{m,n}(F) es igual a la dimensión del subespacio de F^m generado por sus vectores columna.

Problema. Determina el rango de la matriz

    \[\begin{pmatrix} 3 & 1 & 0 & 5 & 0\\ 0 & 8 & 2 & -9 & 0\\ 0 & -1 & 0 & 4 & -2\end{pmatrix}.\]

Solución. Como es una matriz con 3 filas, el rango es a lo más 3. Notemos que entre las columnas están los vectores (3,0,0), (0,2,0) y (0,0,-2), que son linealmente independientes. De esta forma, el rango de la matriz es 3.

\square

A veces queremos ver que el rango de un producto de matrices es grande. Una herramienta que puede servir en estos casos es la desigualdad de Sylvester.

Problema (Desigualdad de Sylvester). Muestra que para todas las matrices A, B en M_n(F) se tiene que

    \[\rank(AB)\geq \rank(A)+\rank(B)-n.\]

Solución. Tomemos T_1:F^n\to F^n y T_2:F^n\to F^n tales que T_1(X)=AX y T_2(X)=BX. Lo que tenemos que probar es que

    \[\rank(T_1\circ T_2) \geq \rank(T_1) + \rank(T_2) - n.\]

Consideremos S_1 como la restricción de T_1 a \Ima T_2. Tenemos que \ker S_1 \subset \ker T_1, así que \dim \ker S_1 \leq \dim \ker T_1. Por el teorema de rango-nulidad en S_1, tenemos que

    \begin{align*}rank(T_2) &= \dim \Ima T_2 \\&= \dim \ker S_1 + \rank(S_1) \\&= \dim \ker S_1 + \rank(T_1\circ T_2)\\&\leq \dim \ker T_1 + \rank(T_1\circ T_2),\end{align*}

así que

    \[\rank(T_2)\leq \dim \ker T_1 + \rank(T_1\circ T_2).\]

Por el teorema de rango-nulidad en T_1 tenemos que

    \[\dim \ker T_1 + \rank(T_1)=n.\]

Sumando la desigualdad anterior con esta igualdad obtenemos el resultado.

\square

El teorema PJQ (opcional)

El siguiente resultado no se encuentra en el temario usual de Álgebra Lineal I. Si bien no formará parte de la evaluación del curso, recomendamos fuertemente conocerlo y acostumbrarse a usarlo pues tiene amplias aplicaciones a través del álgebra lineal.

Teorema (Teorema PJQ). Sea A una matriz en M_{m,n}(F) y r un entero en \{0,\ldots,\min(m,n)\}. El rango de A es igual a r si y sólo si existen matrices invertibles P\in M_m(F) y Q\in M_n(F) tales que A=PJ_rQ, en donde J_r es la matriz en M_{m,n} cuyas primeras r entradas de su diagonal principal son 1 y todas las demás entradas son cero, es decir, en términos de matrices de bloque,

    \[J_r=\begin{pmatrix}I_r & 0 \\0 & 0\end{pmatrix}.\]

No damos la demostración aquí. Se puede encontrar en el libro de Titu Andreescu, Teorema 5.68. Veamos algunas aplicaciones de este teorema.

Problema. Muestra que una matriz tiene el mismo rango que su transpuesta.

Solución. Llamemos r al rango de A. Escribimos A=PJ_rQ usando el teorema PJQ, con P y Q matrices invertibles. Tenemos que ^tA=^tQ\, ^tJ_r \,^tP, con ^tQ y ^tP matrices invertibles. Además, ^t J_r es de nuevo de la forma de J_r. Así, por el teorema PJQ, tenemos que ^t A es de rango r.

Combinando el problema anterior con el resultado del rango de una matriz en términos de sus vectores columna obtenemos lo siguiente.

Proposición. El rango de una matriz en M_{m,n}(F) es igual a la dimensión del subespacio de F^n generado por sus vectores renglón.

Terminamos esta entrada con una aplicación más del teorema PJQ.

Problema. Muestra que una matriz A de rango r se puede escribir como suma de r matrices de rango 1. Muestra que es imposible hacerlo con menos matrices.

Solución. Expresamos A=PJ_rQ usando el teorema PJQ. Si definimos A_i=PE_{ii}Q para i=1,\ldots,r, donde E_{ii} es la matriz cuya entrada (i,i) es uno y las demás cero, claramente tenemos que J_r=E_{11}+E_{22}+\ldots+E_{rr}, por lo que

    \[A=PJ_rQ=A_1+A_2+\ldots+A_r.\]

Además, como E_{ii} es de rango 1, por el teorema PJQ cada matriz A_i es de rango 1.

Veamos que es imposible con menos. Si B_1,\ldots,B_s son matrices de rango 1, como el rango es subaditivo tenemos que \rank (B_1+\ldots+B_s)\leq s. Así, si sumamos menos de r matrices, no podemos obtener a A.

\square

Tarea Moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Termina de hacer la reducción gaussiana del primer ejemplo.
  • Sea T una transformación de un espacio vectorial V de dimensión finita a si mismo. Usa el teorema de rango-nulidad para mostrar que si T es inyectiva o suprayectiva, entonces es biyectiva.
  • Determina el rango de la matriz

        \[\begin{pmatrix} 0 & 0 & 0 & 8 & 3\\ 7 & 8 & -1 & -2 & 0\\ 3 & -1 & 4 & 4 & -9\end{pmatrix}.\]

  • Demuestra que aplicar operaciones elementales a una matriz no cambia su rango.
  • Demuestra que matrices similares tienen el mismo rango.
  • Demuestra por inducción que para matrices A_1,\ldots, A_n del mismo tamaño tenemos que

        \[\rank (A_1+\ldots+A_n)\leq \sum_{i=1}^n \rank(A_i).\]

  • Escribe la demostración de la última proposición de la sección del teorema PJQ
  • Revisa la demostración del teorema de descomposición PJQ en el libro de Titu Andreescu.