Archivo de la etiqueta: matrices

Álgebra Lineal I: Propiedades del polinomio característico

Introducción

En esta entrada continuamos con el estudio de eigenvalores y eigenvectores de matrices y trasformaciones lineales. Para ello, estudiaremos más a profundidad el polinomio característico.

Como recordatorio, en una entrada pasada demostramos que si A es una matriz en M_n(F), entonces la expresión \det (\lambda I_n - A) es un polinomio en \lambda de grado n con coeficientes en F. A partir de ello, definimos el polinomio característico de A como

    \[\chi_A(\lambda)=\det(\lambda I_n - A).\]

En esta entrada probaremos algunas propiedades importantes del polinomio característico de matrices. Además, hablaremos de la multiplicidad algebraica de los eigenvalores. Finalmente enunciaremos sin demostración dos teoremas fundamentales en álgebra lineal: el teorema de caracterización de matrices diagonalizables y el teorema de Cayley-Hamilton.

Las raíces del polinomio característico son los eigenvalores

Ya vimos que las raíces del polinomio característico son los eigenvalores. Pero hay que tener cuidado. Deben ser las raíces que estén en el campo en el cual la matriz esté definida. Veamos un ejemplo más.

Problema. Encuentra el polinomio característico y los eigenvalores de la matriz

    \begin{align*}\begin{pmatrix}0&1&0&0\\2&0&-1&0\\0& 7 & 0 & 6\\0 & 0 & 3 & 0\end{pmatrix}.\end{align*}

Solución. Debemos encontrar las raíces del polinomio dado por el siguiente determinante:

    \begin{align*}\begin{vmatrix}\lambda&-1&0&0\\-2&\lambda&1&0\\0& -7 & \lambda & -6\\0 & 0 & -3 & \lambda\end{vmatrix}.\end{align*}

Haciendo expansión de Laplace en la primer columna, tenemos que este determinante es igual a

    \begin{align*}\lambda\begin{vmatrix}\lambda&1&0\\ -7 & \lambda & -6\\ 0 & -3 & \lambda\end{vmatrix}+2\begin{vmatrix}-1&0&0\\-7 & \lambda & -6\\0 & -3 & \lambda\end{vmatrix}.\end{align*}

Para calcular los determinantes de cada una de las matrices de 3\times 3 podemos aplicar la fórmula por diagonales para obtener:

    \begin{align*}\lambda\begin{vmatrix}\lambda&1&0\\-7 & \lambda & -6\\0 & -3 & \lambda\end{vmatrix}&=\lambda(\lambda^3-18\lambda+7\lambda)\\&=\lambda(\lambda^3-11\lambda)\\&=\lambda^4-11\lambda^2\end{align*}

y

    \begin{align*}2\begin{vmatrix}-1&0&0\\-7 & \lambda & -6\\0 & -3 & \lambda\end{vmatrix}&=2(-\lambda^2+18)\\&=-2\lambda^2+36.\end{align*}

Concluimos que el polinomio característico es

    \begin{align*}\lambda^4-13\lambda^2+36&=(\lambda^2-4)(\lambda^2-9)\\&=(\lambda+2)(\lambda-2)(\lambda+3)(\lambda-3).\end{align*}

De esta factorización, las raíces del polinomio (y por lo tanto los eigenvalores que buscamos) son -2,2,-3,3.

Si quisiéramos encontrar un eigenvector para, por ejemplo, el eigenvalor -2, tenemos que encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo

    \[(-2I_n-A)X=0.\]

\square

Propiedades del polinomio característico

Veamos ahora algunas propiedades importantes del polinomio característico. El primer resultado habla del polinomio característico de matrices triangulares superiores. Un resultado análogo se cumple para matrices inferiores, y su enunciado y demostración quedan como tarea moral.

Proposición. Si A=[a_{ij}] es una matriz triangular superior en M_n(F), entonces su polinomio característico es

    \[\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).\]

Demostración. Como A es triangular superior, entonces \lambda I_n -A también, y sus entradas diagonales son precisamente \lambda-a_{ii} para i=1,\ldots,n. Como el determinante de una matriz diagonal es el producto de sus entradas en la diagonal, tenemos que

    \[\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).\]

\square

Como el polinomio característico es un determinante, podemos aprovechar otras propiedades de determinantes para obtener otros resultados.

Proposición. Una matriz y su transpuesta tienen el mismo polinomio característico.

Demostración. Sea A una matriz en M_n(F). Una matriz y su transpuesta tienen el mismo determinante. Además, transponer es una transformación lineal. De este modo:

    \begin{align*}\chi_A(\lambda)&=\det(\lambda I_n - A)\\&=\det({^t(\lambda I_n-A)})\\&=\det(\lambda({^tI_n})-{^tA})\\&=\det(\lambda I_n - {^tA})\\&=\chi_{^tA}(\lambda).\end{align*}

\square

Ya antes habíamos mostrado que matrices similares tienen los mismos eigenvalores, pero que dos polinomios tengan las mismas raíces no necesariamente implica que sean iguales. Por ejemplo, los polinomios

    \[(x-1)^2(x+1) \quad \text{y} \quad (x+1)^2(x-1)\]

tienen las mismas raíces, pero no son iguales.

De esta forma, el siguiente resultado es más fuerte de lo que ya habíamos demostrado antes.

Proposición. Sean A y P matrices en M_n(F) con P invertible. Entonces A y P^{-1}AP tienen el mismo polinomio característico.

Demostración. El resultado se sigue de la siguiente cadena de igualdades, en donde usamos que \det(P)\det(P^{-1})=1 y que el determinante es multiplicativo:

    \begin{align*}\chi_{P^{-1}AP}(\lambda) &= \det(P) \chi_{P^{-1}AP}(\lambda) \det(P)^{-1}\\&=\det(P) \det(\lambda I_n - P^{-1}AP) \det(P^{-1})\\&=\det(P(\lambda I_n - P^{-1}AP)P^{-1})\\&=\det(\lambda PP^{-1}-PP^{-1}APP^{-1})\\&=\det(\lambda I_n - A)\\&=\chi_{A}(\lambda)\end{align*}

\square

Ten cuidado. El determinante es multiplicativo, pero el polinomio característico no es multiplicativo. Esto es evidente por el siguiente argumento. Si A y B son matrices en M_n(F), entonces \chi_A(\lambda) y \chi_B(\lambda) son cada uno polinomios de grado n, así que su producto es un polinomio de grado 2n, que por lo tanto no puede ser igual al polinomio característico \chi_{AB}(\lambda) pues este es de grado n. Así mismo, \chi_{A^2}(\lambda) no es \chi_{A}(\lambda)^2.

Una última propiedad que nos interesa es mostrar que el determinante de una matriz y su traza aparecen en los coeficientes del polinomio característico.

Teorema. Sea A una matriz en M_n(F) y \chi_A(\lambda) su polinomio característico. Entonces \chi_{A}(\lambda) es de la forma

    \[\lambda^n-(\text{tr} A) \lambda^{n-1}+\ldots+(-1)^n \det A.\]

Demostración. Tenemos que mostrar tres cosas:

  • El polinomio \chi_{A} es mónico, es decir, tiene coeficiente principal 1,
  • que el coeficiente del término de grado n-1 es \text{tr} A y
  • el coeficiente libre es (-1)^n \det A.

El coeficiente libre de un polinomio es su evaluación en cero. Usando la homogeneidad del determinante, dicho coeficiente es:

    \begin{align*}\chi_A(0)&=\det(0\cdot I_n-A)\\&=\det(-A)\\&=(-1)^n\det(A).\end{align*}

Esto muestra el tercer punto.

Para el coeficiente del término de grado n-1 y el coeficiente principal analicemos con más detalle la fórmula del determinante

    \begin{align*}\begin{vmatrix}\lambda - a_{11} & -a_{12} & \ldots & -a_{1n}\\-a_{21} & \lambda - a_{22} & \ldots & -a_{1n}\\\vdots & & \ddots & \\-a_{n1} & -a_{n2} & \ldots & \lambda - a_{nn}\end{vmatrix}\end{align*}


en términos de permutaciones.

Como discutimos anteriormente, la única forma de obtener un término de grado n es cuando elegimos a la permutación identidad. Pero esto también es cierto para términos de grado n-1, pues si no elegimos a la identidad, entonces la permutación elige por lo menos dos entradas fuera de la diagonal, y entonces el grado del producto de entradas correspondiente es a lo más n-2.

De este modo, los únicos términos de grado n y n-1 vienen del producto

    \[(\lambda-a_{11})\cdot\ldots\cdot(\lambda-a_{nn}).\]

El único término de grado n viene de elegir \lambda en todos los factores, y se obtiene el sumando \lambda^n, lo cual muestra que el polinomio es mónico.

Los únicos términos de grado n-1 se obtienen de elegir \lambda en n-1 factores y un término del estilo -a_{ii}. Al considerar todas las opciones, el término de grado n-1 es

    \[-(a_{11}+a_{22}+\ldots+a_{nn})\lambda^{n-1}=-(\text{tr} A) \lambda^{n-1},\]

que era lo último que debíamos mostrar.

\square

Ejemplo. El teorema anterior muestra que si A es una matriz en M_2(F), es decir, de 2\times 2, entonces

    \[\chi_A(\lambda)=\lambda^2 - (\text{tr}A) \lambda +\det A.\]

De manera explícita en términos de las entradas tendríamos entonces que si A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}, entonces su polinomio característico es

    \[\lambda^2-(a+d)\lambda+(ad-bc).\]

Como ejemplo, si A=\begin{pmatrix} 5 & 2 \\ -8 & -3 \end{pmatrix}, entonces su polinomio característico es

    \[\lambda^2 -2\lambda +1=(\lambda-1)^2.\]

Su único eigenvalor sería entonces 1.

\square

Suma y producto de eigenvalores de matrices complejas

A veces queremos referirnos al conjunto de todos los eigenvalores de una matriz.

Definición. Para A una matriz en M_n(F), el espectro de A es el conjunto de eigenvalores de A. Lo denotamos por \text{spec} (A)

Tenemos una definición análoga para el espectro de una transformación lineal. Esa definición da un poco de intuición de por qué los teoremas de diagonalización de matrices se llaman teoremas espectrales. La siguiente definición habla de un sentido en el cual un eigenvalor «se repite».

Definición. Sea A una matriz en M_n(F) y \lambda un eigenvalor de A. La multiplicidad algebraica de \lambda es el mayor entero m_{\lambda} tal que (x-\lambda)^{m_\lambda} divide a \chi_A(x).

Cuando estamos en \mathbb{C}, por el teorema fundamental del álgebra todo polinomio de grado n se puede factorizar en exactamente n términos lineales. Además, los polinomios característicos son mónicos. De este modo, si tenemos una matriz A en M_n(\mathbb{C}), su polinomio característico se puede factorizar como sigue:

    \[\chi_A(\lambda) = \prod_{j=1}^n (\lambda-\lambda_j),\]

en donde \lambda_1,\ldots,\lambda_n son eigenvalores de A, no necesariamente distintos, pero en donde cada eigenvalor aparece en tantos términos como su multiplicidad algebraica.

Desarrollando parcialmente el producto del lado derecho, tenemos que el coeficiente de \lambda^{n-1} es

    \[-(\lambda_1+\ldots+\lambda_n)\]

y que el coeficiente libre es

    \[(-1)^n\lambda_1\cdot\ldots\cdot\lambda_n.\]

Combinando este resultado con el de la sección anterior y agrupando eigenvalores por multiplicidad, se demuestra el siguiente resultado importante. Los detalles de la demostración quedan como tarea moral.

Teorema. Sea A una matriz en M_n(\mathbb{C})

  • La traza A es igual a la suma de los eigenvalores, contando multiplicidades algebraicas, es decir:

        \[\text{tr} A = \sum_{\lambda \in \text{spec}(A)} m_{\lambda} \lambda.\]

  • El determinante de A es igual al producto de los eigenvalores, contando multiplicidades algebraicas, es decir:

        \[\det A = \prod_{\lambda \in \text{spec} (A)} \lambda^{m_{\lambda}}.\]

Veamos un problema en donde se usa este teorema.

Problema. Sea A una matriz en M_n(\mathbb{C}) tal que A^2-4A+3I_n=0. Muestra que el determinante de A es una potencia de 3.

Solución. Sea \lambda un eigenvalor de A y v un eigenvector para \lambda. Tenemos que

    \[A^2v=A(\lambda v) = \lambda(Av)=\lambda^2 v.\]

De esta forma, tendríamos que

    \begin{align*}0&=(A^2-4A+3I_n)v\\&=(\lambda^2 v - 4\lambda v + 3 v)\\&=(\lambda^2-4\lambda+3) v.\end{align*}

Como v no es el vector 0, debe suceder que \lambda^2-4\lambda+3=0. Como \lambda^2-4\lambda+3 = (\lambda-3)(\lambda-1), entonces \lambda=1 ó \lambda=3. Con esto concluimos que los únicos posibles eigenvectores de A son 1 y 3.

Como A es una matriz en \mathbb{C}, tenemos entonces que su polinomio característico es de la forma (x-1)^a(x-3)^b con a y b enteros no negativos tales que a+b=n. Pero entonces por el teorema de producto de eigenvalores, tenemos que el determinante es 1^a\cdot 3^b=3^b, con lo que queda demostrado que es una potencia de 3.

\square

Dos teoremas fundamentales de álgebra lineal (opcional)

Tenemos todo lo necesario para enunciar dos resultados de álgebra lineal. Sin embargo, las demostraciones de estos resultados requieren de más teoría, y se ven en un siguiente curso. No los demostraremos ni los usaremos en el resto de este curso, pero te pueden servir para anticipar el tipo de resultados que verás al continuar tu formación en álgebra lineal.

El primer resultado fundamental es una caracterización de las matrices que pueden diagonalizarse. Para ello necesitamos una definición adicional. Hay otro sentido en el cual un eigenvalor \lambda de una matriz A puede repetirse.

Definición. Sea A una matriz en M_n(F) y \lambda un eigenvalor de A. La multiplicidad geométrica de \lambda es la dimensión del kernel de la matriz \lambda I_n -A pensada como transformación lineal.

En estos términos, el primer teorema al que nos referimos queda enunciado como sigue.

Teorema. Una matriz A en M_n(F) es diagonalizable si y sólo si su polinomio característico \chi_A(\lambda) se puede factorizar en términos lineales en F[\lambda] y además, para cada eigenvalor, su multiplicidad algebraica es igual a su multiplicidad geométrica.

Ejemplo. La matriz

    \[A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\]

tiene como polinomio característico a \chi_A(\lambda)=\lambda^2+1. Este polinomio no se puede factorizar en \mathbb{R}[x], así que A no es diagonalizable con matrices de entradas reales.

Sin embargo, en \mathbb{C} tenemos la factorización en términos lineales \lambda^2+1=(\lambda+i)(\lambda-i), que dice que i y -i son eigenvalores de multiplicidad algebraica 1. Se puede mostrar que la multiplicidad geométrica también es 1. Así, A sí es diagonalizable con matrices de entradas complejas.

\square

El segundo resultado fundamental dice que «cualquier matriz se anula en su polinomio característico». Para definir correctamente esto, tenemos que decir qué quiere decir evaluar un polinomio en una matriz. La definición es más o menos natural.

Definición. Si A es una matriz en M_n(F) y p es un polinomio en F[\lambda] de la forma

    \[p(\lambda)=a_0+a_1\lambda+a_2\lambda^2+\ldots+a_n\lambda^n,\]

definimos a la matriz p(A) como la matriz

    \[a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.\]

En estos términos, el resultado queda enunciado como sigue.

Teorema (Cayley-Hamilton). Si A es una matriz en M_n(F) y \chi_A(x) es su polinomio característico, entonces

    \[\chi_A(A)=O_n.\]

Ejemplo. Tomemos de nuevo a la matriz

    \[A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\]

del ejemplo anterior. Su polinomio característico es x^2+1. En efecto, verificamos que se cumple el teorema de Cayley-Hamilton pues:

    \begin{align*}A^2+I_2 &= \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} + \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} -1 & 0 \\ 0 & -1 \end{pmatrix}+\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.\end{align*}

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Enuncia y demuestra cómo es el polinomio característico de una matriz triangular inferior.
  • Completa los detalles de la demostración del teorema de suma y producto de eigenvalores. Úsalo para encontrar la suma y producto (con multiplicidades) de los eigenvalores de la matriz

        \[\begin{pmatrix}5 & 0 & -1 & 2 \\ 3 & -2 & 1 & -2 \\ 0 & 0 & 0 & 5\\ 0 & 2 & 4 & 0 \end{pmatrix}.\]

  • Sea A una matriz en M_n(F). ¿Cómo es el polinomio característico de -A en términos del polinomio característico de A?
  • Tomemos A una matriz en M_n(F) y k un entero positivo. Muestra que si \lambda es un eigenvalor de la matriz A, entonces \lambda^k es un eigenvalor de la matriz A^k.

De la sección opcional:

  • Demuestra, haciendo todas las cuentas, el caso particular del teorema de Cayley-Hamilton para matrices de 2\times 2.
  • Ya sabemos calcular el polinomio característico de matrices diagonales. Muestra el teorema de Cayley-Hamilton en este caso particular.
  • Las matrices diagonales trivialmente son diagonalizables. Muestra que la multiplicidad algebraica de sus eigenvalores en efecto coincide con la multiplicidad geométrica.

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema. Considera los vectores

v_1=(1,x,0,1), \quad v_2=(0,1,2,1), \quad v_3=(1,1,1,1)

en \mathbb{R}^4. Prueba que para cualquier elección de x\in\mathbb{R}, los vectores v_1,v_2,v_3 son linealmente independientes.

Solución. Sea A la matriz cuyas columnas son v_1,v_2,v_3, es decir,

A=\begin{pmatrix} 1 & 0 & 1 \\ x & 1 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{pmatrix}.

Sabemos que v_1,v_2,v_3 son linealmente independiente si y sólo si \text{dim(span}(v_1,v_2,v_3))=3, ya que \text{rank}(A)=3, y eso es equivalente (por la clase del lunes) a demostrar que A tiene una submatriz de 3\times 3 invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

\begin{vmatrix} 1 & 0 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{vmatrix}=-1,

lo que implica que es invertible, y por lo tanto v_1,v_2, v_3 son vectores linealmente independientes.

\square

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre \mathbb{R} o sobre \mathbb{C}. Como \mathbb{R}\subset \mathbb{C}, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en \mathbb{R} se cumplen en \mathbb{C}. En este caso particular, si las soluciones de una matriz en M_{m,n}(\mathbb{R}) son soluciones de la misma matriz pero vista como elemento en M_{m,n}(\mathbb{C}). El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea A\in M_{m,n}(F) y sea F_1 un campo contenido en F. Consideremos el sistema lineal AX=0. Si el sistema tiene una solución no trivial en F_1^n, entonces tiene una solución no trivial en F^n.

Demostración. Dado que el sistema tiene una solución no trivial en F_1^n, r:=\text{rank}(A) < n vista como elemento en M_{m,n}(F_1). Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a A como elemento de M_{m,n}(F_1) o de M_{m,n}(F). Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de F^n de dimensión n-r>0. Por lo tanto, el sistema AX=0 tiene una solución no trivial en F^n.

\square

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. Sea S_a el siguiente sistema lineal:

\begin{matrix} x-2y+z=1 \\ 3x+2y-2z=2 \\ 2x-y+az=3 \end{matrix}.

Encuentra los valores de a para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como AX=b donde

A=\begin{pmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{pmatrix} \quad \text{y} \quad b=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}.

Notemos que

\begin{vmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{vmatrix}=8a-1,

entonces si a\neq 1/8, A es invertible, y por lo tanto \text{rank}(A)=3, mientras que si a=1/8, A no es invertible y \text{rank}(A)=2 ya que la submatriz es invertible

\begin{vmatrix} 1 & -2 \\ 3 & 2 \end{vmatrix}=8.

Además, si la matriz (A,b) es igual a

\begin{pmatrix} 1 & -2 & 1 & 1 \\ 3 & 2 & -2 & 2 \\ 2 & -1 & a & 3 \end{pmatrix},

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, \text{rank}(A,b)=3.

Aplicando el Teorema de Rouché-Capelli, para a=1/8, el sistema AX=b no tiene soluciones. También podemos concluir que como \text{rank}(A)=3 para todo a\neq 1/8, el sistema tiene exactamente una solución. (Y AX=b nunca tiene infinitas soluciones).

\square

Problema. Sean a,b,c números reales dados. Resuelve el sistema lineal

\begin{matrix} (b+c)x+by+cz=1 \\ ax+ (a+c)y+cz=1 \\ ax+by+(a+b)z=1 \end{matrix}.

Solución. La matriz del sistema es

A=\begin{pmatrix} b+c & b & c \\ a & a+c & c \\ a & b & a+b \end{pmatrix}.

No es difícil ver que \text{det}(A)=4abc. Si abc\neq 0, usando la regla de Cramer, la única solución al sistema está dada por

x=\frac{\begin{vmatrix} 1 & b & c \\ 1 & a+c & c \\ 1 & b & a+b \end{vmatrix}}{4abc}, \quad y=\frac{\begin{vmatrix} b+c & 1 & c \\ a & 1 & c \\ a & 1 & a+b \end{vmatrix}}{4abc}

y=\frac{\begin{vmatrix} b+c & b & 1 \\ a & a+c & 1 \\ a & b & 1 \end{vmatrix}}{4abc},

resolviendo los determinantes obtenemos que

x=\frac{a^2 -(b-c)^2}{4abc}, \quad y=\frac{b^2 -(a-c)^2}{4abc}, \quad z=\frac{c^2-(a-b)^2}{4abc}.

Ahora, si abc=0, entonces A no es invertible (\text{rank}(A)<3). El sistema es consistente si y sólo si \text{rank}(A)=\text{rank}(A,b).

Sin pérdida de generalidad, decimos que a=0 (pues abc=0). Esto reduce el sistema a

\begin{matrix} (b+c)x+by+cz=1 \\ c(y+z)=1 \\ b(y+z)=1 \end{matrix}.

El sistema es consistente si b=c y distintos de cero. En este caso, tenemos que b(2x+y+z)=1 y b(y+z)=1, implicando x=0, y+z=1/b. De manera similar, obtenemos las posibles soluciones si b=0 o si c=0.

Resumiendo:

  • Si abc\neq 0, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) a=0 y b=c \neq 0; caso 2) b=0 y a=c\neq 0; caso 3) c=0 y a=b\neq 0, tenemos infinitas soluciones descritas como, para todo w\in \mathbb{R}: caso 1) (0,w,1/b-w); caso 2) (w,0,1/a-w); caso 3) (w,1/a-w,0).
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para a,b,c, el sistema no es consistente.

\square

Álgebra Lineal I: Eigenvalores y eigenvectores de transformaciones y matrices

Introducción

En entradas anteriores ya establecimos los fundamentos para hablar de determinantes. Dimos su definición para el caso de vectores y el caso de matrices/transformaciones lineales. Enunciamos y demostramos varias de sus propiedades. Luego dedicamos toda una entrada a ver formas de calcularlos. Finalmente, vimos que nos pueden ayudar para entender mucho mejor a los sistemas de ecuaciones lineales. Entender bien estos conceptos te será de gran utilidad en tu formación matemática.

Además, los determinantes son un paso natural en uno de nuestros objetivos del curso: entender por qué las matrices simétricas reales son diagonalizables. Recuerda que una matriz A en M_n(F) es diagonalizable si existe una matriz diagonal D y una matriz invertible P, ambas en M_n(F), de modo que

    \[A=P^{-1}DP.\]

Lo que haremos en esta entrada es hablar de esos valores que aparecen en la matriz diagonal D en el caso de que A sea diagonalizable. Resulta que estos valores están relacionados con una pregunta muy natural en términos de lo que le hace la matriz a ciertos vectores. Y mejor aún, como veremos, hay un método para encontrar estos valores por medio de un determinante. Vamos poco a poco.

Eigenvalores y eigenvectores para transformaciones lineales

Sea V un espacio vectorial sobre un campo F y sea T:V\to V una transformación lineal. Para fijar ideas, pensemos en \mathbb{R}^n por el momento. A veces, T simplemente la cambia la magnitud a un vector, sin cambiarle la dirección. Es decir, hay algunos vectores para los cuales T se comporta simplemente como la multiplicación por un escalar. En símbolos, hay vectores v tales que existe un valor \lambda tal que T(v)=\lambda v.

Por supuesto, al vector 0 siempre le pasa esto, pues como T es lineal, se tiene que T(0)=0=\lambda\cdot 0 para cualquier escalar \lambda. Resulta que cuando se estudian estos vectores y escalares especiales, lo más conveniente es quitar al vector 0 de la discusión. Estas ideas llevan a la siguiente definición.

Definición. Un eigenvalor de una transformación lineal T:V\to V es un escalar \lambda tal que \lambda \text{id} - T no es invertible. En otras palabras, \lambda es un escalar tal que existe un vector no cero en el kernel de \lambda \text{id} - T. A un vector v\neq 0 en V tal que

    \[(\lambda \text{id} - T)v=0,\]

se le conoce como un eigenvector de T.

En otras palabras, v es un eigenvector correspondiente a T si v no es cero y T(v)=\lambda v. A los eigenvalores y eigenvectores de T también se les conoce en la bibliografía como valores propios y vectores propios de T.

Observa que si al conjunto de eigenvectores para un eigenvalor \lambda le agregamos el vector 0, entonces obtenemos el kernel de una transformación lineal, que sabemos que es un subespacio vectorial.

Veamos un par de ejemplos para que queden más claras las ideas.

Ejemplo. Consideremos a la transformación lineal T:\mathbb{R}^3\to \mathbb{R}^3 dada por

    \[T(x,y,z)=(-2x+15y+18z,3y+10z,z).\]

Observa que

    \begin{align*}T(1,0,0)&=(-2,0,0)\\&=-2(1,0,0),\end{align*}

que

    \begin{align*}T(-19,-5,1)&=((-2)(-19)+15(-5)+18,3(-5)+10, 1)\\&=(28+75-18,-15+10,1)\\&=(-19,-5,1),\end{align*}

y que

    \begin{align*}T(3,1,0)&=(-6+15,3,0)\\&=(9,3,0)\\&=3(3,1,0).\end{align*}

Estas igualdades muestran que (1,0,0) es un eigenvector de T con eigenvalor -2, que (-19,-5,1) es un eigenvector de T con eigenvalor 1 y (3,1,0) es un eigenvector de T con eigenvalor 3.

\square

Ejemplo. Consideremos al espacio vectorial \mathbb{R}[x] de polinomios con coeficientes reales. Tomemos la transformación lineal T que manda a un polinomio a su segunda derivada. ¿Quiénes son los eigenvalores y eigenvectores de T?

Para que p sea un eigenvector con eigenvalor \lambda, tiene que suceder que

    \[p''=T(p)=\lambda p.\]

Como p no es el vector cero, tiene un cierto grado. Si \lambda \neq 0, entonces la igualdad anterior no puede suceder, pues si p es de grado mayor o igual a 2, entonces el grado de p'' es menor al de \lambda p, y si el grado de p es 0 ó 1, su segunda derivada es 0, y no puede pasar \lambda p = 0. Así, el único eigenvalor que puede tener T es \lambda = 0. Observa que sí es válido que los eigenvalores sean cero (los eigenvectores no).

Cuando \lambda = 0, tiene que pasar que p'' sea 0\cdot p, es decir, el polinomio cero. Los únicos polinomios tales que su derivada es cero son los constantes y los lineales. Pero el polinomio cero por definición no es eigenvector.

Así, la respuesta final es que el único eigenvalor de T es 0, y sus eigenvectores correspondientes son los polinomios constantes distintos de cero, y los polinomios lineales.

\square

Eigenvalores y eigenvectores para matrices

Tenemos una definición similar para matrices. Sea A una matriz en M_n(F).

Definición. Un escalar \lambda en F es un eigenvalor de A si la matriz \lambda I_n - A no es invertible. En otras palabras, si existe un vector no cero X en F^n tal que AX=\lambda X. A un tal vector X se le conoce como un eigenvector correspondiente al eigenvalor \lambda.

En otras palabras, los eigenvalores y eigenvectores de A son exactamente los eigenvalores y eigenvectores de la transformación T_A:\mathbb{F}^n\to \mathbb{F}^n dada por T_A(v)=Av.

Además, si elegimos cualquier base B de un espacio de dimensión finita V y A es la matriz de T con respecto a la base B, entonces para cualquier escalar \lambda se tiene que \lambda I_n - A es la matriz de \lambda \text{id} - T con respecto a esta misma base. De aquí se deduce que los eigenvalores de T son los mismos que los eigenvalores de A. Dos matrices que representan a T difieren sólo en un cambio de base, así que obtenemos el siguiente resultado fundamental.

Proposición. Si A es una matriz en M_n(F) y P es una matriz invertible, entonces A y P^{-1}AP tienen los mismos eigenvalores. En otras palabras, matrices similares tienen los mismos eigenvalores.

En el primer ejemplo tomamos la transformación lineal T:\mathbb{R}^3\to \mathbb{R}^3 tal que

    \[T(x,y,z)=(-2x+15y+18z,3y+10z,z).\]

Su matriz en la base canónica de \mathbb{R}^3 es

    \[A=\begin{pmatrix} -2 & 15 & 18\\ 0 & 3 & 10\\ 0 & 0 & 1 \end{pmatrix}.\]

En el ejemplo vimos que los eigenvalores eran -2, 1 y 3, que precisamente conciden con las entradas en la diagonal de A. Esto no es casualidad. El siguiente resultado muestra esto, y es una primer evidencia de la importancia de los determinantes para encontrar los eigenvalores de una matriz.

Proposición. Si A es una matriz triangular (superior o inferior) en M_n(F), entonces sus eigenvalores son exactamente las entradas en su diagonal principal.

Demostración. Haremos el caso para cuando A es triangular superior. El otro caso queda de tarea moral.

Queremos encontrar los valores \lambda para los cuales la matriz \lambda I_n - A no sea invertible. La matriz A es triangular superior, así que la matriz \lambda I_n - A también, pues las entradas de A se vuelven negativas, y luego sólo se altera la diagonal principal.

Si las entradas diagonales de A son a_{11},\ldots,a_{nn}, entonces las entradas diagonales de \lambda I_n -A son

    \[\lambda - a_{11},\ldots,\lambda-a_{nn}.\]

La matriz \lambda I_n - A no es invertible si y sólo si su determinante es igual a cero. Como es una matriz triangular superior, su determinante es el producto de sus entradas diagonales, es decir,

    \[\det(\lambda I_n - A) = (\lambda - a_{11})\cdot\ldots\cdot(\lambda - a_{nn}).\]

Este producto es 0 si y sólo si \lambda es igual a alguna entrada a_{ii}. De esta forma, los únicos eigenvalores de A son las entradas en su diagonal.

\square

Si A es una matriz diagonalizable, entonces es semejante a una matriz diagonal D. Por la proposición anterior, los eigenvalores de A serían entonces las entradas en la diagonal principal de D. Esto nos da una intuición muy importante: si acaso pudiéramos encontrar todos los eigenvalores de A, entonces eso podría ser un paso parcial hacia diagonalizarla.

Encontrar eigenvalores es encontrar las raíces de un polinomio

La siguiente proposición conecta eigenvalores, polinomios y determinantes.

Proposición. Sea A una matriz en M_n(F). Entonces la expresión

    \[\det(\lambda I_n - A)\]

está en F[\lambda], es decir, es un polinomio en la variable \lambda con coeficientes en F. Además, es de grado exactamente n.

Demostración. La fórmula para el determinante

    \begin{align*}\begin{vmatrix}\lambda - a_{11} & -a_{12} & \ldots & -a_{1n}\\-a_{21} & \lambda - a_{22} & \ldots & -a_{1n}\\\vdots & & \ddots & \\-a_{n1} & -a_{n2} & \ldots & \lambda - a_{nn}\end{vmatrix}\end{align*}

en términos de permutaciones nos dice que el determinante es sumas de productos de entradas de A. Cada una de las entradas es un polinomio en F[\lambda], ya sea constante, o lineal. Como F[\lambda] es cerrado bajo sumas y productos, esto prueba la primer parte de la afirmación.

Para probar que el grado es exactamente n, notemos que cada sumando de la expresión multiplica exactamente n entradas. Como las entradas a lo mucho son de grado uno en F[\lambda], entonces cada sumando es un polinomio de grado a lo más n. Hay una única forma que el grado sea n: cuando se elige la permutación identidad y entonces se obtiene el sumando

    \[(\lambda-a_{11})\cdot\ldots\cdot(\lambda-a_{nn}).\]

Esto termina la prueba.

\square

La proposición anterior nos asegura entonces que la siguiente definición tiene sentido.

Definición. Para A una matriz en M_n(F), el polinomio característico de A es el polinomio \chi_A(\lambda) en F[\lambda] dado por

    \[\chi_A(\lambda) = \det(\lambda I_n - A).\]

De esta forma, \lambda es un eigenvalor de A si y sólo si es una raíz del polinomio \chi_A(\lambda). Esto son buenas y malas noticias. Por un lado, nos cambia un problema de álgebra lineal a uno de polinomios, en donde a veces tenemos herramientas algebraicas que nos ayudan a encontrar raíces. Sin embargo, como se ve en cursos anteriores, también hay otros polinomios para los cuales es muy difícil encontrar sus raíces de manera exacta. Lo que salva un poco esa situación es que sí existen métodos para aproximar raíces numéricamente de manera computacional.

A pesar de la dificultad de encontrar raíces, sin duda tenemos consecuencias interesantes de esta conexión. Consideremos como ejemplo el siguiente resultado.

Proposición. Una matriz A en M_n(F) tiene a lo más n eigenvalores distintos. Lo mismo es cierto para una transformación lineal T:V\to V para V un espacio vectorial de dimensión n.

Demostración. La matriz A tiene tantos eigenvalores como raíces en F tiene su polinomio característico. Como el polinomio característico es de grado exactamente n, tiene a lo más n raíces en F.

La parte de transformaciones queda de tarea moral.

\square

Ya que encontramos los eigenvalores de una matriz o transformación, es posible que queramos encontrar uno o más eigenvectores correspondientes a ese eigenvalor. Observa que eso corresponde a encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo de la forma

    \[(I_n-A) X = 0.\]

Para ello ya tenemos muchas herramientas, como hacer reducción Gaussiana.

Terminamos esta entrada con un ejemplo de cómo encontrar los valores propios y vectores propios en un caso concreto.

Problema. Encuentra los eigenvalores de la matriz

    \[A=\begin{pmatrix}1 & 0 & 0\\ 0 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix}\]

considerándola como:

  • Una matriz en M_3(\mathbb{R})
  • Una matriz en M_3(\mathbb{C}).

En el caso de M_n(\mathbb{R}), encuentra un eigenvector para cada eigenvalor.

Solución. Para encontrar los eigenvalores, tenemos que encontrar el determinante

    \[\begin{vmatrix}\lambda - 1 & 0 & 0\\ 0 & \lambda & 1 \\ 0 & -1 & \lambda \end{vmatrix}.\]

Usando expansión de Laplace en la primer columna y haciendo las operaciones, obtenemos que el determinante de \lambda I_3 - A es el polinomio

    \[(\lambda-1)(\lambda^2+1).\]

Aquí es importante la distinción de saber en qué campo estamos trabajando. Si estamos en M_3(\mathbb{R}), la única raíz del polinomio es 1. Si estamos en M_3(\mathbb{C}), obtenemos otras dos raíces: i y -i.

Ahora, para cuando A es matriz en M_3(\mathbb{R}), necesitamos encontrar un eigenvector para el eigenvalor 1. Esto equivale a encontrar una solución al sistema de ecuaciones

    \[(I_3-A)X=0,\]

es decir, a

    \[\begin{pmatrix}0 & 0 & 0\\ 0 & 1 & 1 \\ 0 & -1 & 1\end{pmatrix}X=0.\]

Una solución para este sistema es X=(1,0,0). Y en efecto, (1,0,0) es eigenvector de A para el eigenvalor 1 pues no es el vector cero y

    \[\begin{pmatrix}1 & 0 & 0\\ 0 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix}\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} 1 + 0 + 0 \\ 0 + 0 + 0 \\ 0 + 0 + 0 \end{pmatrix} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}.\]

\square

Observa que la matriz anterior no es diagonalizable en M_n(\mathbb{R}), pues si lo fuera tendría que ser semejante a una matriz diagonal D con entradas i y -i en la diagonal, pero entonces D no sería una matriz en M_n(\mathbb{R}). Esto nos da otra intuición con respecto a la diagonalización de una matriz: si acaso una matriz en M_n(F) es diagonalizable, entonces su polinomio característico debe tener puras raíces en F. Esta es una condición necesaria, pero aún no es suficiente.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En la entrada vimos que los eigenvalores de una transformación T son los eigenvalores de cualquier matriz que la represente. ¿Es cierto que los eigenvectores de T son los eigenvectores de cualquier matriz que lo represente?
  • Muestra que una transformación lineal T:V\to V para V un espacio vectorial de dimensión n tiene a lo más n eigenvalores distintos.
  • Encuentra los eigenvalores de las matrices de permutación.
  • Para un real \theta\in[0,2\pi) se define la matriz

        \[A(\theta):=\begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}.\]

    Muestra que A(\theta) tiene eigenvalores reales si y sólo si \theta=0 \o \theta=\pi. Sugerencia: Encuentra el polinomio característico (que es cuadrático) y calcula su discrimintante. Si es negativo, no tiene soluciones reales.
  • Sea A una matriz en M_n(F). Muestra que la matriz transpuesta ^t A tiene los mismos eigenvalores que A, y de hecho, el mismo polinomio característico que A. Sugerencia. Recuerda que una matriz y su transpuesta tienen el mismo determinante.

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, ero es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz A en M_{m,n}(F) es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación X\mapsto AX de F^n\to F^m. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de A. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de A.

Lo que veremos ahora es que podemos determinar el rango de una matriz A calculando algunos determinantes de matrices pequeñas asociadas a A. Una submatriz de A es una matriz que se obtiene de eliminar algunas filas o columnas de A.

Teorema. Sea A una matriz en M_{m,n}(F). El rango de A es igual al tamaño de la submatriz cuadrada más grande de A que sea invertible.

Demostración. Llamemos C_1,\ldots,C_n a las columnas de A. Sabemos que

    \[r=\dim \text{span}(C_1,\ldots,C_n).\]

Mostraremos primero que hay una submatriz cuadrada de tamaño r. Por el lema de Steinitz, podemos escoger r enteros 1\leq i_1<\ldots<i_r\leq n tal que las columnas C_{i_1},\ldots,C_{i_r} de A cumplen

    \[\text{span}(C_1,\ldots,C_n)=\text{span}(C_{i_1},\ldots,C_{i_r}).\]

Así, la matriz B hecha por columnas C_{i_1},\ldots,C_{i_r} está en M_{m,r}(F) y es de rango r.

Ahora podemos calcular el rango de B por filas. Si F_1,\ldots,F_m son las filas de B, tenemos que

    \[r=\dim \text{span}(F_1,\ldots,F_m).\]

De nuevo, por el lema de Steinitz, existen enteros 1\leq j_1<\ldots<j_r\leq m tales que

    \[\text{span}(F_1,\ldots,F_m)=\text{span}(F_{i_1},\ldots,F_{i_r}).\]

De esta forma, la matriz C hecha por las filas F_{j_1},\ldots,F_{j_r} está en M_r(F) y es de rango r. Por lo tanto, C es una matriz cuadrada de tamaño r y es invertible.

Esta matriz C es una submatriz de A pues se obtiene al eliminar de A todas las columnas en posiciones distintas a i_1,\ldots,i_r y todas las filas en posiciones distintas a j_1,\ldots,j_r. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si B es una submatriz de A cuadrada e invertible de tamaño d, entonces d\leq r. En efecto, tomemos una B así. Sus columnas son linealmente independientes. Si i_1<\ldots<i_n corresponden a los índices de las columnas de A que se preservan al pasar a B, entonces las columnas C_{i_1},\ldots,C_{i_d} de A son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de B, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,

    \begin{align*}d&=\dim \text{span}(C_{i_1},\ldots,C_{i_d})\\&\leq \dim \text{span} (C_1,\ldots,C_d)\\&=r,\end{align*}

que es la desigualdad que nos faltaba para terminar la prueba.

\square

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en M_{3,5}(\mathbb{R}):

    \[A=\begin{pmatrix}4 & 5 & -4 & 7 & 2\\ 0 & -3 & -1 & 0 & 9\\ 0 & -5 & 0 & 9 & -3 \end{pmatrix}.\]

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho \min(3,5)=3.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada

    \[\begin{pmatrix} 4 & -4 & 2\\ 0 & -1 & 9\\ 0 & 0 & -3\end{pmatrix}.\]

Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es 4\cdot (-1)\cdot (-3)=12.

Como el determinante no es cero, es una matriz invertible de tamaño 3. Por la proposición anterior, el rango de A debe ser entonces mayor o igual a 3. Juntando las dos desigualdades que encontramos, el rango de A debe ser igual a 3.

\square

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con m ecuaciones y n incógnitas es de la forma

    \begin{align*}a_{11}x_1 + a_{12} x_2 + \ldots + a_{1n}x_n &= b_1\\a_{21}x_1 + a_{22} x_2 + \ldots + a_{2n}x_n &= b_2\\\vdots&\\a_{m1}x_1 + a_{m2} x_2 + \ldots + a_{mn}x_n &= b_m,\end{align*}

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:

    \begin{align*}A&=\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\  \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix},\\b&=\begin{pmatrix}b_1\\ \vdots\\ b_m\end{pmatrix} \text{ y }\; X=\begin{pmatrix}x_1\\ \vdots\\ x_n\end{pmatrix},\end{align*}

y reescribiendo el sistema como

    \[AX=b.\]

Si C_1,\ldots, C_n son las columnas de la matriz A, también sabemos que

    \[AX=x_1C_1+\ldots + x_nC_n,\]

de modo que el sistema de ecuaciones puede ser escrito como

    \[x_1C_1+\ldots + x_nC_n=b.\]

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si b está en el espacio generado por las columnas de A, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean A\in M_n(F) y b\in F^m. Sea (A|b) la matriz en M_{n,n+1}(F) obtenida de agregar a b como columna hasta la derecha de la matriz A. Entonces:

  • El sistema lineal de ecuaciones AX=b tiene al menos una solución si y sólo si \rank(A)=\rank((A|b)).
  • El conjunto de soluciones \mathcal{S}_h al sistema homogéneo es un subespacio de F^n de dimensión n-\rank(A).

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si b es una combinación lineal de las columnas de A. De esta forma, si existe una solución, entonces \rank(A)=\rank((A|b)), pues el espacio generado por las columnas de A sería el mismo que el de las columnas de (A|b).

Por otro lado, si \rank(A)=\rank((A|b)) es porque las columnas de A y las de (A|b) generan el mismo espacio, de modo que b está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es AX=0, de modo que el conjunto solución es precisamente el kernel de la transformación T:F^n\to F^m tal que X\mapsto AX. Por el teorema de rango-nulidad, tenemos que

    \[\dim \mathcal{S}_h = n-\dim \text{Im}(T)=n-\text{rank}(A).\]

Esto termina la demostración.

\square

Como discutimos con anterioridad, ya que tenemos una solución x_0 para el sistema de ecuaciones AX=b, entonces todas las soluciones son el conjunto

    \[x_0+\mathcal S_h:=\{x_0 + x: x\in \mathcal S_h\}.\]

En otras palabras, cualquier solución al sistema se puede obtener sumando a x_0 una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en \mathbb{R} en tres variables:

    \begin{align*}2x+3y-z=1\\3x-y+2z=0\\3x+10y-5z=0\end{align*}

Afirmamos que el sistema no tiene solución. La matriz asociada es A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}. Por lo que sabemos de determinantes de 3\times 3, podemos calcular su determinante como

    \begin{align*}\begin{vmatrix}2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{vmatrix} &= (2)(-1)(-5)+(3)(10)(-1)+(3)(3)(2)\\&-(-1)(-1)(3)-(2)(10)(2)-(3)(3)(-5)\\&=10-30+18-3-40+45\\&=0.\end{align*}

Esto muestra que A no es invertible, y que por lo tanto tiene rango a lo más 2. Como

    \[\begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix} = (2)(-1)-(3)(3)=-11\]

es un subdeterminante no cero de tamaño 2, entonces A tiene rango 2.

Ahora consideremos la matriz

    \[(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 0\end{pmatrix}.\]

Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de 3\times 3 por expansión de Laplace en la última columna:

    \begin{align*}\begin{vmatrix}2 & 3 & 1\\ 3 & -1 & 0 \\ 3 & 10 & 0\end{vmatrix} &= 1 \cdot \begin{vmatrix}  3 & -1 \\ 3 & 10 \end{vmatrix} - 0 \begin{vmatrix} 2 & 3 \\ 3 & 10 \end{vmatrix} + 0 \cdot \begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix}\\&= 1 \cdot (3\cdot 10 + 1\cdot 3)\\&=33.\end{align*}

De esta forma, (A|b) tiene una submatriz de 3\times 3 invertible, y por lo tanto tiene rango al menos 3. Como tiene 3 filas, su rango es a lo más 3. Con esto concluimos que su rango es exactamente 3. Conluimos que

    \[\text{rank} A = 2 \neq 3 = \text{rank} (A|b),\]

de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

\square

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz A es de rango r, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada B de tamaño r que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables x_1,\ldots,x_r y a las primeras r ecuaciones. De esta forma, el sistema AX=b se resume en el siguiente sistema de ecuaciones equivalente:

    \begin{align*}a_{11}x_1 + a_{12} x_2 + \ldots + a_{1r}x_r &= b_1-a_{1,r+1}x_{r+1}-\ldots -a_{1,n} x_n\\a_{21}x_1 + a_{22} x_2 + \ldots + a_{2r}x_r &= b_2-a_{2,r+1}x_{r+1}-\ldots -a_{2,n} x_n\\\vdots\\a_{r1}x_1 + a_{r2} x_2 + \ldots + a_{rr}x_r &= b_m-a_{r,r+1}x_{r+1}-\ldots -a_{r,n} x_n,\end{align*}

Aquí x_{r+1},\ldots,x_n son lo que antes llamábamos las variables libres y x_1,\ldots,x_r son lo que llamábamos variables pivote. Como la submatriz B correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal AX=b en donde A es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea A una matriz invertible en M_n(F) y b=(b_1,\ldots,b_n) un vector en F^n. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x_1,\ldots,x_n) dada por

    \[x_i=\frac{\det A_i}{\det A},\]

en donde A_i es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por

    \[X=(x_1,\ldots,x_n)=A^{-1}b.\]

Si C_1,\ldots,C_n son las columnas de A, que (x_1,\ldots,x_n) sea solución al sistema quiere decir que

    \[x_1C_1+\ldots+x_nC_n=b.\]

El determinante pensado como una función en n vectores columna es n-lineal, de modo que usando la linealidad en la i-ésima entrada y que el determinantes es alternante, tenemos que:

    \begin{align*}\det A_i &= \det(C_1,\ldots,C_{i-1},b,C_{i+1},\ldots,C_n)\\&= \det(C_1,\ldots,C_{i-1},\sum_{j=1}^n x_j C_j,C_{i+1},\ldots,C_n)\\&=\sum_{j=1}^n x_j \det(C_1,\ldots,C_{i-1},C_j,C_{i+1},\ldots,C_n)\\&=x_i \det(C_1,\ldots,C_{i-1},C_i,C_{i+1},\ldots,C_n)\\&=x_i \det A\end{align*}

Como A es invertible, su determinante no es 0, de modo que

    \[x_i=\frac{\det A_i}{\det A},\]

como queríamos.

\square

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en \mathbb{R} en tres variables:

    \begin{align*}2x+3y-z=1\\3x-y+2z=0\\3x+10y-5z=3\end{align*}

En un ejemplo anterior vimos que la matriz asociada A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix} tiene rango 2. Se puede verificar que la matriz aumentada

    \[(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 3 \end{pmatrix}\]

también tiene rango 2. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones AX=b, y el sistema homogéneo tiene espacio de soluciones de dimensión 3-2=1.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante 2(-1)-(3)(3)=-11\neq 0, entonces el sistema de ecuaciones original es equivalente al subsistema

    \begin{align*}2x+3y=1+z\\3x-y=-2z.\end{align*}

Para encontrar su solución, fijamos una z arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por

    \begin{align*}x&=\frac{\begin{vmatrix} 1+z & 3 \\ -2z & -1 \end{vmatrix}}{-11}=\frac{1-5z}{11}\\y&=\frac{\begin{vmatrix} 2 & 1+z \\ 3 & -2z \end{vmatrix}}{-11}=\frac{3+7z}{11}.\end{align*}

De esta forma, las soluciones al sistema original están dadas por

    \[\left(\frac{1-5z}{11}, \frac{3+7z}{11},z\right)=\left(\frac{1}{11},\frac{3}{11},0\right) + z \left(-\frac{5}{11},\frac{7}{11},1\right).\]

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión 1, pues está generado por el vector

    \[\left(-\frac{5}{11},\frac{7}{11},1\right),\]

y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular

    \[\left(\frac{1}{11},\frac{3}{11},0\right).\]

\square

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de 2\times 2 con un parámetro \theta. La intepretación geométrica del siguiente sistema de ecuaciones es «encuentra el punto (x,y) del plano tal que al rotarse en \theta alrededor del origen, llega al punto (a,b) » .

Problema. Sea a,b,\theta números reales. Encuentra las soluciones x,y al sistema de ecuaciones

    \begin{align*}x \cos \theta  - y \sin \theta  = a\\x \sin \theta + y \cos \theta = b.\end{align*}

Solución. La matriz asociada al sistema es

    \[A=\begin{pmatrix} \cos \theta & -\sin\theta \\ \sin \theta & \cos \theta\end{pmatrix}\]

que tiene determinante

    \[\det A = \cos ^2 \theta + \sin^2 \theta = 1.\]

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

    \begin{align*}x&=\frac{\begin{vmatrix}a & -\sin \theta\\ b & \cos \theta \end{vmatrix}}{\det A} = a\cos \theta + b\sin \theta\\y&=\frac{\begin{vmatrix}\cos \theta & a \\ \sin \theta & b \end{vmatrix}}{\det A} = b\cos \theta - a\sin \theta.\end{align*}

\square

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Determina el rango de la matriz

        \[A=\begin{pmatrix} 2 & 0 & -1 \\ 3 & -2 & 4 \\ 5 & -2 & 3 \\ -1 & 2 & -5 \end{pmatrix}.\]

  • Para la matriz A del inciso anterior, resuelve los sistemas de ecuaciones lineales AX=\begin{pmatrix}5\\8\\3\\2\end{pmatrix} y AX=\begin{pmatrix}5\\8\\13\\-3\end{pmatrix}.
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango 2.
  • Muestra que si A es una matriz en M_n(\mathbb{R}) con entradas enteras y de determinante 1, y b es un vector en R^n con entradas enteras, entonces la solución X del sistema de ecuaciones AX=b tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible A?

Álgebra Lineal I: Problemas de definición y propiedades de determinantes

Introducción

En esta entrada haremos una serie de problemas que nos ayudarán como repaso de los temas vistos durante las últimas dos semanas. Mostraremos algunas propiedades bastante interesantes acerca de las transformaciones alternantes y antisimétricas, así como de la transformación estrella de esta semana: el determinante.

Problemas de transformaciones antisimétricas

En la entrada del miércoles 6 de mayo, hablábamos sobre la equivalencia entre transformaciones alternantes y antisimétricas, justo resaltamos que ésto no es cierto si el campo F es \mathbb{Z}_2, y el siguiente ejemplo lo expone:

Ejemplo. Sea f:\mathbb{Z}_2 \times \mathbb{Z}_2 \rightarrow \mathbb{Z}_2 definido como f(x,y)=xy. Claramente f es bilineal, pero no es alternate ya que f(1,1)=1\neq 0. Por otro lado, f es antisimétrica, porque f(x,y)+f(y,x)=xy+yx=2xy=0.

\square

De manera natural surge la pregunta: ¿cómo podemos construir una transformación d-lineal antisimétrica o alternante? El siguiente problema muestra un camino para obtener una transformación antisimétrica dada un mapeo d-lineal f.

Problema. Sea f:V^d \rightarrow W una transformación d-lineal. Demuestra que

A(f):=\sum_{\sigma \in S_d} \text{sign}(\sigma) \sigma (f)

es un mapeo d-lineal antisimétrico.

Solución. Es fácil ver que A(f) es una transformación d-lineal, dado que A(f) es una combinación lineal de mapeos d-lineales. Queremos probar que, para \tau \in S_d, \tau (A(f))=\text{sign}(\tau) A(f). Notemos que

    \begin{align*} \tau(A(f)) &= \sum_{\sigma \in S_d} \text{sign}(\sigma) \tau(\sigma(f)) \\&= \sum_{\sigma \in S_d} \text{sign}(\sigma) (\tau\sigma)(f). \end{align*}

Usando el hecho que \text{sign}(\tau)\text{sign}(\sigma)=\text{sign}(\tau\sigma) y que \{ \tau \sigma : \sigma \in S_d \}=S_d, obtenemos que

    \begin{align*} \text{sign}(\tau)\tau(A(f)) &= \sum_{\sigma \in S_d} \text{sign}(\tau\sigma) (\tau\sigma)(f) \\&= \sum_{\eta \in S_d} \text{sign}(\eta) (\eta)(f) =A(f). \end{align*}

Por lo tanto, \tau(A(f))=\text{sign}(\tau)A(f).

\square

Problemas de determinantes

Ahora continuando con la discusiones del determinante, sabemos que éste es una forma n-lineal alternante, y además que cualquier otra forma n-lineal alternante varía de \det(b_1,\ldots,b_n) únicamente por un factor multiplicativo. Otro resultado interesante ese teorema es el siguiente:

Problema. Sea V un espacio vectorial sobre F de dimensión finita. Sea e_1,\ldots,e_n una base de V y sea T:V\rightarrow V una transformación lineal. Demuestra que para todo v_1,\ldots,v_n\in V tenemos que

\sum_{i=1}^n \det(v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots, v_n) =\text{Tr}(T)\cdot \det(v_1,\ldots,v_n),

donde todos los determinantes están calculados en la base canónica y \text{Tr}(T) es la traza de la matriz de T (con respecto a la base canónica).

Solución. Definimos el mapeo \phi:V^n\rightarrow F como

\phi(v_1,\ldots,v_n)=\sum_{i=1}^n \det(v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots,v_n).

Esta transformación es la suma de transformaciones n-lineales, por lo tanto \phi es n-lineal. Más aún, es alternante, ya que si asumimos, por ejemplo, que v_1=v_2, entonces

    \begin{align*} \phi(v_1,v_1,v_3,\ldots,v_n) &=\det(T(v_1),v_1,v_3,\ldots,v_n)+ \det(v_1,T(v_1),v_3,\ldots,v_n) \\&+ \sum_{i=3}^n \det(v_1,v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots,v_n) \\&= \det(T(v_1),v_1,v_3,\ldots,v_n)+ \det(v_1,T(v_1),v_3,\ldots,v_n) \\&= \det(T(v_1),v_1,v_3,\ldots,v_n)- \det(T(v_1),v_1,v_3,\ldots,v_n) \\&=0, \end{align*}

debido a que el determinante es antisimétrico.

Por el último teorema visto en la clase del viernes pasado, existe escalar \alpha tal que

\phi(v_1,\ldots,v_n)=\alpha \det(v_1,\ldots,v_n)

para todo v_1,\ldots,v_n. Sea A=[a_{ij}] la matriz de T con respecto a la base canónica. Si tomamos v_1=e_1,\ldots,v_n=e_n, por el mismo teorema tenemos que

    \begin{align*} \alpha &= \phi(e_1,\ldots,e_n) \\&=\sum_{i=1}^n \det(e_1,\ldots,e_{i-1},\sum_{j=1}^n a_{ji}e_j, e_{i+1},\ldots,e_n)\\&=\sum_{i=1}^n \sum_{j=1}^n a_{ji}\det(e_1,\ldots,e_{i-1},e_j,e_{i+1},\ldots,e_n) \\&= \sum_{i=1}^n a_{ii} = \text{Tr}(T). \end{align*}

Por lo tanto, obtenemos lo que queremos.

\square

Por último, los siguientes dos problemas nos ilustran como podemos obtener información de las matrices de manera fácil y «bonita», usando algunas propiedades de los determinantes vistas en la sesión del martes pasado.

Problema. Sea n un número impar y sean A,B\in M_n(\mathbb{R}) matrices tal que A^2+B^2=0_n. Prueba que la matriz AB-BA no es invertible.

Solución. Notemos que

(A+iB)(A-iB)=A^2+B^2+i(BA-AB)=i(BA-AB).

Por la propiedad del determinante de un producto, tenemos que

\det(A+iB)\det(A-iB)=i^n \det(BA-AB).

Suponemos que AB-BA es invertible, entonces \det(BA-AB)\neq 0. Además sabemos que

\det(A-iB)=\det(\overline{A+iB})=\overline{\det(A+iB)},

esto implica que |\det(A+iB)|^2=i^n\det(BA-AB). Como consecuencia, i^n es un número real, contradiciendo al hecho que n es impar. Por lo tanto \det(BA-AB)=0.

\square

Problema. Para 1\leq i,j\leq n, definimos a_{ij} como el número de divisores positivos en común de i y j y definimos b_{ij} igual a 1 si j divide i e igual a 0 si no.

  1. Probar que A=B\cdot ^t B, donde A=[a_{ij}] y B=[b_{ij}].
  2. ¿Qué podemos decir de la forma de B?
  3. Calcula \det(A).

Solución. 1) Fijando i,j tenemos que

\det(B\cdot ^t B)_{ij}=\sum{k=1}^n b_{ik}b_{jk}.

Notemos que b_{ik}b_{jk} no es cero (b_{ij},b_{jk}=1) si y sólo si k divide a i y a j, esto implica que la cantidad de términos de la suma no ceros corresponde exactamente con la cantidad de los divisores en común que tengan i y j. Por lo tanto \det(B\cdot ^tB)_{ij}=a_{ij}.

2) Si i<j, no es posible que j divida a i. Entonces b_{ij}=0 para todo i<j, esto significa que B es, al menos, triangular inferior. Un dato más que podemos asegurar es que b_{ii}=1 para toda i, por lo tanto, al menos, todos los términos de la diagonal de B son iguales a 1.

3) Dada la propiedad multiplicativa del determinante, dado que \det(B)=\det(^tB) y usando el inciso (1), tenemos que \det(A)=\det(B\cdot ^tB)=(\det B)^2. Pero por el inciso (2), \det B=1, concluimos que \det A=1.

\square