Archivo de la etiqueta: polinomio característico

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz $A$ en $M_n(F)$ tiene polinomio característico $$\chi_A(x)=x^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0.$$ Como $a_0=\det(A)$, si $a_0=0$ entonces la matriz no es invertible. Supongamos entonces que $a_0\neq 0$. Por el teorema de Cayley-Hamilton tenemos que $$A^n+a_{n-1}A^{n-1}+\ldots+a_1A+a_0I_n=O_n.$$ De aquí podemos despejar la matriz identidad como sigue:

\begin{align*}
I_n&=-\frac{1}{a_0}\left( A^n+a_{n-1}A^{n-1}+\ldots+a_1A \right)\\
&=-\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right) A.
\end{align*}

Estos cálculos muestran que la inversa de $A$ es la matriz $$ -\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-1}+\ldots+a_1 I\right).$$

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz $$A=\begin{pmatrix} 2 & 2 & 0 \\ 0 & -1 & 0 \\ 1 & 1 & 1 \end{pmatrix}.$$ Su polinomio característico es $\lambda^3-2\lambda^2 – \lambda +2$. Usando la fórmula de arriba, tenemos que

$$A^{-1}=-\frac{1}{2}(A^2-2A-I).$$

Necesitamos entonces $A^2$, que es:

$$A^2=\begin{pmatrix} 4 & 2 & 0 \\ 0 & 1 & 0 \\ 3 & 2 & 1 \end{pmatrix}.$$

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

$$A^{-1}=\begin{pmatrix} \frac{1}{2} & 1 & 0 \\ 0 & -1 & 0 \\ -\frac{1}{2} & 0 & 1\end{pmatrix}.$$

Puedes verificar que en efecto esta es la inversa de $A$ realizando la multiplicación correspondiente.

$\square$

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si $A$ es una matriz con entradas en los enteros y determinante $1$ ó $-1$, entonces $A^{-1}$ tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor $\lambda$ ya vimos que $\lambda$ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor $x-\lambda$ en el polinomio mínimo para cada eigenvalor $\lambda$.

Ejemplo. Encontramos el polinomio mínimo de la siguiente matriz:

$$B=\begin{pmatrix} 2 & 0 & 4 \\ 3 & -1 & -1 \\0 & 0 & 2 \end{pmatrix}.$$

Una cuenta estándar muestra que el polinomio característico es $(x-2)^2(x+1)$. El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor $(x-2)$ y un factor $(x+1)$. Sólo hay dos polinomios con esas condiciones: $(x-2)(x+1)$ y $(x-2)^2(x+1)$. Si $(x-2)(x+1)$ anula a $B$, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

\begin{align*}
(B-2I_3)(B+I_3)&=\begin{pmatrix}0 & 0 & 4 \\ 3 & -3 & -1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 3 & 0 & 4 \\ 3 & 0 & -1 \\ 0 & 0 & 3 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 12 \\ 0 & 0 & 12 \\ 0 & 0 & 0 \end{pmatrix}.
\end{align*}

Así, $(x-2)(x+1)$ no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico $(x-2)^2(x+1)$.

$\square$

Ejemplo. Consideremos la matriz $C=\begin{pmatrix} 3 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix}$. Su polinomio característico es $(x-3)^3$. Así, su polinomio mínimo es $x-3$, $(x-3)^2$ ó $(x-3)^3$. Nos damos cuenta rápidamente que $x-3$ sí anula a la matriz pues $A-3I_3=O_3$. De este modo, el polinomio mínimo es $x-3$.

$\square$

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en $M_n(\mathbb{R})$ que son su propia inversa? La condición algebraica es $A^2=I_2$. Si el polinomio característico de $A$ es $x^2+bx+c$, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que $O_2=A^2+bA+cI_2=bA+(c+1)I_2$. De aquí tenemos un par de casos:

  • Si $b\neq 0$, podemos despejar a $A$ como $A=-\frac{c+1}{b}I_2$, es decir $A$ debe ser un múltiplo de la identidad. Simplificando la notación, $A=xI_2$. Así, la condición $A^2=I_2$ se convierte en $x^2I_2=I_2$, de donde $x^2=1$ y por lo tanto $x=\pm 1$. Esto nos da las soluciones $A=I_2$ y $A=-I_2$.
  • Si $b=0$, entonces $O_2=(c+1)I_2$, de donde $c=-1$. De este modo, el polinomio característico es $x^2-1=(x+1)(x-1)$. Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$, y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz $\begin{pmatrix}-3 & 1 & 0 & 0 \\ 0 & -3 & 0 & 0 \\ 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 2\end{pmatrix}$
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & -1 & 2\\ 2 & 2 & 1 \end{pmatrix}.$$
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es $1$ ó $-1$.
  4. ¿Cómo son todas las matrices en $M_2(\mathbb{R})$ tales que $A^2=A$?
  5. ¿Cómo son todas las matrices en $M_3(\mathbb{R})$ de determinante $0$ tales que $A^3=O_3$?

Entradas relacionadas

Ecuaciones Diferenciales I: Valores y vectores propios para resolver sistemas lineales

En la vida real, te lo aseguro, no hay algo como el álgebra.
– Fran Lebowitz

Introducción

Ya hemos dado inicio con el desarrollo de métodos de resolución de sistemas lineales de primer orden. En la entrada anterior desarrollamos el método de eliminación de variables que, a pesar de ser muy limitado, es un método sencillo y práctico para resolver sistemas con dos ecuaciones diferenciales lineales de primer orden.

Debido a que un sistema lineal puede ser visto como una ecuación matricial los resultados de álgebra lineal sobre valores y vectores propios de matrices pueden ser aplicados aquí. En esta entrada daremos un breve repaso sobre estos conceptos y veremos cómo es que estos resultados nos pueden ayudar a determinar la solución general de algunos sistemas de ecuaciones diferenciales.

La teoría que desarrollaremos a continuación es aplicable a sistemas lineales homogéneos con coeficientes constantes.

Sistemas lineales homogéneos

Un sistema lineal homogéneo con coeficientes constantes es de la forma

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}y_{1} + a_{12}y_{2} + \cdots + a_{1n}y_{n} \\
y_{2}^{\prime}(t) &= a_{21}y_{1} + a_{22}y_{2} + \cdots + a_{2n}y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}y_{1} + a_{n2}y_{2} + \cdots + a_{nn}y_{n} \label{1} \tag{1}
\end{align*}

Si $\mathbf{A}$ es la matriz de $n \times n$ con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

entonces el sistema lineal a resolver es

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

En la segunda entrada de esta unidad vimos que la solución general del sistema lineal homogéneo

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}e^{0t} + c_{2} \begin{pmatrix}
1 \\ 1 \\ 0
\end{pmatrix}e^{2t} + c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}e^{3t}$$

Y en la entrada anterior vimos que la solución del sistema lineal homogéneo

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y}$$

es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t}$$

Aunque para el primer caso aún no sabemos cómo obtener esa solución lo que sabemos es que efectivamente corresponde a la solución general del sistema homogéneo. Notemos que cada vector solución es de la forma

$$\mathbf{Y}_{i} = \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix}e^{\lambda_{i}t}, \hspace{1cm} i = 1, 2 ,3$$

donde $k_{i}$ y $\lambda_{i}$, $i = 1, 2, 3$, son constantes. Lo mismo para el segundo caso, con $k_{i}$, $\lambda_{i}$, $i = 1, 2$, constantes. Esta particularidad nos hace preguntarnos si siempre es posible hallar una solución de la forma

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t} \label{4} \tag{4}$$

como solución general del sistema lineal (\ref{3}).

La respuesta es que sí, pero antes de continuar con nuestro desarrollo nos parece pertinente repasar brevemente algunos conceptos de Álgebra Lineal, en particular el de valores y vectores propios.

Valores y vectores propios

Sea $T: V \rightarrow W$ una transformación lineal, en álgebra lineal muchas veces resulta útil encontrar un vector $v$ en el espacio vectorial $V$ tal que $T\mathbf{v}$ y $\mathbf{v}$ sean paralelos, es decir, se busca un vector $\mathbf{v}$ y un escalar $\lambda$, tal que

$$T\mathbf{v} = \lambda \mathbf{v} \label{5} \tag{5}$$

Recordemos que si $\mathbf{v} \neq \mathbf{0}$ y $\lambda$ satisfacen la ecuación (\ref{5}), entonces $\lambda$ se denomina un valor característico o valor propio de $T$ y $\mathbf{v}$ un vector característico o vector propio de $T$ correspondiente al valor propio $\lambda$.

También recordemos que si $V$ tiene dimensión finita, entonces la transformación $T$ se puede representar por una matriz $\mathbf{A}_{T}$, de manera que se pueden definir los valores y vectores propios de esta matriz.

Denotaremos con $M_{n \times n}$ al conjunto de todas las matrices cuadradas de $n \times n$ con componentes reales y constantes.

Como nota interesante, los valores y vectores propios también son conocidos como valores y vectores característicos o eigenvalores y eigenvectores, donde el término eigen es un término alemán que significa propio. En este curso los llamaremos valores y vectores propios.

Recordemos nuevamente el concepto de matriz inversa.

Para el caso especial $\mathbf{A} = \mathbf{I}$, con $\mathbf{I}$ la matriz identidad, se tiene que para cualquier vector $\mathbf{v} \in V$

$$\mathbf{Av} = \mathbf{Iv} = \mathbf{v} \label{8} \tag{8}$$

Así, el único valor propio de $\mathbf{A}$ es $1$ y todo $\mathbf{v} \neq \mathbf{0} \in V$ es un vector propio de $\mathbf{I}$.

Otra observación interesante es que cualquier múltiplo de un vector propio de $\mathbf{A}$ es también un vector propio de $\mathbf{A}$, con el mismo valor propio.

$$\mathbf{A}(c \mathbf{v}) = c \mathbf{Av} = c \lambda \mathbf{v} = \lambda (c \mathbf{v}) \label{9} \tag{9}$$

Ecuación característica

Supongamos que $\lambda $ es un valor propio de $A$, entonces existe un vector diferente de cero

$$\mathbf{v} = \begin{pmatrix}
v_{1} \\ v_{2} \\ \vdots \\ v_{n}
\end{pmatrix} \neq \mathbf{0}$$

tal que

$$\mathbf{Av} = \lambda \mathbf{v} = \lambda \mathbf{Iv} \label{10} \tag{10}$$

Reescribiendo esto, se tiene

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{v} = \mathbf{0} \label{11} \tag{11}$$

Si $A$ es una matriz de $n \times n$, la ecuación anterior corresponde a un sistema homogéneo de $n$ ecuaciones con las incógnitas $v_{1}, v_{2}, \cdots, v_{n}$. Como se ha supuesto que $ \mathbf{v} \neq \mathbf{0}$, entonces el sistema no tiene solución trivial y por tanto el determinante de (\ref{11}) debe ser cero.

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{12} \tag{12}$$

De manera equivalente, si ocurre que $|\mathbf{A} -\lambda \mathbf{I}| \neq 0$, entonces la única solución a (\ref{11}) es la trivial $\mathbf{v} = \mathbf{0}$, lo que significa que $\lambda$ no es un valor propio de $A$.

Estos resultados quedan establecidos en el siguiente teorema.

La relación (\ref{13}) es muy importante, tanto que merece nombres particulares.

El polinomio $P(\lambda )$ es del mismo grado que el número de filas y columnas de la matriz $\mathbf{A}$. Si $\mathbf{A} \in M_{n \times n}$, entonces $P(\lambda)$ es un polinomio de grado $n$ en $\lambda$. Por ejemplo, si

$$\mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} \label{14} \tag{14}$$

entonces,

$$\mathbf{A} -\lambda \mathbf{I} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} -\begin{pmatrix}
\lambda & 0 \\ 0 & \lambda
\end{pmatrix} = \begin{pmatrix}
a -\lambda & b \\ c & d -\lambda
\end{pmatrix} \label{15} \tag{15}$$

y

\begin{align*}
P(\lambda ) &= |\mathbf{A} -\lambda \mathbf{I}| \\
&= (a -\lambda)(d -\lambda) -bc \\
&= \lambda^{2} -(a + d) \lambda + (ad -bc) \label{16} \tag{16}
\end{align*}

La matriz es de $2 \times 2$ y el polinomio característico es un polinomio de grado $2$.

El teorema fundamental del álgebra nos dice que cualquier polinomio de grado $n$ con coeficientes reales o complejos tiene exactamente $n$ raíces contando multiplicidades y dado que cualquier valor propio de $\mathbf{A}$ es una raíz de la ecuación característica de $\mathbf{A}$, se concluye que, contando multiplicidades, toda matriz $\mathbf{A} \in M_{n \times n}$ tiene exactamente $n$ valores propios.

Realicemos dos ejemplos sencillos en donde determinemos los valores y vectores propios de una matriz. Uno en donde los valores propios sean distintos (con multiplicidad $1$) y uno en donde los valores propios sean números complejos.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

$$\mathbf{A} = \begin{pmatrix}
-81 & 16 \\ -420 & 83
\end{pmatrix}$$

Solución: De acuerdo a (\ref{13}), determinemos la ecuación característica.

$$\begin{vmatrix}
-81 -\lambda & 16 \\ -420 & 83 -\lambda
\end{vmatrix} = (-81 -\lambda)(83 -\lambda) -16(-420) = 0$$

Reordenando obtenemos que la ecuación característica es

$$\lambda^{2} -2 \lambda -3 = 0$$

y el polinomio característico es

$$P(\lambda) = \lambda^{2} -2 \lambda -3$$

Resolviendo para $\lambda$ se obtienen las raíces $\lambda_{1} = -1$ y $\lambda_{2} = 3$. Para obtener los vectores propios buscamos un vector $\mathbf{v} \neq 0$, tal que se cumpla (\ref{11}) para cada valor propio $\lambda$. Comencemos con $\lambda_{1}$.

Caso 1: $\lambda_{1} = -1$.

$$\begin{pmatrix}
-81 -(-1) & 16 \\ -420 & 83 -(-1)
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
-80 & 16 \\ -420 & 84
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Este resultado lo podemos escribir como las siguientes dos ecuaciones.

\begin{align*}
-80 v_{1} + 16 v_{2} &= 0 \\
-420 v_{1} + 84 v_{2} &= 0
\end{align*}

Que en realidad corresponden a una sola.

\begin{align*}
-5v_{1} + v_{2} &= 0 \\
v_{2} &= 5v_{1}
\end{align*}

Si elegimos $v_{1} = 1$, entonces $v_{2} = 5$, así el primer vector propio es

$$\mathbf{v}_{1} = \begin{pmatrix}
1 \\ 5
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 3$.

$$\begin{pmatrix}
-81 -3 & 16 \\ -420 & 83-3
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
-84 & 16 \\ -420 & 80
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
-21v_{1} + 4v_{2} &= 0 \\
v_{2} &= \dfrac{21}{4}v_{1}
\end{align*}

Por conveniencia elegimos $v_{1} = 4$, entonces $v_{2} = 21$, así

$$\mathbf{v}_{2} = \begin{pmatrix}
4 \\ 21
\end{pmatrix}$$

En conclusión, los valores y vectores propios de la matriz $\mathbf{A}$ son $\lambda_{1} = -1$, $\lambda_{2} = 3$, $\mathbf{v}_{1} = \begin{pmatrix} 1 \\ 5 \end{pmatrix}$ y $\mathbf{v}_{2} = \begin{pmatrix} 4 \\ 21 \end{pmatrix}$, respectivamente.

$\square$

Realicemos el segundo ejemplo.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

$$\mathbf{A} = \begin{pmatrix}
2 & -1 \\ 5 & -2
\end{pmatrix}$$

Solución: Determinemos la ecuación característica.

$$\begin{vmatrix}
2 -\lambda & -1 \\ 5 & -2 -\lambda
\end{vmatrix} = (2 -\lambda)(-2 -\lambda) + 5 = 0$$

La ecuación característica es

$$\lambda^{2} + 1 = 0$$

De donde $\lambda_{1} = i$ y $\lambda_{2} = -i$. Determinemos los vectores propios.

Caso 1: $\lambda_{1} = i$.

$$\begin{pmatrix}
2 -i & -1 \\ 5 & -2 -i
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
(2 -i)v_{1} -v_{2} &= 0 \\
5v_{1} -(2 + i)v_{2} &= 0
\end{align*}

Resolviendo el sistema se obtiene que $v_{1} = 2 + i$ y $v_{2} = 5$, así

$$\mathbf{v}_{1} = \begin{pmatrix}
2 + i \\ 5
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -i$

$$\begin{pmatrix}
2 + i & -1 \\ 5 & -2 + i
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
(2 + i) v_{1} -v_{2} &= 0 \\
5v_{1} + (-2 + i)v_{2} &= 0
\end{align*}

Resolviendo el sistema se obtiene que $v_{1} = 2 -i$ y $v_{2} = 5$, así

$$\mathbf{v}_{2} = \begin{pmatrix}
2 -i \\ 5
\end{pmatrix}$$

$\square$

En caso de requerir conocer más a fondo sobre el algoritmo que llevamos a cabo para obtener los valores y vectores propios de una matriz se recomienda revisar directamente en el curso de Álgebra Lineal I. Recordemos que aquí sólo estamos haciendo un breve repaso.

Para concluir con nuestro repaso, enunciemos un teorema de suma importancia que nos será de utilidad mas adelante. Haremos la demostración por inducción.

Demostración: Como el caso $m = 1$ se trata de un solo vector es evidente que se satisface el teorema, hagamos el caso $m = 2$, para ello consideremos la combinación lineal

$$c_{1} \mathbf{v}_{1} + c_{2} \mathbf{v}_{2} = \mathbf{0} \label{17} \tag{17}$$

Multipliquemos ambos lados de la ecuación por la matriz $\mathbf{A}$.

$$c_{1} \mathbf{Av}_{1} + c_{2} \mathbf{Av}_{2} = \mathbf{0} \label{18} \tag{18}$$

Como $\mathbf{Av}_{i} = \lambda_{i}\mathbf{v}_{i}$, para $i = 1, 2$, entonces

$$c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2} = \mathbf{0} \label{19} \tag{19}$$

A la ecuación (\ref{17}) la multiplicamos por $\lambda_{1}$ y la restamos de la ecuación (\ref{19}).

$$(c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2}) -(c_{1} \lambda_{1} \mathbf{v}_{1} -c_{2} \lambda_{1} \mathbf{v}_{2}) = \mathbf{0}$$

que se reduce a

$$c_{2}(\lambda_{2} -\lambda_{1}) \mathbf{v}_{2} = \mathbf{0} \label{20} \tag{20}$$

Como $\mathbf{v}_{2} \neq \mathbf{0}$ por definición de vector característico y por hipótesis $\lambda_{1} \neq \lambda_{2}$, entonces se concluye que $c_{2} = 0$, sustituyendo en (\ref{17}) se ve que $c_{1} = 0$, por tanto se cumple el teorema para $m = 2$, es decir, $\mathbf{v}_{1}$ y $\mathbf{v}_{2}$ son linealmente independientes.

Ahora supongamos que el teorema es cierto para $m = n$, es decir, cualquier conjunto de $n$ vectores propios de $\mathbf{A}$ con valores propios diferentes es linealmente independiente. Hay que demostrar que cualquier conjunto de $n + 1$ vectores propios de $\mathbf{A}$ con valores propios diferentes es también linealmente independiente. La demostración sigue el mismo procedimiento que como lo hicimos para $m = 2$, consideremos la siguiente combinación lineal.

$$c_{1} \mathbf{v}_{1} + c_{2} \mathbf{v}_{2} + \cdots + c_{n + 1} \mathbf{v}_{n + 1} = \mathbf{0} \label{21} \tag{21}$$

Multipliquemos por $\mathbf{A}$ en ambos lados.

$$c_{1} \mathbf{Av}_{1} + c_{2} \mathbf{Av}_{2} + \cdots + c_{n + 1} \mathbf{Av}_{n + 1} = \mathbf{0} \label{22} \tag{22}$$

Aplicando $\mathbf{Av}_{i} = \lambda_{i} \mathbf{v}_{1}$ para $i = 1, 2, 3, \cdots, n + 1$, se tiene

$$c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2} + \cdots + c_{n + 1} \lambda_{n + 1} \mathbf{v}_{n + 1} = \mathbf{0} \label{23} \tag{23}$$

Si se multiplica ambos lados de la ecuación (\ref{21}) por $\lambda_{1}$ y se resta de (\ref{23}), se obtiene

$$c_{2}(\lambda_{2} -\lambda_{1}) \mathbf{v}_{2} + c_{3}(\lambda_{3} -\lambda_{1}) \mathbf{v}_{3} + \cdots + c_{n + 1}(\lambda_{n + 1} -\lambda_{1})\mathbf{v}_{n + 1} = \mathbf{0} \label{24} \tag{24}$$

Pero $\mathbf{v}_{2}, \mathbf{v}_{3}, \cdots, \mathbf{v}_{n + 1}$ son vectores propios de $\mathbf{A}$ con valores propios distintos $\lambda_{2}, \lambda_{3}, \cdots, \lambda_{n + 1}$, respectivamente. Por hipótesis de inducción, los vectores son linealmente independientes, así que

$$c_{2}(\lambda_{2} -\lambda_{1}) = 0, \hspace{1cm} c_{3}(\lambda_{3} -\lambda_{1}) = 0, \hspace{1cm} \cdots, \hspace{1cm} c_{n + 1}(\lambda_{n + 1} -\lambda_{1}) = 0$$

Como los valores propios son distintos entre sí, entonces necesariamente

$$c_{2} = c_{3} = \cdots = c_{n + 1} = 0$$

Con este resultado la ecuación (\ref{21}) obliga a que $c_{1}$ sea cero. Por lo tanto, $\mathbf{v}_{1}, \mathbf{v}_{2}, \mathbf{v}_{3}, \cdots, \mathbf{v}_{n + 1}$ son linealmente independientes. De esta manera queda demostrado el teorema.

$\square$

En conclusión, vectores propios correspondientes a valores propios distintos son linealmente independientes.

Con este breve repaso en mente regresemos a los sistemas de ecuaciones diferenciales.

Valores y vectores propios en sistemas de ecuaciones diferenciales

Ahora que hemos recordado las definiciones de valores y vectores propios y algunas propiedades veamos cómo es que estos conceptos son útiles para resolver sistemas lineales de primer orden homogéneos.

Al inicio de la entrada decíamos que es posible encontrar soluciones de la forma (\ref{4}).

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t}$$

Si derivamos este vector, se obtiene

$$\mathbf{Y}^{\prime} = \mathbf{K} \lambda e^{\lambda t} \label{25} \tag{25}$$

Sustituyamos en el sistema homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$.

$$\mathbf{K} \lambda e^{\lambda t} = \mathbf{AK}e^{\lambda t} \label{26} \tag{26}$$

Si dividimos entre $e^{\lambda t}$ y reordenamos, se tiene

$$\mathbf{AK} = \lambda \mathbf{K}$$

o bien,

$$\mathbf{AK} -\lambda \mathbf{K} = \mathbf{0}$$

Debido a que $\mathbf{K} = \mathbf{IK}$, con $\mathbf{I}$ la matriz identidad, la última expresión se puede escribir como

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0}\label{27} \tag{27}$$

Si $\mathbf{A}$ es la matriz dada en (\ref{2}), entonces la ecuación matricial (\ref{27}) es equivalente a las $n$ ecuaciones algebraicas simultáneas

\begin{align*}
(a_{11} -\lambda)k_{1} + \hspace{1.2cm} a_{12}k_{2} + \cdots + \hspace{1.2cm} a_{1n}k_{n} &= 0 \\
a_{21}k_{1} + (a_{22} -\lambda)k_{2} + \cdots + \hspace{1.2cm} a_{2n}k_{n} &= 0 \\
\vdots \\
a_{n1}k_{1} + \hspace{1.2cm} a_{n2}k_{2} + \cdots + (a_{nn} -\lambda)k_{n} &= 0 \label{28} \tag{28}
\end{align*}

Si queremos encontrar soluciones $\mathbf{Y}(t)$ como (\ref{4}), necesitamos primero encontrar una solución no trivial del sistema (\ref{28}), de lo visto en nuestro repaso de valores y vectores propios, si la solución debe ser la no trivial, entonces se requiere que el determinante sea igual a cero, esto es

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{29} \tag{29}$$

Esta ecuación polinomial corresponde a la ecuación característica de la matriz $\mathbf{A}$. Sus soluciones son los valores propios de $\mathbf{A}$. Una solución $\mathbf{K} \neq 0$ de (\ref{27}) correspondiente a un valor propio $\lambda$ es el vector propio de $\mathbf{A}$.

La ecuación (\ref{29}) al tratarse de una ecuación polinomial existen tres casos posibles, cuando los valores propios son reales y distintos, cuando son repetidos y cuando son complejos. Para cada caso existe una forma particular de la solución de (\ref{3}).

Para concluir con esta entrada demostremos un resultado que establece la forma de la solución general del sistema lineal (\ref{3}).

Demostración: Definamos las funciones

$$\mathbf{Y}_{1}(t) = e^{\lambda_{1}t}\mathbf{K}_{1}, \hspace{1cm} \mathbf{Y}_{2}(t) = e^{\lambda_{2}t}\mathbf{K}_{2}, \hspace{1cm} \cdots, \hspace{1cm} \mathbf{Y}_{n}(t) = e^{\lambda_{n}t} \mathbf{K}_{n}$$

Notemos que para la $i$-ésima función $\mathbf{Y}_{i}(t) = e^{\lambda_{i}t} \mathbf{K}_{i}$ se cumple lo siguiente.

$$\mathbf{Y}^{\prime}_{i} = e^{\lambda_{i}t} (\lambda_{i} \mathbf{K}_{i}) = e^{\lambda_{i}t} (\mathbf{AK}_{i}) = \mathbf{AY}_{i} \label{32} \tag{32}$$

En donde se hecho uso de la relación (\ref{6}). Esto nos muestra que $\mathbf{Y}_{i}(t)$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ para cada $i = 1, 2, \cdots, n$. Basta mostrar que el Wronskiano es distinto de cero para probar que las funciones definidas forman un conjunto fundamental de soluciones. El Wronskiano está dado por

\begin{align*}
W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots,\mathbf{Y}_{n}) &= \begin{vmatrix} e^{\lambda_{1}t} \mathbf{K}_{1} & e^{\lambda_{2}t} \mathbf{K}_{2} & \cdots & e^{\lambda_{n}t} \mathbf{K}_{n} \end{vmatrix} \\
&= e^{(\lambda_{1} + \lambda_{2} + \cdots + \lambda_{n})t} \begin{vmatrix} \mathbf{K}_{1} & \mathbf{K}_{2} & \cdots & \mathbf{K}_{n} \end{vmatrix} \label{33} \tag{33}
\end{align*}

Como la exponencial nunca se hace cero y por hipótesis los vectores $\mathbf{K}_{1}, \mathbf{K}_{2}, \cdots, \mathbf{K}_{n}$ son linealmente independientes, es decir, el determinante nunca es cero

$$\begin{vmatrix} \mathbf{K}_{1} & \mathbf{K}_{2} & \cdots & \mathbf{K}_{n} \end{vmatrix} \neq 0 \label{34} \tag{34}$$

entonces el Wronskiano es distinto de cero. Por el teorema de solución general de un sistema homogéneo concluimos que el conjunto

$$S = \{e^{\lambda_{1}t} \mathbf{K}_{1}, e^{\lambda_{2}t} \mathbf{K}_{2}, \cdots, e^{\lambda_{n}t} \mathbf{K}_{n}\}$$

es un conjunto fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ y la solución general es

$$\mathbf{Y}(t) = c_{1} e^{\lambda_{1}t} \mathbf{K}_{1} + c_{2} e^{\lambda_{2}t} \mathbf{K}_{2} + \cdots + c_{n} e^{\lambda_{n}t} \mathbf{K}_{n}$$

con $c_{1}, c_{2}, \cdots, c_{n}$ constantes arbitrarias.

$\square$

En la siguiente entrada aplicaremos todo esto en el desarrollo de un nuevo método de resolución de sistemas lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener los valores y vectores propios de las siguientes matrices.
  • $\mathbf{A} = \begin{pmatrix}
    -62 & -20 \\ 192 & 62
    \end{pmatrix}$
  • $\mathbf{A} = \begin{pmatrix}
    -2 & 5 & 0 \\ 5 & -2 & 0 \\ 0 & 0 & 1
    \end{pmatrix}$
  1. Demostrar que para cualesquiera números reales $\alpha$ y $\beta$, la matriz $$\mathbf{A} = \begin{pmatrix} \alpha & \beta \\ -\beta & \alpha \end{pmatrix}$$ tiene valores propios $\alpha \pm i\beta$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar lo siguiente:
  • Demostrar que $\mathbf{A}^{-1}$ (la matriz inversa de $\mathbf{A}$) existe si y sólo si $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$ son todos distintos de cero.
  • Si $\mathbf{A}^{-1}$ existe, demostrar que los valores propios de $\mathbf{A}^{-1}$ son $\dfrac{1}{\lambda_{1}}, \dfrac{1}{\lambda_{2}}, \cdots, \dfrac{1}{\lambda_{n}}$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar que la matriz $\mathbf{A} -\alpha \mathbf{I}$ tiene valores propios $\lambda_{1} -\alpha, \lambda_{2} -\alpha, \cdots, \lambda_{n} -\alpha$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar que los valores propios de $\mathbf{A}^{m}$ son $\lambda^{m}_{1}, \lambda^{m}_{2}, \cdots, \lambda^{m}_{n}$ para $m = 1, 2, 3, \cdots$.

    Recuerda que para calcular la potencia de una matriz, debemos multiplicar la matriz por ella misma tantas veces como indique el exponente, por ejemplo
    $$\mathbf{A}^{5} = \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A}$$

Más adelante…

Un nuevo método para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas con coeficientes constantes es el que estamos por desarrollar. Dicho método involucra obtener los valores y vectores propios de la matriz que conforma al sistema lineal, es por ello que hemos dedicado esta entrada en hacer un breve repaso sobre estos conceptos y hemos visto cómo es que se ven involucrados en la resolución de estos sistemas.

Como vimos, los valores propios se obtienen de encontrar las raíces del polinomio característico lo que significa que se pueden tener raíces reales y distintas, raíces con multiplicidad mayor a uno, es decir, que se repiten o raíces complejas, para cada caso existe una forma distinta de obtener la solución de los sistemas lineales homogéneos $\mathbf{Y}^{\prime} = \mathbf{AY}$.

En las próximas tres entradas estudiaremos cada caso. Comenzaremos con el caso en el que los valores propios del sistema son todos reales y distintos entre sí.

Entradas relacionadas

Álgebra Lineal II: Triangularizar y descomposición de Schur

Introducción

En esta entrada estudiaremos el concepto de triangularizar matrices. Esto simplemente quiere decir encontrar una base respecto a la cual podamos escribir a nuestra matriz como una matriz triangular superior. Esto tiene muchas ventajas, puesto que las matrices triangulares superiores son relativamente fáciles de calcular. Como veremos, el concepto de triangularización está íntimamente ligado con los ceros de polinomios.

Matrices triangulares

Recordamos que una matriz $A=[a_{ij}]\in M_n(F)$ se dice triangular superior si $a_{ij}=0$ siempre que $i>j$, es decir si todas las entradas por debajo de la diagonal son cero. Las matrices triangulares gozan de algunas propiedades que ya hemos explorado. Por ejemplo, sus valores propios son fácilmente calculables: ¡son precisamente las entradas de la diagonal! Más explícitamente su polinomio característico es exactamente

\begin{align*}
\chi_A(X)=\prod_{i=1}^{n}(X-a_{ii}).
\end{align*}

Además forman un subespacio cerrado bajo multiplicación del espacio de todas las matrices. Puesto que son matrices ‘sencillas’, es deseable poder escribir alguna otra matriz como una matriz triangular, tal vez mediante un cambio de base: esto es precisamente triangularizar. Tenemos entonces la siguiente definición.

Definición. Diremos que una matriz es triangularizable si es similar a una matriz triangular superior.

Primero, necesitaremos de un par de conceptos sobre polinomios.

Polinomios y sus raíces

Definición. Un polinomio $P\in F[X]$ se divide sobre F si es de la forma

\begin{align*}
P(X)=c(X-a_1)\cdots (X-a_n)
\end{align*}

para algunos escalares $c,a_1,\dots, a_n\in F$ no necesariamente distintos.

Por ejemplo el polinomio $X^2+1$ no se divide sobre $\mathbb{R}$ ya que sabemos que no tiene raíces reales. Sin embargo, el mismo polinomio si se divide sobre $\mathbb{C}$: en efecto

\begin{align*}
X^2+1=(X-i)(X+i).
\end{align*}

Por otro lado, el polinomio $X^2-3X+2$ si se divide sobre $\mathbb{R}$, puesto que lo podemos escribir como

\begin{align*}
X^2-3X+2=(X-1)(X-2).
\end{align*}

Nota que el polinomio también se divide sobre $\mathbb{C}$ puesto que $\mathbb{R}\subset \mathbb{C}$. De hecho, no existe ningún polinomio con coeficientes complejos que no se divida sobre $\mathbb{C}$, este es un sorprendente resultado de Gauss:

Teorema (fundamental del Álgebra). Cualquier polinomio $P\in \mathbb{C}[X]$ se divide sobre $\mathbb{C}$.

Este teorema también se enuncia diciendo que $\mathbb{C}$ es algebraícamente cerrado. Es decir, todo polinomio con coeficientes complejos tiene al menos una raíz compleja. Es un buen ejercicio verificar que ambas versiones son equivalentes.

Por lo que mencionamos al principio, el polinomio característico de una matriz triangular superior se divide sobre el campo. Como el polinomio de matrices similares es igual, se sigue que si una matriz es triangularizable, entonces su polinomio característico se divide sobre el campo.

Problema. Da un ejemplo de una matriz $A\in M_2(\mathbb{R})$ que no sea triangularizable en $M_2(\mathbb{R})$.

Solución. Puesto que el polinomio característico de una matriz triangularizable se divide sobre el campo, es suficiente con encontrar una matriz cuyo polinomio característico no se divida sobre $\mathbb{R}$: por ejemplo $X^2+1$. Enseguida proponemos la matriz

\begin{align*}
A=\begin{pmatrix}
0 & 1 \\ -1 & 0 \end{pmatrix}.
\end{align*}

Entonces $\chi_A(X)=X^2+1$, que ya aclaramos que no se divide sobre $\mathbb{R}$. Por tanto $A$ no es triangularizable.

$\square$

Un teorema sobre triangularizar

Ya vimos que si $A$ es una matriz triangularizable su polinomio característico se divide sobre el campo. El siguiente teorema nos dice que el converso también es cierto.

Teorema. Sea $A\in M_n(F)$. Las siguientes afirmaciones son equivalentes:

  1. El polinomio característico de $A$ se divide sobre $F$.
  2. $A$ es similar a una matriz triangular superior.

Demostración. La discusión previa ya nos mostró que $2$ implica $1$. Probaremos el converso por inducción sobre $n$. El resultado se cumple para $n=1$ (pues toda matriz es triangular superior), así que podemos asumir que $n\geq 2$ y que el resultado se cumple para $n-1$.

Sea $\lambda\in F$ una raíz de $\chi_A$. Nota que dicha raíz existe pues estamos suponiendo que $\chi_A$ se divide sobre $F$. También escogemos un vector no-cero $v$ tal que $Av=\lambda v$, es decir, un eigenvector asociado a $\lambda$. Como $v\neq 0$, podemos completar a una base $v=v_1,\dots, v_n$ de $V=F^n$. La matriz asociada a la transformación lineal $T$ asociada a $A$ se ve entonces de la forma

\begin{align*}
\begin{pmatrix}
\lambda & \ast\\
0 & B
\end{pmatrix}
\end{align*}

para alguna $B\in M_{n-1}(F)$. Entonces podemos encontrar una matriz de cambio de base (y por tanto invertible) $P_1$ tal que

\begin{align*}
P_1 AP_1^{-1}=\begin{pmatrix}
\lambda & \ast\\
0 & B
\end{pmatrix}.
\end{align*}

Puesto que matrices similares comparten el mismo polinomio característico, tenemos que

\begin{align*}
\chi_A(X)=\chi_{P_1AP_1^{-1}}(X)=(X-\lambda)\chi_B(X).
\end{align*}

Se sigue que $\chi_B$ se divide sobre el campo. Además, $B\in M_{n-1}(F)$, por lo que podemos aplicar la hipótesis de inducción para afirmar que existe una matriz invertible $Q\in M_{n-1}(F)$ tal que $QBQ^{-1}$ es triangular superior. Luego definiendo

\begin{align*}
P_2=\begin{pmatrix}
1 & 0\\
0 & Q
\end{pmatrix},
\end{align*}

se cumple no solo que $P_2$ es invertible (¿por qué?) pero además que

\begin{align*}
P_2(P_1AP_1^{-1})P_2^{-1}=\begin{pmatrix}
\lambda & \ast\\
0 & QBQ^{-1}\end{pmatrix}.
\end{align*}

Notamos que esta última matriz es triangular superior, puesto que $QBQ^{-1}$ lo es. Esto completa la prueba.

$\square$

Un corolario importante

Combinando el teorema fundamental del álgebra junto con el teorema pasado obtenemos un corolario importante, conocido como el teorema de descomposición de Schur. Lo enunciamos como teorema.

Teorema (descomposición de Schur). Para cualquier matriz $A\in M_n(\mathbb{C})$ podemos encontrar una matriz invertible $P\in M_n(\mathbb{C})$ y una matriz triangular superior $T\in M_n(\mathbb{C})$ tal que $A=PTP^{-1}$. Por tanto toda matriz con entradas complejas es triangularizable.

Demostración. Por el teorema fundamental del álgebra, tenemos que $\chi_A$ se divide sobre $\mathbb{C}$. Luego usando el teorema anterior concluimos que $A$ es triangularizable.

$\square$

Más adelante…

En la próxima entrada veremos un concepto parecido a triangularizar pero más fuerte: diagonalizar, que consiste en llevar a una matriz a una matriz diagonal similar.

Tarea moral

A continuación presentamos algunos ejercicios que sirven para repasar los temas vistos en esta entrada.

  1. ¿Es la matriz
    \begin{align*}
    A=\begin{pmatrix}
    1 & 2 & 1\\ 3 & 2 & 2\\ 0 & 1 & 1\end{pmatrix}
    \end{align*}
    triangularizable sobre $\mathbb{R}$?
  2. Encuentra una matriz traingular superior similar a la matriz
    \begin{align*}
    \begin{pmatrix}
    1 & 2\\ 3 & 2\end{pmatrix}.
    \end{align*}
  3. Encuentra una matriz triangular superior similar a la matriz
    \begin{align*}
    \begin{pmatrix}
    1 & 0 & 0\\ 2 & 1 & 0\\ 3 & 2 & 1\end{pmatrix}.
    \end{align*}
  4. ¿Por qué la matriz $P_2$ construida en la demostración del segundo teorema es invertible?
  5. Demuestra que una matriz $A\in M_n(F)$ es nilpotente si y sólo si es similar a una matriz triangular superior con entradas cero en la diagonal.

Entradas relacionadas

Álgebra Lineal II: Demostración del teorema de Cayley-Hamilton

Introducción

En esta entrada demostraremos el teorema de Cayley-Hamilton. Daremos dos demostraciones de sabores muy diferentes. La primera demostración explota las propiedades de la matriz adjunta, mientras que la segunda echa mano de las familias especiales de las cuales calculamos el polinomio característico.

Primera demostración

La primera demostración del teorema de Cayley-Hamilton usa algunas propiedades de la matriz adjunta. Recordamos el teorema y lo demostramos a continuación:

Teorema. (Cayley-Hamilton)

Para cualquier matriz $A\in M_n(F)$ se cumple que

\begin{align*}
\chi_A(A)=O_n.
\end{align*}

Demostración. Sea $A\in M_n(F)$ y sea $B=XI_n-A\in M_n(K)$ dónde $K=F(X)$ es el campo de fracciones racionales en la variable $X$. Es decir, un elemento de $K$ es un cociente de la forma

\begin{align*}
\frac{A(X)}{B(X)}, \hspace{2mm} A(X),B(X)\in F[X]
\end{align*}

con $B$ no idénticamente cero.

Sea $C$ la matriz adjunta de $B$, es decir $C=\operatorname{adj}(B)$. Sus entradas son (por definición) los determinantes de las matrices de tamaño $(n-1)$ cuyas entradas son a su vez polinomios de grado a lo más $1$. Es decir cada entrada de $C$ es un polinomio de grado a lo más $n-1$. Luego, sea

\begin{align*}
c_{ij}= c_{ij}^{(0)}+c_{ij}^{(1)}X+\dots+c_{ij}^{(n-1)} X^{n-1}
\end{align*}

la $(i,j)$-ésima entrada de $C$, con $c_{ij}^{(0)},\dots, c_{ij}^{(n-1)}\in F$. Sea $C^{(k)}$ la matriz cuyas entradas son $c_{ij}^{(k)}$. Entonces

\begin{align*}
C=C^{(0)}+C^{(1)}X+\dots+ C^{(n-1)}X^{n-1}.
\end{align*}

Enseguida, recuerda que

\begin{align*}
B\cdot C=B \cdot \operatorname{adj}(B)=\det(B)\cdot I_n=\chi_A(X)\cdot I_n.
\end{align*}

Es decir

\begin{align*}
(X I_n-A)\cdot \left(C^{(0)}+C^{(1)}X+\dots+C^{(n-1)}X^{n-1}\right)=\chi_A(X)\cdot I_n.
\end{align*}

Por otro lado, si escribimos a $\chi_A(X)$ como $\chi_A(X)=X^{n}+u_{n-1}X^{n-1}+\dots + u_0\in F[X]$, la igualdad anterior se convierte en

\begin{align*}
&-AC^{(0)}+(C^{(0)}-AC^{(1)})X+ (C^{(1)}-AC^{(2)})X^2+\dots + (C^{(n-2)}-AC^{(n-1)})X^{n-1}\\ &+C^{(n-1)}X^{n}= u_0 I_n+\dots + u_{n-1}I_nX^{n-1}+I_nX^{n}.
\end{align*}

Identificando los términos de cada coeficiente llegamos a

\begin{align*}
\begin{cases} -AC^{(0)}= u_0 I_n,\\ C^{(0)}-AC^{(1)}= u_1 I_n,\\ \vdots\\ C^{(n-2)}-AC^{(n-1)}=u_{n-1}I_n,\\ C^{(n-1)}=I_n.
\end{cases}
\end{align*}

Comenzando con la última igualdad, tenemos que $C^{(n-1)}=I_n$. Sustituyendo en la anterior llegamos a que $C^{(n-2)}=A+u_{n-1}I_n$, e inductivamente se cumple que

\begin{align*}
C^{(n-j-1)}=A^{j}+u_{n-1}A^{j-1}+\dots+u_1 I_n.
\end{align*}

En particular

\begin{align*}
C^{(0)}=A^{n-1}+u_{n-1}A^{n-2}+\dots+u_1 I_n.
\end{align*}

Multiplicando ambos lados por $A$ y usando que $-AC^{(0)}=u_0 I_n$ finalmente llegamos a

\begin{align*}
A^{n}+u_{n-1}A^{n-1}+\dots+ u_0 I_n=O_n.
\end{align*}

Pero esta igualdad no es nada más que $\chi_A(A)=O_n$, lo que concluye la prueba.

$\square$

Segunda demostración

Para la segunda demostración enunciaremos el teorema de una manera distinta pero equivalente (¿por qué?). Usaremos una estrategia fundada en el cálculo de polinomios característicos de familias conocidas de una entrada previa.

Teorema. (Cayley-Hamilton)

Sea $V$ un espacio vectorial de dimensión finita sobre $F$ y sea $T:V\to V$ una transformación lineal. Entonces $\chi_T(T)=0$.

Demostración. La idea es reducir el problema a transformaciones lineales para las que podemos calcular $\chi_T$ fácilmente. Sin embargo, los detalles son un poco complicados.

Fijemos $x\in V$. Para $m\geq 0$ fijamos

\begin{align*}
W_m=\operatorname{Span}(T^0(x), T^1(x), \dots, T^{m}(x)).
\end{align*}

Nota como $W_0\subset W_1\subset \dots \subset V$ y que $\dim W_m\leq \dim W_{m+1}\leq \dim V$ para todo $m\geq 0$. Entonces debe existir algún $m$ mínimo tal que $\dim W_{m-1}=\dim W_m$. Entonces como $W_{m-1}\subset W_{m}$ se tiene que $W_{m-1}=W_{m}$. Luego $T^{m}(x)\in W_{m-1}$, es decir existe una combinación lineal

\begin{align*}
T^{m}(x)=\sum_{k=0}^{m-1} a_k T^{k}(x).
\end{align*}

Nota que esto implica que $W_{m-1}$ es estable bajo $T$. Como $m$ es mínimo, los vectores $T^{0}(x),\dots, T^{m-1}(x)$ deben ser linealmente independientes: en efecto, si no lo fueran existiría una relación de dependencia entre $T^{m-1}(x)$ y términos de grado menor y así $\dim W_{m-1}=\dim W_{m-2}$ y entonces $m$ no sería mínimo. Por lo tanto forman una base para $W_{m-1}$ y respecto a esta base la matriz asociada a $T\vert_{W_{m-1}}$ es

\begin{align*}
A=\begin{pmatrix} 0 & 0 & 0 &\dots & 0 & a_0\\ 1 & 0 & 0 & \dots & 0 & a_1\\ 0 & 1 & 0 & \dots & 0 & a_2\\ \vdots & \vdots &\vdots &\ddots &\vdots &\vdots\\ 0 & 0 & 0 & \dots & 1 & a_n\end{pmatrix}.
\end{align*}

El polinomio característico de matrices como esta lo calculamos en esta entrada y es igual a $X^{m}-a_{m-1}X^{m-1}-\dots -a_0$. Entonces

\begin{align*}
\chi_{T\vert_{W_{m-1}}}(T)(x)= T^{m}(x)-\sum_{k=0}^{m-1}a_k T^{k}(x)=0.
\end{align*}

Pero como $W_{m-1}$ es $T-$estable, el polinomio característico de $T\vert_{W_{m-1}}$ divide al polinomio característico de $T$ (este es un ejercicio en la tarea moral de esta entrada) y por tanto $\chi_T(T)(x)=0$. Como $x$ fue arbitrario concluimos que $\chi_T(T)$ es la transformación cero.

$\square$

Más adelante…

En la próxima entrada veremos aplicaciones del teorema de Cayley-Hamilton.

Tarea moral

  1. Supón que $T:V\to V$ es una transformación lineal y $V$ es de dimensión finita. Demuestra que si $W$ es un subespacio $T$-estable de $V$ entonces $\chi_{T\vert_{W}}(X)$ divide a $\chi_{T}(X)$. Sugerencia. Considera una base de $W$, extiéndela a una base de $V$. ¿Cómo se ve la matriz asociada a $T$ en esta base?
  2. Explica por qué las dos versiones que dimos del teorema de Cayley-Hamilton son equivalentes.
  3. Demuestra la propiedad de la matriz adjunta que se menciona en la primera demostración.
  4. Sean $A,B,C\in M_2(\mathbb{C})$ matrices tales que $AC=CB$ y $C\neq O_n$. Demuestra que para cualquier polinomio $P$ se cumple que $P(A)C=CP(B)$. Usando esto y escogiendo un polinomio adecuado, deduce que $A$ y $B$ tienen un eigenvalor en común. Sugerencia: Usa el teorema de Cayley-Hamilton.
  5. Sea la matriz
    \begin{align*}
    A=\begin{pmatrix}
    0 & 2 & 0\\
    1 & 1 & -1\\
    -1 & 1& 1
    \end{pmatrix}.
    \end{align*}
    Usa el teorema de Cayley-Hamilton para calcular $A^{1000}$. Sugerencia: El teorema de Cayley-Hamilton te debería dar una relación entre algunas potencias de $A$.

Entradas relacionadas

Álgebra Lineal II: Introducción al teorema de Cayley-Hamilton

Introducción

En esta entrada introducimos el teorema de Cayley-Hamilton, otro de los teoremas importantes del curso. Intuitivamente este teorema nos dice que “el polinomio característico anula al operador lineal”. Es decir, si $P(\lambda)$ es el polinomio característico de una transformación lineal $T$, entonces $P(T)=0$.

Algunos ejemplos

Damos unos cuantos ejemplos para que entendamos que está pasando.

Ejemplo. Sea $A\in M_2(\mathbb{R})$ la matriz dada por

\begin{align*}
A=\begin{pmatrix} 0 & -1\\ 1 & 0
\end{pmatrix}.
\end{align*}

Calculemos su polinomio característico

\begin{align*}
\chi_A(X)=\det \begin{pmatrix} X & 1\\ -1 & X\end{pmatrix}=X^2+1.
\end{align*}

Así, si evaluamos al polinomio $\chi_A$ en la matriz $A$ tenemos que calcular

\begin{align*}
\chi_A(A)= A^2+I_2.
\end{align*}

Por un lado

\begin{align*}
A^2=\begin{pmatrix} 0 & 1\\ -1 & 0\end{pmatrix}\cdot \begin{pmatrix} 0 & 1 \\ -1 & 0\end{pmatrix}=\begin{pmatrix} -1 &0 \\ 0 & -1\end{pmatrix}=-I_2.
\end{align*}

Luego

\begin{align*}
\chi_A(A)=A^2+I_2= -I_2+I_2=O_2.
\end{align*}

Es decir, ¡$\chi_A(A)$ es la matriz cero!

$\square$

Ejemplo. Calculemos el polinomio característico de la matriz $A\in M_3(\mathbb{R})$ dónde $A$ está dada por

\begin{align*}
A=\begin{pmatrix}
0 & -1 & -2\\ 0 & 3 &4\\ 0 & 0 & -5.
\end{pmatrix}
\end{align*}

Notamos que $A$ es una matriz triangular superior. Por una entrada anterior sabemos que el polinomio característico es solo el producto de los monomios $(X-a_{ii})$. Es decir

\begin{align*}
\chi_A(X)=(X-0)(X-3)(X-(-5))= X(X-3)(X+5).
\end{align*}

Enseguida, evaluemos $\chi_A(A)$. Recordamos que esto quiere decir que tenemos que calcular

\begin{align*}
\chi_A(A)=A(A-3I_3)(A+5I_3).
\end{align*}

Por un lado

\begin{align*}
A-3I_3=\begin{pmatrix}
-3 & -1 & -2\\ 0 & 0 & 4\\ 0 & 0 & -8
\end{pmatrix},
\end{align*}

y por otro

\begin{align*}
A+5I_3=\begin{pmatrix}
5 & -1 & -2\\ 0 & 8 & 4\\ 0 & 0 &0
\end{pmatrix}.
\end{align*}

Así

\begin{align*}
(A-3I_3)(A+5I_3)&=\begin{pmatrix}
-3 & -1 & -2\\ 0 & 0 & 4\\ 0 & 0 & -8
\end{pmatrix}\cdot \begin{pmatrix}
5 & -1 & -2\\ 0 & 8 & 4\\ 0 & 0 &0
\end{pmatrix}\\ &=\begin{pmatrix} -15 & -5 & -2\\ 0 &0 &0 \\ 0 & 0 &0\end{pmatrix}.
\end{align*}

Finalmente

\begin{align*}
A(A-I_3)(A+5I_3)=\begin{pmatrix}
0 & -1 & -2\\ 0 & 3 &4\\ 0 & 0 & -5.
\end{pmatrix}\cdot \begin{pmatrix} -15 & -5 & -2\\ 0 &0 &0 \\ 0 & 0 &0\end{pmatrix}=O_3.
\end{align*}

Una vez más $\chi_A(A)=0$.

$\square$

El teorema

Los ejemplos anteriores sirven de calentamiento para enunciar el teorema de Cayley-Hamilton, que dice exactamente lo que sospechamos.

Teorema (de Cayley-Hamilton). Para cualquier matriz $A\in M_n(F)$ se cumple

\begin{align*}
\chi_A(A)=O_n.
\end{align*}

En otras palabras, si $\chi_A(X)=X^n+a_{n-1}X^{n-1}+\dots+a_0$ entonces

\begin{align*}
A^{n}+a_{n-1}A^{n-1}+\dots+a_0 I_n=O_n.
\end{align*}

Demostraremos este teorema en la próxima entrada. Uno podría sospechar que la demostración consiste en simplemente sustituir $A$ en la expresión de $\chi_A$ como sigue

\begin{align*}
\chi_A(A)= \det(AI_n-A)=\det(0)=0.
\end{align*}

Sin embargo, esta ‘prueba’ no es correcta, ya que estamos multiplicando a $A$ con $I_n$ como si fueran matrices, mientras que la expresión de $\chi_A$ se refiere a escalares. Más aún, observa como el resultado de la expresión que anotamos es el escalar cero, mientras que sabemos que $\chi_A(A)$ debería ser la matriz cero.

Concluimos esta sección con una breve aplicación del teorema de Cayley-Hamilton.

Proposición. El polinomio mínimo de una matriz $A\in M_n(F)$ divide al polinomio característico.

Demostración. Por el teorema de Cayley-Hamilton, $\chi_A(A)=0$. Luego por definición del polinomio mínimo se sigue que $\mu_A(X)$ divide a $\chi_A(X)$.

$\square$

Más adelante…

En la próxima entrada demostraremos el teorema de Cayley-Hamilton, y luego pasaremos a dar aplicaciones de este.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. En una entrada anterior calculamos el polinomio característico de una matriz nilpotente. Explica por qué el teorema de Cayley-Hamilton es compatible con dicho cálculo. De otra manera, verifica el teorema de Cayley-Hamilton en ese caso particular.
  2. Sea $A\in M_3(\mathbb{R})$ tal que $\operatorname{Tr}(A)=\operatorname{Tr}(A^2)=0$. Usa el teorema de Cayley-Hamilton para demostrar que existe un $\alpha\in \mathbb{R}$ tal que $A^3=\alpha I_3$.
  3. Calcula el polinomio característico de $A\in M_2(\mathbb{C})$ donde
    \begin{align*}
    A=\begin{pmatrix} 0 & -1\\ 1 & 0\end{pmatrix}.
    \end{align*}
    Es decir, $A$ es la misma matriz que en el ejemplo pero pensada como una matriz compleja. Verifica que $\chi_A(A)=O_2$.
  4. Verifica que $\chi_A(A)=O_3$ con
    \begin{align*}
    A= \begin{pmatrix} 1 & 0 & -1\\ 1 & 1 & 1 \\ 0 & 2 & 1\end{pmatrix}\in M_3(\mathbb{R}).
    \end{align*}
  5. Sea $A\in M_n(\mathbb{R})$ una matriz tal que $A$ y $3A$ son similares. Demuestra que $A^n=O_n$.

Entradas relacionadas