Archivo de la etiqueta: polinomio mínimo

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz $A$ en $M_n(F)$ tiene polinomio característico $$\chi_A(x)=x^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0.$$ Como $a_0=\det(A)$, si $a_0=0$ entonces la matriz no es invertible. Supongamos entonces que $a_0\neq 0$. Por el teorema de Cayley-Hamilton tenemos que $$A^n+a_{n-1}A^{n-1}+\ldots+a_1A+a_0I_n=O_n.$$ De aquí podemos despejar la matriz identidad como sigue:

\begin{align*}
I_n&=-\frac{1}{a_0}\left( A^n+a_{n-1}A^{n-1}+\ldots+a_1A \right)\\
&=-\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right) A.
\end{align*}

Estos cálculos muestran que la inversa de $A$ es la matriz $$ -\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-1}+\ldots+a_1 I\right).$$

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz $$A=\begin{pmatrix} 2 & 2 & 0 \\ 0 & -1 & 0 \\ 1 & 1 & 1 \end{pmatrix}.$$ Su polinomio característico es $\lambda^3-2\lambda^2 – \lambda +2$. Usando la fórmula de arriba, tenemos que

$$A^{-1}=-\frac{1}{2}(A^2-2A-I).$$

Necesitamos entonces $A^2$, que es:

$$A^2=\begin{pmatrix} 4 & 2 & 0 \\ 0 & 1 & 0 \\ 3 & 2 & 1 \end{pmatrix}.$$

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

$$A^{-1}=\begin{pmatrix} \frac{1}{2} & 1 & 0 \\ 0 & -1 & 0 \\ -\frac{1}{2} & 0 & 1\end{pmatrix}.$$

Puedes verificar que en efecto esta es la inversa de $A$ realizando la multiplicación correspondiente.

$\square$

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si $A$ es una matriz con entradas en los enteros y determinante $1$ ó $-1$, entonces $A^{-1}$ tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor $\lambda$ ya vimos que $\lambda$ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor $x-\lambda$ en el polinomio mínimo para cada eigenvalor $\lambda$.

Ejemplo. Encontramos el polinomio mínimo de la siguiente matriz:

$$B=\begin{pmatrix} 2 & 0 & 4 \\ 3 & -1 & -1 \\0 & 0 & 2 \end{pmatrix}.$$

Una cuenta estándar muestra que el polinomio característico es $(x-2)^2(x+1)$. El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor $(x-2)$ y un factor $(x+1)$. Sólo hay dos polinomios con esas condiciones: $(x-2)(x+1)$ y $(x-2)^2(x+1)$. Si $(x-2)(x+1)$ anula a $B$, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

\begin{align*}
(B-2I_3)(B+I_3)&=\begin{pmatrix}0 & 0 & 4 \\ 3 & -3 & -1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 3 & 0 & 4 \\ 3 & 0 & -1 \\ 0 & 0 & 3 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 12 \\ 0 & 0 & 12 \\ 0 & 0 & 0 \end{pmatrix}.
\end{align*}

Así, $(x-2)(x+1)$ no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico $(x-2)^2(x+1)$.

$\square$

Ejemplo. Consideremos la matriz $C=\begin{pmatrix} 3 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix}$. Su polinomio característico es $(x-3)^3$. Así, su polinomio mínimo es $x-3$, $(x-3)^2$ ó $(x-3)^3$. Nos damos cuenta rápidamente que $x-3$ sí anula a la matriz pues $A-3I_3=O_3$. De este modo, el polinomio mínimo es $x-3$.

$\square$

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en $M_n(\mathbb{R})$ que son su propia inversa? La condición algebraica es $A^2=I_2$. Si el polinomio característico de $A$ es $x^2+bx+c$, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que $O_2=A^2+bA+cI_2=bA+(c+1)I_2$. De aquí tenemos un par de casos:

  • Si $b\neq 0$, podemos despejar a $A$ como $A=-\frac{c+1}{b}I_2$, es decir $A$ debe ser un múltiplo de la identidad. Simplificando la notación, $A=xI_2$. Así, la condición $A^2=I_2$ se convierte en $x^2I_2=I_2$, de donde $x^2=1$ y por lo tanto $x=\pm 1$. Esto nos da las soluciones $A=I_2$ y $A=-I_2$.
  • Si $b=0$, entonces $O_2=(c+1)I_2$, de donde $c=-1$. De este modo, el polinomio característico es $x^2-1=(x+1)(x-1)$. Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$, y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz $\begin{pmatrix}-3 & 1 & 0 & 0 \\ 0 & -3 & 0 & 0 \\ 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 2\end{pmatrix}$
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & -1 & 2\\ 2 & 2 & 1 \end{pmatrix}.$$
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es $1$ ó $-1$.
  4. ¿Cómo son todas las matrices en $M_2(\mathbb{R})$ tales que $A^2=A$?
  5. ¿Cómo son todas las matrices en $M_3(\mathbb{R})$ de determinante $0$ tales que $A^3=O_3$?

Entradas relacionadas

Álgebra Lineal II: Caracterizaciones de diagonalizar

Por Julio Sampietro

Introducción

Ya dimos la definición de que una matriz sea diagonalizable y encontramos buenas razones para, dada una matriz, intentar encontrar una matriz similar que sea diagonal. En esta entrada enunciaremos y demostaremos un teorema de caracterización de matrices diagonalizables, el cual nos ayudará a entender con más profundidad la diagonalizabilidad.

El teorema de caracterización

El teorema principal de esta entrada es el siguiente.

Teorema. Sea $V$ un espacio de dimensión finita sobre $F$ y $T:V\to V$ una transformación lineal. Las siguientes afirmaciones son equivalentes.

  1. $T$ es diagonalizable.
  2. Existe un polinomio $P\in F[X]$ que se divide sobre $F$ y tiene raíces distintas dos a dos, tal que $P(T)=0$.
  3. El polinomio mínimo $\mu_T$ de $T$ se divide sobre $F$ y tiene raíces distintas dos a dos.
  4. Sea $\operatorname{Sp}(T)\subset F$ el conjunto de eigenvalores de $T$. Entonces
    \begin{align*}
    \bigoplus_{\lambda \in \operatorname{Sp}(T)} \ker (T-\lambda \cdot \operatorname{Id})=V.
    \end{align*}

Demostración. Demostremos primero que $1$ implica $2$. Escogemos una base en la que $T$ se represente por una matriz diagonal $D$. Sea $P$ el polinomio cuyas raíces son las diferentes entradas de la diagonal de $D$. Entonces $P(T)$ está representada por la matriz diagonal $P(D)$ con entradas $P(d_{ii})=0$. Es decir $P(T)=0$.

Que $2$ implica $3$ se sigue de la definición del polinomio mínimo: si $P$ cumple $2$, entonces $\mu_T$ divide a $P$ y por tanto cumple $3$.

La implicación $3\Rightarrow 4$ es consecuencia del último teorema de la entrada anterior aplicado a $P=\mu_T$ y los factores lineales siendo los $P_i$.

Finalmente veamos que $4$ implica $1$. Sea $\operatorname{Sp}(T)=\{\lambda_1,\dots, \lambda_k\}$ y sea $v_1,\dots v_n$ una base de $V$ obtenida al pegar una base de $\ker(T-\lambda_1\cdot \operatorname{Id})$ a una base de $\ker(T-\lambda_2\cdot \operatorname{Id})$ y a una base de $\ker(T-\lambda_3 \cdot \operatorname{Id})$ y así sucesivamente hasta pegar una base de $\ker(T-\lambda_n\cdot \operatorname{Id})$. Entonces $v_1,\dots, v_n$ es una base de eigenvectores de $V$ y por tanto se cumple $1$.

$\square$

Consecuencias del teorema

Hacemos algunas observaciones que son consecuencia del teorema anterior.

Observación. Si $T$ es una transformación lineal diagonalizable, entonces el polinomio mínimo de $T$ es

\begin{align*}
\mu_T(X)=\prod_{\lambda \in \operatorname{Sp}(T)} (X-\lambda)
\end{align*}

dónde el producto se toma sobre todos los valores propios, contados sin multiplicidad. El mismo producto pero tomado con multiplicidades rinde el polinomio característico de $T$.

Observación. Si $T$ es cualquier transformación lineal en un espacio vectorial de dimensión finita entonces $T$ es diagonalizable si y sólo si la suma de las dimensiones de los eigenespacios coincide con la dimensión de $V$, es decir si

\begin{align*}
\sum_{\lambda \in \operatorname{Sp}(T)}\dim \ker (T-\lambda \cdot \operatorname{Id})=\dim V.
\end{align*}

Observación. Supongamos que $T$ es diagonalizable. Para cada $\lambda\in \operatorname{Sp}_T$ sea $\pi_{\lambda}$ la proyección al subespacio $\ker(T-\lambda\cdot \operatorname{Id})$. Entonces

\begin{align*}
T=\sum_{\lambda\in \operatorname{Sp}(T)} \lambda \pi_{\lambda}.
\end{align*}

Esto se sigue de la descomposición $\bigoplus_{\lambda \in \operatorname{Sp}(T)} \ker (T-\lambda \cdot \operatorname{Id})=V$ y que si

\begin{align*}
v=\sum_{\lambda \in \operatorname{Sp}(T)} v_{\lambda}, v_{\lambda}\in \ker(T-\lambda\cdot \operatorname{Id}),
\end{align*}

entonces

\begin{align*}
T(v)=\sum_{\lambda \in \operatorname{Sp}(T)} T(v_{\lambda})=\sum_{\lambda \in \operatorname{Sp}(T)} \lambda v_{\lambda}= \sum_{\lambda \in \operatorname{Sp}(T)} \lambda \pi_{\lambda}(v).
\end{align*}

Finalmente enunciamos el teorema que demostramos en su forma matricial (que es ciertamente una consecuencia del teorema para transformaciones lineales).

Teorema. Sea $A\in M_n(F)$. Entonces las siguientes afirmaciones son equivalentes.

  1. $A$ es diagonalizable en $M_n(F)$.
  2. Si $\operatorname{Sp}(A)$ es el conjunto de eigenvalores de $A$, entonces
    \begin{align*}
    \bigoplus_{\lambda \in \operatorname{Sp}(A)}\ker(\lambda \cdot I_n-A)=F^{n}.
    \end{align*}
  3. El polinomio mínimo $\mu_A$ de $A$ se divide sobre $F$ con raíces distintas dos a dos.
  4. Existe un polinomio $P\in F[X]$ que se divide sobre $F$ con raíces distintas dos a dos tal que $P(A)=O_n$.

Problemas para practicar

Terminamos esta entrada con unos cuantos problemas para aplicar los resultados vistos.

Problema. Considera la matriz

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0\\ 0 & 0 & 1\\ 1 & 0 & 0\end{pmatrix}.
\end{align*}

¿Es $A$ diagonalizable en $M_3(\mathbb{C})$? ¿ En $M_3(\mathbb{R})$?

Solución. El polinomio característico de $A$ está dado por $\chi_A(X)=X^3-1$. Este polinomio se divide sobre $\mathbb{C}$ con raíces distintas, ya que tenemos $3$ soluciones dadas por las raíces de la unidad. Por el teorema de Cayley-Hamilton sabemos que $\chi_A(A)=O_3$. Usando el teorema de esta entrada concluimos que $A$ es diagonalizable sobre $\mathbb{C}$.

Sin embargo, dado que el polinomio característico no se divide sobre $\mathbb{R}$ podemos deducir que $A$ no es diagonalizable en $M_3(\mathbb{R})$.

$\square$

Problema. ¿Es la matriz

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0\\ -4 & 4 & 0\\ -2 & 1 & 2\end{pmatrix}\in M_3(\mathbb{R})
\end{align*}

diagonalizable?

Solución. Comenzamos calculando el polinomio característico de $A$:

\begin{align*}
\chi_A(X)=\begin{vmatrix} X & -1 & 0 \\ 4 & X-4 & 0 \\ 2 & -1 &X-2\end{vmatrix}
&=(X-2)\begin{vmatrix} X & -1\\ 4 & X-4\end{vmatrix} \\
&= (X-2)(X^2-4X+4)\\
&= (X-2)^3.
\end{align*}

Por tanto $2$ es un eigenvalor con multiplicidad algebraíca $3$. Si $A$ fuese diagonalizable, entonces $2$ tendría multiplicidad geométrica $3$, es decir $\ker(A-2I_3)$ sería $3$-dimensional: ¡pero entonces sería todo $\mathbb{R}^3$! Esto implicaría que $A-2I_3=0$, de otra manera que $A=2I_3$, lo que claramente no es cierto.

$\square$

Más adelante…

En las siguientes entradas estudiaremos formas bilineales, lo que forma el segundo bloque del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para repasar lo visto en esta entrada.

  1. Encuentra todos los valores de $a\in \mathbb{R}$ tales que la matriz
    \begin{align*}
    A=\begin{pmatrix} 2 & 1 &-2\\ 1 & a & -1\\ 1 & 1 & -1\end{pmatrix}\in M_3(\mathbb{R})
    \end{align*}
    sea diagonalizable.
  2. Explicita el por qué el teorema para operadores lineales implica el teorema para matrices.
  3. Calcula la $n$-ésima potencia de
    \begin{align*}
    A=\begin{pmatrix}
    1 & 3 & 3\\ 3 & 1 & 3\\ 3 & 3 & 1
    \end{pmatrix}.
    \end{align*}
    Sugerencia. Diagonaliza a $A$.
  4. Demuestra que si $T:V\to V$ es una transformación lineal con $V$ un espacio vectorial de dimensión finita sobre $\mathbb{C}$ tal que $T^2$ diagonalizable y $\ker T=\ker T^2$ entonces $T$ es diagonalizable.
  5. Si $V$ es un espacio de dimensión finita sobre $F$ y $T:V\to V$ es una transformación lineal diagonalizable fija, entonces cualquier otra transformación lineal $S:V\to V$ satisface $S\circ T=T\circ S$ si y sólo si $S$ deja invariante cada eigenespacio de $T$.

Entradas relacionadas

Álgebra Lineal II: Introducción al teorema de Cayley-Hamilton

Por Julio Sampietro

Introducción

En esta entrada introducimos el teorema de Cayley-Hamilton, otro de los teoremas importantes del curso. Intuitivamente este teorema nos dice que «el polinomio característico anula al operador lineal». Es decir, si $P(\lambda)$ es el polinomio característico de una transformación lineal $T$, entonces $P(T)=0$.

Algunos ejemplos

Damos unos cuantos ejemplos para que entendamos que está pasando.

Ejemplo. Sea $A\in M_2(\mathbb{R})$ la matriz dada por

\begin{align*}
A=\begin{pmatrix} 0 & -1\\ 1 & 0
\end{pmatrix}.
\end{align*}

Calculemos su polinomio característico

\begin{align*}
\chi_A(X)=\det \begin{pmatrix} X & 1\\ -1 & X\end{pmatrix}=X^2+1.
\end{align*}

Así, si evaluamos al polinomio $\chi_A$ en la matriz $A$ tenemos que calcular

\begin{align*}
\chi_A(A)= A^2+I_2.
\end{align*}

Por un lado

\begin{align*}
A^2=\begin{pmatrix} 0 & 1\\ -1 & 0\end{pmatrix}\cdot \begin{pmatrix} 0 & 1 \\ -1 & 0\end{pmatrix}=\begin{pmatrix} -1 &0 \\ 0 & -1\end{pmatrix}=-I_2.
\end{align*}

Luego

\begin{align*}
\chi_A(A)=A^2+I_2= -I_2+I_2=O_2.
\end{align*}

Es decir, ¡$\chi_A(A)$ es la matriz cero!

$\square$

Ejemplo. Calculemos el polinomio característico de la matriz $A\in M_3(\mathbb{R})$ dónde $A$ está dada por

\begin{align*}
A=\begin{pmatrix}
0 & -1 & -2\\ 0 & 3 &4\\ 0 & 0 & -5.
\end{pmatrix}
\end{align*}

Notamos que $A$ es una matriz triangular superior. Por una entrada anterior sabemos que el polinomio característico es solo el producto de los monomios $(X-a_{ii})$. Es decir

\begin{align*}
\chi_A(X)=(X-0)(X-3)(X-(-5))= X(X-3)(X+5).
\end{align*}

Enseguida, evaluemos $\chi_A(A)$. Recordamos que esto quiere decir que tenemos que calcular

\begin{align*}
\chi_A(A)=A(A-3I_3)(A+5I_3).
\end{align*}

Por un lado

\begin{align*}
A-3I_3=\begin{pmatrix}
-3 & -1 & -2\\ 0 & 0 & 4\\ 0 & 0 & -8
\end{pmatrix},
\end{align*}

y por otro

\begin{align*}
A+5I_3=\begin{pmatrix}
5 & -1 & -2\\ 0 & 8 & 4\\ 0 & 0 &0
\end{pmatrix}.
\end{align*}

Así

\begin{align*}
(A-3I_3)(A+5I_3)&=\begin{pmatrix}
-3 & -1 & -2\\ 0 & 0 & 4\\ 0 & 0 & -8
\end{pmatrix}\cdot \begin{pmatrix}
5 & -1 & -2\\ 0 & 8 & 4\\ 0 & 0 &0
\end{pmatrix}\\ &=\begin{pmatrix} -15 & -5 & -2\\ 0 &0 &0 \\ 0 & 0 &0\end{pmatrix}.
\end{align*}

Finalmente

\begin{align*}
A(A-I_3)(A+5I_3)=\begin{pmatrix}
0 & -1 & -2\\ 0 & 3 &4\\ 0 & 0 & -5.
\end{pmatrix}\cdot \begin{pmatrix} -15 & -5 & -2\\ 0 &0 &0 \\ 0 & 0 &0\end{pmatrix}=O_3.
\end{align*}

Una vez más $\chi_A(A)=0$.

$\square$

El teorema

Los ejemplos anteriores sirven de calentamiento para enunciar el teorema de Cayley-Hamilton, que dice exactamente lo que sospechamos.

Teorema (de Cayley-Hamilton). Para cualquier matriz $A\in M_n(F)$ se cumple

\begin{align*}
\chi_A(A)=O_n.
\end{align*}

En otras palabras, si $\chi_A(X)=X^n+a_{n-1}X^{n-1}+\dots+a_0$ entonces

\begin{align*}
A^{n}+a_{n-1}A^{n-1}+\dots+a_0 I_n=O_n.
\end{align*}

Demostraremos este teorema en la próxima entrada. Uno podría sospechar que la demostración consiste en simplemente sustituir $A$ en la expresión de $\chi_A$ como sigue

\begin{align*}
\chi_A(A)= \det(AI_n-A)=\det(0)=0.
\end{align*}

Sin embargo, esta ‘prueba’ no es correcta, ya que estamos multiplicando a $A$ con $I_n$ como si fueran matrices, mientras que la expresión de $\chi_A$ se refiere a escalares. Más aún, observa como el resultado de la expresión que anotamos es el escalar cero, mientras que sabemos que $\chi_A(A)$ debería ser la matriz cero.

Concluimos esta sección con una breve aplicación del teorema de Cayley-Hamilton.

Proposición. El polinomio mínimo de una matriz $A\in M_n(F)$ divide al polinomio característico.

Demostración. Por el teorema de Cayley-Hamilton, $\chi_A(A)=0$. Luego por definición del polinomio mínimo se sigue que $\mu_A(X)$ divide a $\chi_A(X)$.

$\square$

Más adelante…

En la próxima entrada demostraremos el teorema de Cayley-Hamilton, y luego pasaremos a dar aplicaciones de este.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. En una entrada anterior calculamos el polinomio característico de una matriz nilpotente. Explica por qué el teorema de Cayley-Hamilton es compatible con dicho cálculo. De otra manera, verifica el teorema de Cayley-Hamilton en ese caso particular.
  2. Sea $A\in M_3(\mathbb{R})$ tal que $\operatorname{Tr}(A)=\operatorname{Tr}(A^2)=0$. Usa el teorema de Cayley-Hamilton para demostrar que existe un $\alpha\in \mathbb{R}$ tal que $A^3=\alpha I_3$.
  3. Calcula el polinomio característico de $A\in M_2(\mathbb{C})$ donde
    \begin{align*}
    A=\begin{pmatrix} 0 & -1\\ 1 & 0\end{pmatrix}.
    \end{align*}
    Es decir, $A$ es la misma matriz que en el ejemplo pero pensada como una matriz compleja. Verifica que $\chi_A(A)=O_2$.
  4. Verifica que $\chi_A(A)=O_3$ con
    \begin{align*}
    A= \begin{pmatrix} 1 & 0 & -1\\ 1 & 1 & 1 \\ 0 & 2 & 1\end{pmatrix}\in M_3(\mathbb{R}).
    \end{align*}
  5. Sea $A\in M_n(\mathbb{R})$ una matriz tal que $A$ y $3A$ son similares. Demuestra que $A^n=O_n$.

Entradas relacionadas

Álgebra Lineal II: Polinomio característico

Por Julio Sampietro

Introducción

En el transcurso de esta unidad hemos construido varios de los objetos algebraicos que nos interesan. En primer lugar, dejamos claro qué quería decir evaluar un polinomio en una matriz o transformación lineal. Esto nos llevó a preguntarnos por aquellos polinomios que anulan a una matriz o transformación lineal. De manera natural, descubrimos que aquellos polinomios que anulan son múltiplos de un polinomio especial asociado a la matriz o transformación lineal llamado polinomio mínimo.

De manera un poco separada, comenzamos a estudiar los eigenvalores, eigenvectores y eigenespacios de una transformación lineal y en la entrada anterior nos enfocamos en varias de sus propiedades principales. Uno de los resultados clave que encontramos es que los eigenvalores de una matriz o transformación lineal son las raíces del polinomio mínimo que estén en el campo en el que estemos trabajando.

Aunque este resultado sea interesante de manera teórica, en la práctica debemos hacer algo diferente pues no es tan sencillo encontrar el polinomio mínimo de una matriz o transformación lineal. Es por esto que ahora estudiaremos con profundidad otro objeto que resultará fundamental en nuestro estudio: el polinomio característico. Ya nos encontramos con él anteriormente. Si $A$ es una matriz en $M_n(F)$, dicho polinomio en la variable $\lambda$ es el determinante $\det(\lambda I_n-A)$.

Esta entrada es más bien una introducción, así que nos enfocaremos en probar las cosas más básicas de este objeto. Lo primero, y más importante, es verificar que en efecto es un polinomio (y con ciertas características específicas). También, aprovecharemos para calcularlo en varios contextos (y campos) diferentes.

Definición de polinomio característico

Comencemos con una matriz $A\in M_n(F)$. Vimos que encontrar los eigenvalores de $A$ se reduce a encontrar las soluciones de la ecuación

\begin{align*}
\det(\lambda I_n-A)=0
\end{align*}

en $F$. Vamos a estudiar más a detalle la expresión de la izquierda.

El siguiente teorema va un poco más allá y de hecho estudia expresiones un poco más generales.

Teorema. Sean $A,B\in M_n(F)$ dos matrices. Existe un polinomio $P\in F[X]$ tal que para todo $x\in F$ se cumple

\begin{align*}
P(x)=\det(xA+B).
\end{align*}

Si denotamos a este polinomio por $P(X)=\det(XA+B)$, entonces

\begin{align*}
\det(XA+B)=\det(A)X^{n}+\alpha_{n-1}X^{n-1}+\dots+\alpha_1 X+\det B
\end{align*}

para algunas expresiones polinomiales $\alpha_1,\dots, \alpha_{n-1}$ con coeficientes enteros en las entradas de $A$ y $B$.

Demostración. Consideremos el siguiente polinomio en la variable $X$ y coeficientes en $F$, es decir, el siguiente polinomio en $F[X]$:

\begin{align*}
P(X)=\sum_{\sigma\in S_n} \operatorname{sign}(\sigma)\left(a_{1\sigma(1)} X+b_{1\sigma(1)}\right)\cdots \left(a_{n\sigma(n)}X+b_{n\sigma(n)}\right).
\end{align*}

Por construcción, $P$ es un polinomio cuyos coeficientes son expresiones polinomiales enteras en las entradas de $A$ y $B$. Más aún, se cumple que $P(x)=\det(xA+B)$ para $x\in F$ (podría ser útil revisar la entrada sobre determinantes para convencerte de ello). El término constante lo obtenemos al evaluar en $X=0$, pero eso no es más que $P(0)=\det(0\cdot A+B)=\det(B)$. Finalmente para cada $\sigma\in S_n$ tenemos que el primer término de cada sumando es

\begin{align*}
\operatorname{sign}(\sigma)(a_{1\sigma(1)}X+b_{1\sigma(1)})\cdots (a_{n\sigma(n)} X+b_{n\sigma(n)})
\end{align*}

Notemos que la única manera de obtener un término $X^n$ en esta expresión es cuando en cada binomio que se está multiplicando se usa el término $X$. Así, el coeficiente de $X^n$ es $\operatorname{sign}(\sigma) a_{1\sigma(1)}\cdots a_{n\sigma(n)}X^{n}$.

Agrupando todos los sumandos para todas las $\sigma$ y comparando con la definición del determinante llegamos a que $$P(X)=\det(A)X^{n}+\ldots,$$ es decir el término de orden $n$ es en efecto $\det(A)$.

$\square$

Del teorema se sigue que si $A$ y $B$ tienen entradas enteras o racionales, $\det(XA+B)$ tiene coeficientes enteros o racionales respectivamente.

Enseguida podemos definir (gracias al teorema) el siguiente objeto:

Definición. El polinomio característico de la matriz $A\in M_n(F)$ es el polinomio $\chi_A\in F[X]$ definido por

\begin{align*}
\chi_A(X)=\det(X\cdot I_n-A).
\end{align*}

Una observación inmediata es que, de acuerdo al teorema, el coeficiente principal de $\chi_A(X)$ tiene coeficiente $\det(I_n)=1$. En otras palabras, acabamos de demostrar la siguiente propiedad fundamental del polinomio característico.

Proposición. El polinomio característico de una matriz en $M_n(F)$ siempre tiene grado exactamente $n$ y además es un polinomio mónico, es decir, que el coeficiente que acompaña al término de grado $n$ es igual a $1$.

Veamos un ejemplo sencillo.

Ejemplo. Si queremos calcular el polinomio característico de

\begin{align*}
A=\begin{pmatrix} 1 & -1\\ 1 &0\end{pmatrix}\in M_2(\mathbb{R})
\end{align*}

entonces usamos la definición

\begin{align*}
\chi_A(X)&=\det(X\cdot I_2-A)\\&=\begin{vmatrix} X-1 & 1\\ -1 & X\end{vmatrix}\\&= X(X-1)+1.
\end{align*}

Y así los eigenvalores de $A$ son las raíces reales de $\chi_A(X)$. Es decir, tenemos que resolver

\begin{align*} 0=x(x-1)+1=x^2-x+1.\end{align*}

Sin embargo, el discriminante de esta ecuación cuadrática es $(-1)^2-4(1)(1)=-3$, el cual es un real negativo, por lo que no tenemos eigenvalores reales. Si estuviéramos trabajando en $\mathbb{C}$ tendríamos dos eigenvalores complejos:

\begin{align*}
x_{1,2}= \frac{1\pm i\sqrt{3}}{2}.
\end{align*}

De aquí, ¿cómo encontramos los eigenvectores y eigenespacios? Basta con resolver los sistemas lineales homogéneos de ecuaciones $(A-x_1I_2)X=0$ para encontrar el $x_1$-eigenespacio y $(A-x_2)X=0$ para encontrar el $x_2$-eigenespacio.

$\square$

Algunos cálculos de polinomios característicos

Ya que calcular polinomios característicos se reduce a calcular determinantes, te recomendamos fuertemente que recuerdes las propiedades que tienen los determinantes. Sobre todo, aquellas que permiten calcularlos.

¡A calcular polinomios característicos!

Problema. Encuentra el polinomio característico y los eigenvalores de $A$ dónde $A$ es

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0 & 0\\
2 & 0 & -1 & 0\\
0 & 7 & 0 &6\\
0 & 0 & 3 & 0
\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. Usamos la expansión de Laplace respecto al primer renglón:

\begin{align*}
\chi_A(X)&=\det(XI_4-A)\\&= \begin{vmatrix}
X & -1 & 0 & 0\\
-2 & X & 1 & 0\\
0 & -7 & X & -6\\
0 & 0 & -3 & X\end{vmatrix}\\
&= X\begin{vmatrix} X & 1 & 0\\ -7 & X & -6\\ 0 & -3 & X\end{vmatrix}+ \begin{vmatrix}
-2 & 1 & 0\\ 0 & X& -6\\ 0 &-3 & X\end{vmatrix}\\
&= X(X^3-11X)-2(X^2-18)\\
&= X^4-13X^2+36.
\end{align*}

Después, para encontrar los eigenvalores de $A$ tenemos que encontrar las raíces reales de la ecuación

\begin{align*}
x^4-13x^2+36=0.
\end{align*}

Sin embargo, no hay que desalentarse por ver una ecuación de grado $4$. Si hacemos el cambio $y=x^2$ podemos llevar nuestro problema a resolver

\begin{align*}
y^2-13y+36=0.
\end{align*}

¡Es una ecuación de segundo orden! Esta la podemos resolver usando ‘la chicharronera’ y obtenemos como soluciones $y_1=4$ y $y_2=9$. Pero todavía tenemos que resolver $x^2=y_1$ y $x^2=y_2$. Al resolver estas últimas dos ecuaciones obtenemos que $x=\pm 2,\pm 3$ son los eigenvalores de $A$.

$\square$

Problema. Calcula el polinomio característico y los eigenvalores de la matriz

\begin{align*}
A=\begin{pmatrix} 1 & 0 & 1\\ 1 & 1 & 0\\ 1 & 0 &1 \end{pmatrix}\in M_3(F_2).
\end{align*}

Solución. Nota que estamos trabajando en el campo de dos elementos $F_2$, por lo que $-1=1$. Usando la definición:

\begin{align*}
\chi_A(X)&=\det(XI_3-A)\\&= \begin{vmatrix} X-1 & 0 & -1\\ -1 & X-1 & 0\\ -1 & 0 &X-1\end{vmatrix}\\
&= \begin{vmatrix} X+1 & 0 & 1\\ 1 & X+1& 0 \\ 1 & 0 &X+1\end{vmatrix}.
\end{align*}

Aquí estamos usando repetidamente $-1=1$. Usamos otra vez la expansión de Laplace en el primer renglón para llegar a

\begin{align*}
\chi_A(X)&= (X+1)\begin{vmatrix} X+1 & 0 \\ 0 & X+1\end{vmatrix}+\begin{vmatrix} 1 & X+1\\ 1 & 0\end{vmatrix}\\
&= (X+1)^3-(X+1).
\end{align*}

Luego, si queremos encontrar los eigenvalores de $A$ tenemos que resolver

\begin{align*}
(x+1)^3-(x+1)=0.
\end{align*}

Si bien existen varias maneras de resolver la ecuación, podemos simplemente sustituir los únicos valores posibles de $x$ : $0$ o $1$. Sustituyendo es fácil ver que ambos satisfacen la ecuación, por lo que los eigenvalores de $A$ son $0$ y $1$.

$\square$

Más adelante…

En la próxima entrada calcularemos el polinomio característico de una variedad de matrices importantes: triangulares superiores, nilpotentes, etc. Esto nos permitirá entender mejor al polinomio característico y lidiar con muchos casos para facilitarnos los cálculos más adelante.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que $0$ es un eigenvalor de una matriz $A$ si y sólo si $\det(A)=0$.
  • ¿Una matriz compleja de tamaño $n$ tiene necesariamente $n$ eigenvalores distintos?
  • Calcular el polinomio característico y los eigenvalores de
    \begin{align*}A=\begin{pmatrix} 1 & 2 & 0\\ 0 & 1 &2\\ 2 & 0 & 1\end{pmatrix}\in M_3(F_3).
    \end{align*}
  • Usando la fórmula del determinante para matrices de tamaño $2$, encuentra un criterio simple para saber si una matriz con entradas reales de tamaño $2$ tiene dos, uno o ningún eigenvalor real.
  • Da un criterio simple para saber si una matriz de tamaño $2$ con entradas complejas tiene eigenvalores puramente imaginarios.

Entradas relacionadas

Álgebra Lineal II: Propiedades de eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En la entrada anterior platicamos acerca de eigenvectores, eigenvalores y eigenespacios de matrices y transformaciones lineales. Vimos algunos ejemplos básicos. En esta entrada profundizaremos en el estudio de estos objetos y exploraremos diversas de sus propiedades. Comenzaremos con algunas observaciones inmediatas. Después, veremos cómo encontrar de manera sencilla los eigenvalores de las matrices triangulares superiores. También veremos que «eigenvectores correspondientes a eigenvalores diferentes son linealmente independientes«. Finalmente, conectaremos estas nuevas ideas con un objeto que estudiamos previamente: el polinomio mínimo.

Primeras observaciones

A partir de la proposición de la entrada anterior que nos dice cómo calcular eigenvalores se desprenden algunas consecuencias sencillas pero útiles.

Por ejemplo, recuerda que el determinante de una matriz y su transpuesta es igual. En particular, si $A\in M_n(F)$ entonces

\begin{align*}
\det(\lambda I_n -\ ^{t}A)= \det(\ ^{t}(\lambda I_n- A))= \det(\lambda I_n-A).
\end{align*}

Luego $\det (\lambda I_n-A)=0$ si y sólo si $\det(\lambda I_n-\ ^{t}A)=0$. Recordando que las raíces de estos polinomios son precisamente los eigenvalores, se sigue que los eigenvalores de $A$ y $^{t}A$ son iguales.

Por otro lado, como los eigenvalores son las raíces de un polinomio de grado $n$, sabemos que hay a lo más $n$ soluciones. Entonces toda matriz tiene a lo más $n$ eigenvalores.

Esto también ocurre para transformaciones lineales en espacios de dimensión finita y lo podemos enunciar como sigue:

Corolario. Sea $V$ un espacio de dimensión finita sobre $F$ y $T:V\to V$ lineal. Entonces $T$ tiene a lo más $\dim V$ eigenvalores distintos.

Sin embargo, si el espacio no es de dimensión finita no podemos hacer tal afirmación. Si $V$ es el espacio de todas las funciones suaves (es decir con derivadas de todos los órdenes) de $\mathbb{R}$ en $\mathbb{R}$ y $T:V\to V$ es la función lineal que a cada función la manda en su derivada, entonces tenemos «muchos» eigenvalores. Haciendo esto más preciso, para cada real $r$ la función $e^{rx}$ es un eigenvector con eigenvalor $r$ puesto que

\begin{align*}
T(e^{rx})= \left(e^{rx}\right)’= re^{rx}.
\end{align*}

Así, tenemos al menos tantos eigenvalores como números reales. De hecho, estos son exactamente los eigenvalores de $T$, lo cual puede demostrarse mediante el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales, que estudiarás en otro momento de tu formación matemática.

Matrices triangulares superiores

Parte del interés de «triangular» matrices (es decir, encontrar una matriz similar que sea triangular superior) está dada por la facilidad de calcular sus eigenvalores. Exploramos esto mediante los siguientes dos problemas.

Problema. Sea $A=[a_{ij}]$ una matriz triangular superior en $M_n(F)$. Demuestra que los eigenvalores de $A$ son precisamente los elementos en la diagonal.

Solución. Ya establecimos que encontrar los valores propios se reduce a encontrar las raíces del polinomio $\det(\lambda I_n-A)$. Notamos que si $A$ es triangular superior, entonces $\lambda I_n-A$ también es triangular superior. Más aún, las entradas de la diagonal son simplemente $\lambda-a_{ii}$. Pero sabemos que el determinante de una matriz triangular superior es el producto de sus entradas diagonales. Así

\begin{align*}
\det(\lambda I_n -A)= (\lambda-a_{11})(\lambda-a_{22})\cdots (\lambda -a_{nn})
\end{align*}

cuyas raíces son exactamente los elementos $a_{ii}$.

$\square$

Podemos combinar el resultado anterior con otras propiedades de matrices triangulares superiores para resolver a mano algunos problemas que de entrada parecen complicados.

Problema. Encuentra los eigenvalores de $A^{3}$ donde

\begin{align*}
A=\begin{pmatrix} 1 & 2 &3 &4 \\ 0 & 5 & 6 & 7\\ 0 & 0 & 8 & 9\\ 0 &0 &0 & 10\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. En realidad no hace falta hacer el producto de matrices para encontrar la matriz $A^3$. Sabemos que el producto de dos matrices triangulares superiores es triangular superior y que de hecho las entradas de la diagonal son solo el producto de las entradas correspondientes. Es decir, si $[a_{ij}]$ y $[b_{ij}]$ son dos matrices triangulares superiores, las entradas de la diagonal son $a_{ii}b_{ii}$. En nuestro caso, las entradas de la diagonal son $1^3, 5^3, 8^3$ y $10^3$, y por el problema anterior, estos son precisamente los eigenvalores de $A^3$.

$\square$

Relaciones con independencia lineal y combinaciones polinomiales

El resultado principal de esta entrada es el siguiente teorema, que en particular afirma que si dos eigenvalores son distintos, sus eigenvectores son linealmente independientes. En realidad, el resultado es un poco más general y lo enunciamos a continuación

Teorema. Sean $\lambda_1,\dots, \lambda_k$ eigenvalores distintos dos a dos de una transformación lineal $T:V\to V$. Entonces los $\lambda_i$-eigenespacios están en posición de suma directa.

Demostración. Por definición, tenemos que demostrar que si tenemos una colección $\{v_i\}$ de vectores con $T(v_i)=\lambda_i v_i$ y $v_1+\dots+v_k=0$ entonces $v_1=\dots=v_k=0$. Procedemos por inducción sobre $k$.

Nuestro caso base es una tautología, pues si $k=1$ entonces tenemos que mostrar que si $v_1=0$ entonces $v_1=0$.

Asumamos que el resultado se cumple para $k-1$ y verifiquemos que se cumple para $k$. Supongamos que $v_1+\dots+v_k=0$. Aplicando $T$ de ambos lados de esta igualdad llegamos a

\begin{align*}
T(v_1+\dots+v_k)&= T(v_1)+\dots+T(v_k)\\
&=\lambda_1 v_1+\dots +\lambda _k v_k=0.
\end{align*}

Por otro lado, si multiplicamos a la igualdad $v_1+\dots+v_k=0$ por $\lambda_k$ de ambos lados llegamos a

\begin{align*}
\lambda_k v_1+\dots +\lambda _k v_k=0.
\end{align*}

Sustrayendo y factorizando estas dos igualdades se sigue que

\begin{align*}
(\lambda_k -\lambda_1)v_1+\dots +(\lambda_k-\lambda_{k-1})v_{k-1}=0.
\end{align*}

Esto es una combinación lineal de los primeros $k-1$ vectores $v_i$ igualada a cero. Luego, la hipótesis inductiva nos dice que $(\lambda_k-\lambda_i)v_i=0$ para todo $i=1,\dots, k-1$. Como $\lambda_k\neq \lambda_i$ entonces $\lambda_k-\lambda_i\neq 0$ y entonces $v_i=0$. Sustituyendo en la igualdad original, esto implica que $v_k=0$ inmediatamente.

$\square$

Enseguida veremos que si formamos un polinomio $P(T)$, entonces $P(\lambda)$ es un eigenvalor de $P(T)$ para cualquier eigenvalor $\lambda$ de $T$. Esto lo veremos en el siguiente problema.

Problema. Sea $\lambda$ un eigenvalor de $T:V\to V$ y sea $P$ un polinomio en una variable con coeficientes en $F$. Demuestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

Solución. Como $\lambda$ es un eigenvalor de $T$, existe $v$ un vector no cero tal que $T(v)=\lambda v$. Inductivamente, se cumple que $T^{k}(v)=\lambda^{k} v$. En efecto

\begin{align*}
T^{k+1}(v)&=T(T^{k}(v))\\
&= T(\lambda^{k} v)\\
&= \lambda^{k}T(v)\\
&=\lambda^{k+1}v.
\end{align*}

Usando esto, si $P(X)=a_n X^{n}+\dots+a_1 X+a_0$ se tiene que

\begin{align*}
P(T)(v)&= a_nT^{n}(v)+\dots +a_1 T(v)+ a_0 v\\
&= a_n\lambda^{n}v+\dots +a_1\lambda v+a_0v\\
&= (a_n\lambda^{n}+\dots +a_1\lambda +a_0)v\\
&= P(\lambda) v.
\end{align*}

Esto muestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

$\square$

Relación con el polinomio mínimo

Una consecuencia del problema previo es la siguiente proposición.

Proposición. Sea $A\in M_n(\mathbb{C})$ una matriz y $P\in \mathbb{C}[X]$ un polinomio tal que $P(A)=O_n$. Entonces cualquier eigenvalor $\lambda$ de $A$ satisface $P(\lambda)=0$.

Solución. Por el problema anterior, $P(\lambda)$ es un eigenvalor de $P(A)$, pero $P(A)=O_n$ y el único eigenvalor de la matriz cero es $0$. Luego $P(\lambda)=0$.

$\square$

De esto, podemos por fin establecer una conexión con el polinomio mínimo, que enunciamos en forma de teorema.

Teorema. Sea $T:V\to V$ una transformación lineal sobre un espacio de dimensión finita sobre un campo $F$. Los eigenvalores de $T$ son precisamente las raíces en $F$ del polinomio mínimo $\mu_T$.

Demostración. Dado que $\mu_T(T)=0$, el problema que acabamos de resolver nos dice que todos los eigenvalores de $T$ son raíces de $\mu_T$.

Conversamente, supongamos que existe $\lambda$ una raíz de $\mu_T$ que no es eigenvalor. Entonces la transformación $T-\lambda \operatorname{Id}$ es invertible. Como $\mu_T(\lambda)=0$, podemos factorizar la raíz y escribir $\mu_T(X)=(X-\lambda)Q(X)$ para algún $Q\in F[X]$. Dado que $\mu_T(T)=0$ deducimos que

\begin{align*}
(T-\lambda \operatorname{Id})\circ Q(T)=0.
\end{align*}

Recordando una vez más que $T-\lambda \operatorname{Id}$ es invertible, esta ecuación implica que $Q(T)=0$. Ya que $\mu_T$ es el polinomio mínimo, por una propiedad que mostramos anteriormente obtendríamos que $\mu_T$ divide a $Q$. Pero esto se contradice con la igualdad $\mu_T(X)=(X-\lambda)Q(X)$, que nos dice que $\mu_T$ tiene grado mayor. Esto concluye la demostración.

$\square$

Ejercicios

Terminamos con un par de ejercicios para repasar el material de estas secciones. El primero de entre ellos toma prestados nombres de la probabilidad (lo lo cuál puede sugerirte en qué tipo de texto te podrías encontrar con estas matrices).

Problema. Una matriz $A\in M_n(\mathbb{R})$ se dice estocástica si $a_{ij}\geq 0$ para todo $i,j\in \{1,\dots, n\}$ y $\sum_{j=1}^{n} a_{ij}=1$ para todo $i\in \{1,\dots, n\}$.

Demuestra que $1$ es un eigenvalor de cualquier matriz estocástica.

Solución. Consideremos el vector $v=(1,\dots, 1)$. Nota que

\begin{align*}
A\cdot v&= \begin{pmatrix}
a_{11} & a_{12} &\dots & a_{1n}\\
a_{21} & a_{22} & \dots & a_{2n}\\
\dots & \dots & \dots & \dots\\
a_{n1} & a_{n2} & \dots & a_{nn}
\end{pmatrix} \cdot \begin{pmatrix}
1\\
1\\
\vdots\\
1
\end{pmatrix}\\
&= \begin{pmatrix}
a_{11}+a_{12}+\dots+a_{1n}\\
a_{21}+a_{22}+\dots+a_{2n}\\
\vdots\\
a_{n1}+a_{n2}+\dots+a_{nn}
\end{pmatrix}\\
&=\begin{pmatrix}
1\\
1\\
\vdots\\
1\end{pmatrix}.
\end{align*}

Es decir $A\cdot v=v$, por lo que $v$ es un eigenvector de $A$ con eigenvalor asociado $1$.

$\square$

Problema. Sea $V$ el espacio de todos los polinomios con coeficientes reales. Sea $T:V\to V$ la transformación lineal dada por $P(X)\mapsto P(1-X)$. ¿Cuáles son los eigenvalores de $T$?

Solución. Observa que
\begin{align*}T^2(P)&=T\circ T(P)\\&= T(P(1-X))\\&= P(1-(1-X))\\&= P(X).\end{align*} Así $T^2=\operatorname{Id}$, o bien $T^2-\text{Id}=0$. Luego, el polinomio mínimo $\mu_T$ tiene que dividir al polinomio $X^2-1$. Sin embargo, los únicos factores de este polinomio son $X-1$ y $X+1$. Dado que $T\neq \pm \operatorname{Id}$ se tiene que $\mu_T(X)=X^2-1$. Por el último teorema que vimos, los eigenvalores de $T$ son precisamente las raíces de $\mu_T$ en $\mathbb{R}$, es decir $\pm 1$.

$\square$

Más adelante…

En las entradas subsecuentes iremos más a fondo en el concepto de polinomio característico, para eventualmente llegar al teorema de Cayley-Hamilton. Para eso tendremos que equiparnos de bastante teoría y repasar varias propiedades de dicho polinomio.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $V$ el espacio de polinomios con coeficientes reales de grado a lo más $n$. Encuentra los eigenvalores de la transformación $T:P(X)\mapsto P(X)-(1+X)P'(X)$.
  • Si $V$ es el espacio de polinomios con coeficientes reales, encuentra los eigenvalores de $T:P(X)\mapsto P(3X)$.
  • Sean $A,B$ matrices en $M_n(\mathbb{C})$ tales que $AB-BA=B$. Demuestra que para todo $k\geq 1$ se cumple que $AB^{k}-B^{k}A=kB^{k}$ y de esto deduce que $B$ es nilpotente: existe $m$ tal que $B^{m}=0$. Sugerencia: ¿Cuántos eigenvalores puede tener $T:X\mapsto AX-XA$?
  • ¿Puedes generalizar el último problema de la sección de matrices triangulares superiores?
  • Sea $A$ una matriz cuadrada con entradas reales. Supón que $\lambda$ es un real positivo que es eigenvalor de $A^2$. Demuestra que $\sqrt{\lambda}$ o $-\sqrt{\lambda}$ es un eigenvalor de $A$. ¿Sucederá a veces que sólo una de estas es eigenvalor?

Entradas relacionadas