Archivo del Autor: Julio Sampietro

Álgebra Lineal II: Matrices similares y su polinomio característico

Por Julio Sampietro

Introducción

En esta entrada exploramos otros aspectos del polinomio característico. Principalmente nos encargamos de comparar los polinomios característicos de matrices similares, así como los de dos productos (recordamos que el producto de matrices no es conmutativo).

Matrices similares

Recuerda que dos matrices $A,B\in M_n(F)$ se dicen similares si representan a la misma transformación lineal en $F^n$ en bases posiblemente diferentes de este espacio. Equivalentemente, $A$ y $B$ son similares si existe $P\in GL_n(F)$ tal que $B=PAP^{-1}$: o sea, si son conjugadas por una matriz invertible.

Una propiedad importante que veremos enseguida es que el polinomio característico es invariante bajo similitud de matrices. Más precisamente tenemos el siguiente:

Teorema. Dos matrices similares tienen el mismo polinomio característico.

Demostración. Supón que $A$ y $B$ son dos matrices similares, entonces existe $P$ invertible tal que $B=PAP^{-1}$. Nota que

\begin{align*}
X I_n-B=XPP^{-1}-PAP^{-1}= P(X I_n-A)P^{-1}.
\end{align*}

Ahora vamos a dar por hecho que el determinante está definido y es multiplicativo para matrices con entradas en $F[X]$. Definirlo no es complicado: Si $A$ es una matriz de la forma $[a_{ij}]$ con $a_{ij}\in F[X]$ ponemos

\begin{align*}
\det A=\sum_{\sigma\in S_n} \operatorname{sign}(\sigma) a_{1\sigma(1)}\cdots a_{n\sigma(n)}.
\end{align*}

Es decir, la definición es la misma que la usual. Sin embargo, resulta un poco más difícil el argumentar que con esta definición el determinante sigue siendo multiplicativo (especialmente si $F$ es finito). Por esto solo asumiremos que lo es.

Tenemos tres matrices de este estilo en juego: $P, XI_n-A$ y $XI_n-B$. Vista como una matriz con entradas en $F[X]$, $P$ sigue siendo invertible y su inversa es $P^{-1}$ (lo puedes pensar como que solo estamos ‘expandiendo los posibles coeficientes’). Entonces

\begin{align*}
\chi_B(X)&=\det(X I_n -B)\\
&= \det(P)\cdot \det(X I_n-A)\cdot \det(P)^{-1}\\
&= \det(XI_n-A)\\
&=\chi_A(X).
\end{align*}

Esto concluye la demostración.

$\square$

Ejemplos y consecuencias del teorema

Aquí vienen unos problemas y definiciones a partir del teorema anterior.

Problema. Demuestra que si $A,B\in M_n(F)$ son dos matrices entonces $AB$ y $BA$ tienen el mismo polinomio característico. Puedes asumir que $F=\mathbb{R}$ o $F=\mathbb{C}$ por simplicidad.

Solución. Si $A$ es invertible, entonces $AB$ y $BA$ son similares, puesto que

\begin{align*}
AB= ABAA^{-1}= A(BA)A^{-1}.
\end{align*}

Usando el teorema anterior queda demostrado este caso.

Por otro lado, si $A$ no es invertible al menos sabemos que tiene una cantidad finita de eigenvalores. Como estamos asumiendo que $F=\mathbb{R}$ o $F=\mathbb{C}$, en cualquier caso tenemos que $F$ es infinito. Así existen infinitos $\lambda\in F$ tales que $A_{\lambda}:= A-\lambda \cdot I_n$ es una matriz invertible.

Ahora, tomemos cualquier escalar fijo $X$ que queramos. Por el primer párrafo, para cualquier $\lambda$ que hace a $A_\lambda$ invertible se cumple que

\begin{align*}
\det (XI_n-A_{\lambda} B)= \det(XI_n-BA_{\lambda}).
\end{align*}

Otra manera de escribir esto es

\begin{align*}
\det (XI_n-AB+\lambda B)-\det(XI_n- BA + \lambda B)=0.
\end{align*}

Pero observa que el lado izquierdo es una expresión polinomial en $\lambda$ que se está anulando en una infinidad de valores de $\lambda$, de modo que la expresión izquierda debe ser el polinomio cero y en particular, evaluando en $\lambda=0$ obtenemos que

\begin{align*}
\det (XI_n-AB)-\det(XI_n-BA)=0.
\end{align*}

En otras palabras, para todo valor de $X$ hemos demostrado que $$\det (XI_n-AB)=\det (XI_n-BA),$$ es decir, que $AB$ y $BA$ tienen el mismo polinomio característico.

$\square$

Más adelante…

En la siguiente entrada daremos una introducción al teorema de Cayley-Hamilton, y después nos lanzaremos a ver aplicaciones así como a dar dos demostraciones completas.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación y sirven para revisar los conceptos de esta entrada.

  1. Encuentra dos matrices $A$ y $B$ que no sean similares pero tengan el mismo polinomio característico y el mismo polinomio mínimo.
  2. ¿Existen dos matrices $A$ y $B$ en $M_2(\mathbb{R})$ que tengan el mismo polinomio mínimo, el mismo polinomio característico pero no sean similares?
  3. Considera las siguientes matrices con coeficientes reales
    \begin{align*}
    A=\begin{pmatrix} 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 &0\\ 0 &0 &0 &1 &0\\0 & 0 &0 &0 &0\\ 0 & 0 &0 &0 &0\end{pmatrix}, B=\begin{pmatrix} 0 & 1 & 0 & 0 &0 \\ 0 & 0& 1 & 0 &0\\ 0 & 0 & 0 & 0 &0\\ 0 & 0 &0 & 0 &0\\ 0& 0 & 0 &0 &0\end{pmatrix}, C=\begin{pmatrix} 0 & 1 & 0 & 0 &0\\ 0 & 0 & 1 & 0 &0 \\ 0&0 &0 &0 &0 \\ 0 & 0 &0 &0 & 1\\ 0 &0 &0 &0 &0\end{pmatrix}.
    \end{align*}
    Calcula el polinomio característico de cada una. Sugerencia. Usa la entrada anterior.
  4. Calcula el polinomio mínimo de cada una. Concluye que $A$ no es similar a $B$ o a $C$.
  5. Computa la dimensión de los kernels de cada una. Concluye que $B$ no es similar a $C$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Polinomio característico de familias especiales

Por Julio Sampietro

Introducción

En la entrada anterior dimos la definición de polinomio característico. Vimos que siempre es un polinomio mónico y que su grado es exactamente del tamaño de la matriz. También, vimos cómo calcular el polinomio mínimo en algunos casos particulares. En esta entrada veremos varias propiedades que nos van a facilitar el calcular el polinomio característico (y por tanto los eigenvalores) en un amplio rango de matrices diferentes.

Comenzaremos estudiando el polinomio mínimo de las triangulares superiores. Luego, veremos cómo calcular el polinomio de matrices nilpotentes. No solo nos harán la vida más fácil los resultados a continuación, si no que los usaremos en la teoría más adelante.

Matrices triangulares superiores y transpuestas

El caso de las matrices triangulares superiores es muy sencillo, como veremos a través del siguiente problema.

Problema. Sea $A=[a_{ij}]$ una matriz triangular superior. Demuestra que

\begin{align*}
\chi_A(X)=\prod_{i=1}^{n}(X-a_{ii}).
\end{align*}

Solución. La matriz $X I_n-A$ sigue siendo triangular superior, y sus entradas diagonales son precisamente $X-a_{ii}$. Usando que el determinante de una matriz triangular superior es el producto de sus entradas diagonales y usando la definición se sigue que

\begin{align*}
\chi_A(X)=\det(X I_n-A)=\prod_{i=1}^{n} (X-a_{ii}).
\end{align*}

$\square$

Ejemplo. Si queremos calcular el polinomio característico de la matriz

\begin{align*}
A=\begin{pmatrix}
1 & -\pi & \sqrt{2}\\
0 & -2 & 10^{10}\\
0 & 0 &3
\end{pmatrix}.
\end{align*}

entonces podemos aplicar el problema anterior y deducir inmediatamente que

\begin{align*}
\chi_A(X)=(X-1)(X+2)(X-3).
\end{align*}

¡Qué complicado hubiera sido calcular el determinante a pie!

$\triangle$

Por otro lado, recordando la demostración que dice que los eigenvalores de la transpuesta de una matriz son iguales a los de la matriz original era de esperarse que el polinomio característico también «se portara bien» bajo transposición.

Problema. Demuestra que las matrices $A$ y $^{t}A$ tienen el mismo polinomio característico para cualquier $A\in M_n(F)$.

Solución. Notamos que $^{t}(X I_n-A)= XI_n-\ ^{t}A$. Como una matriz y su transpuesta tienen el mismo determinante se tiene que

\begin{align*}
\chi_A(X)&=\det(XI_n-A)\\&=\det(\ ^{t}(XI_n-A))\\&= \det(XI_n-\ ^{t}A)\\&=\chi_{^t A}(X).
\end{align*}

$\square$

Estrictamente hablando, estamos haciendo un poquito de trampa en la demostración anterior (y de hecho en varias que involucran a la variable $X$). Las propiedades de determinantes que hemos visto (como que una matriz y su transpuesta tienen el mismo determinante) las obtuvimos partiendo de la hipótesis de que las entradas vienen de un campo $F$. Pero cuando agregamos a la variable $X$, ahora las entradas vienen más bien de un anillo: el anillo de polinomios en $F[X]$. Aunque esto parezca un problema, en realidad no lo es. Las propiedades que usamos pueden mostrarse también en ese contexto.

Veamos ahora cómo podemos aplicar el resultado anterior en un ejemplo concreto.

Ejemplo. Queremos calcular el polinomio característico de la matriz

\begin{align*}
A= \begin{pmatrix} 0 & 0 &0\\ -4 & 9 & 0\\ -1 & -1 & 2.\end{pmatrix}
\end{align*}

Para esto notamos que

\begin{align*}
^t A=\begin{pmatrix} 0 & -4 & -1\\ 0 & 9 & -1\\ 0 & 0 & 2\end{pmatrix}
\end{align*}

que es triangular superior. Usando el primer problema

\begin{align*}
\chi_{^t A}(X)= X(X-9)(X-2).
\end{align*}

Finalmente por el último problema $$\chi_{A}(X)=\chi_{^t A}(X)=X(X-9)(X-2).$$

$\triangle$

El término de la traza

Como vimos en la entrada anterior, en el polinomio $\det(XA+B)$ aparecen los términos $\det(A)$ y $\det(B)$. El siguiente problema aplica esto al polinomio característico e incluso deducimos otro término: la traza.

Problema. Demuestra que el polinomio característico de $A\in M_n(F)$ es de la forma

\begin{align*}
\chi_A(X)= X^n- \operatorname{Tr}(A)X^{n-1}+\dots+(-1)^n \det A.
\end{align*}

Solución. Regresemos a la definición

\begin{align*}
\det (X I_n-A)=\sum_{\sigma\in S_n} \operatorname{sign}(\sigma)\left(X\delta_{1\sigma(1)}-a_{1\sigma(1)}\right)\cdots \left(X \delta_{n\sigma(n)}-a_{n\sigma(n)}\right).
\end{align*}

Haciendo la expansión salvajemente podemos recuperar al menos los primeros términos de $$(X\delta_{1\sigma(1)}-a_{1\sigma(1)})\cdots (X\delta_{n\sigma(n)}-a_{n\sigma(n)}),$$ que son $$X^{n}\prod_{i=1}^{n} \delta_{i\sigma(i)} – X^{n-1}\sum_{j=1}^{n}\left(\prod_{k\neq j} \delta_{k\sigma(k)}\right)a_{j\sigma(j)}+\dots.$$

Más aún, nota cómo el producto $\prod_{j=1}^{n}\delta_{j\sigma(j)}$ es distinto de cero si y sólo si $j=\sigma(j)$ para todo $j$: es decir si $\sigma$ es la identidad. Esto muestra que $\chi_A(X)$ es mónico de grado $n$, como ya habíamos mencionado en la entrada anterior.

Además, el término constante está dado por \begin{align*}\chi_A(0)&=\det(0\cdot I_n-A)\\&=\det(-A)\\&=(-1)^{n}\det(A).\end{align*} Alternativamente pudimos haber usado la primera proposición de esta entrada para concluir estos hechos.

Nos falta estudiar el término de grado $n-1$. Si $j\in \{1,2,\dots, n\}$, entonces $\prod_{k\neq j}\delta_{j\sigma(j)}$ es distinto de cero solo si $\sigma(k)=k$ para todo $k\neq j$: pero $\sigma$ es una permutación, en particular una biyección, lo que fuerza que $\sigma(j)=j$ también y entonces $\sigma$ sea la identidad. Entonces el término de $X^{n-1}$ en $$(X\delta_{1\sigma(1)}-a_{1\sigma(1)})\cdots (X\delta_{n\sigma(n)}-a_{n\sigma(n)})$$ es distinto de cero sólo cuando $\sigma$ es la identidad. En ese caso es precisamente $$-\sum_{j=1}^{n} a_{jj}=-\operatorname{Tr}(A).$$

$\square$

Ejemplo. Si $A$ es la matriz del primer problema de esta entrada, tenemos que

\begin{align*}
\chi_A(X)&=(X-1)(X+2)(X-3)\\&= X^3-2 X^2+\dots +6.
\end{align*}

Nota cómo el término de $X^2$ es en efecto $-\text{Tr}(A)= -(1-2+3)$ y el último es $-\det(A)$.

$\triangle$

Matrices nilpotentes

El caso de las matrices nilpotentes es todavía más sencillo.

Problema. Sea $A\in M_n(F)$ una matriz nilpotente. Es decir, existe $k\geq 1$ tal que $A^{k}=O_n$.

  1. Demuestra que
    \begin{align*}
    \chi_A(X)=X^{n}.
    \end{align*}
  2. Demuestra que $\operatorname{Tr}A^{m}=0$ para todo $m\geq 1$.

Solución.

  1. Sea $k\geq 1$ tal que $A^{k}=O_n$ (existe pues $A$ es nilpotente). Entonces
    \begin{align*}
    X^{k}I_n&=X^{k}I_n-A^{k}\\&=(XI_n-A)(X^{k-1}I_n+X^{k-2}A+\dots +A^{k-1}).
    \end{align*}
    Tomando el determinante de ambos lados y recordando que abre productos llegamos a
    \begin{align*}
    X^{nk}&=\det(X^{k}I_n)\\&= \chi_{A}(X)\cdot \det(X^{k-1}I_n+\dots +A^{k-1}).
    \end{align*}
    De aquí, concluimos que $\chi_{A}(X)$ tiene que dividir a $X^{nk}$, pero sabemos que $\chi_A(X)$ es mónico y de grado $n$. Concluimos entonces que $\chi_A(X)=X^{n}$.
  2. Puesto que $A^{m}$ también es una matriz nilpotente, el inciso anterior nos dice que
    \begin{align*}
    \chi_{A^{m}}(X)=X^{n}.
    \end{align*}
    Pero sabemos por la sección sobre la traza que el término de $X^{n-1}$ es $-\operatorname{Tr}(A^{m})$. Como este término no aparece, concluimos que la traza es cero.

$\square$

Ejemplo. Para calcular el polinomio característico de la matriz

\begin{align*}
A=\begin{pmatrix}
5 & -3 &2\\
15 & -9 & 6\\
10 & -6 &4
\end{pmatrix}
\end{align*}

podríamos notar (aunque no sea obvio a simple vista) que $A^2=O_3$. Luego, por el problema anterior, $\chi_A(X)=X^3$.

$\triangle$

Un último caso particular

Acabamos con una última familia de matrices con polinomio característico simple. Esta familia está descrita por su forma, y será de particular importancia para el teorema de Cayley-Hamilton.

Problema. Para escalares $a_0,\dots, a_{n-1}\in F$ consideramos la matriz

\begin{align*}
A=\begin{pmatrix}
0 & 0 & 0 & \dots & 0 & a_0\\
1 & 0 & 0 & \dots & 0 & a_1\\
0 & 1 & 0 & \dots & 0 & a_2\\
\dots & \dots & \dots & \dots & \dots &\dots\\
0 & 0 & 0 & \dots & 1 &a_{n-1}
\end{pmatrix}.
\end{align*}

en $M_n(F)$.

Demuestra que

\begin{align*}
\chi_A(X)=X^{n}-a_{n-1}X^{n-1}-\dots -a_0.
\end{align*}

Solución. Sea $P(X)=X^{n}-a_{n-1}X^{n-1}-\dots-a_0$. Considera la matriz

\begin{align*}
B=X I_n-A=\begin{pmatrix} X & 0 & 0 &\dots &0& -a_0\\ -1 & X & 0 &\dots & 0 &-a_1\\ 0 & -1 & X &\dots& 0&-a_2\\ \dots & \dots & \dots & \dots &\dots &\dots\\ 0 & 0 & 0 & \dots & -1 & X-a_{n-1}\end{pmatrix}.
\end{align*}

Sumando el segundo renglón multiplicado por $X$ al primer renglón, luego sumándole también al primer renglón el tercero multiplicado por $X^2$, el cuarto por $X^3$, y así sucesivamente hasta sumar el último renglón multiplicado por $X^{n-1}$ llegamos a la matriz

\begin{align*}
C=\begin{pmatrix}
0 & 0 & 0 & \dots &0& P(X)\\
-1 & X & 0 & \dots &0 & -a_1\\
0 & -1 & X & \dots & 0 & -a_2\\
\dots & \dots & \dots & \dots & \dots &\dots\\
0 & 0 & 0 & \dots & -1 & X-a_{n-1}
\end{pmatrix}.
\end{align*}

Recordamos que el determinante es invariante bajo sumas de renglones, por lo que

\begin{align*}
\chi_A=\det B=\det C.
\end{align*}

Expandiendo el determinante de $C$ en el primer renglón obtenemos sencillamente

\begin{align*}
\det C&=(-1)^{n+1}P(X) \cdot \begin{vmatrix} -1 & X & \dots & 0\\ 0 & -1 & \dots & 0\\ \dots &\dots & \dots & \dots \\ 0 & 0 & \dots & -1 \end{vmatrix}\\&= (-1)^{n+1} P(X)(-1)^{n-1}\\&=P(X).
\end{align*}

Para la segundaigualdad usamos que el determinante es el de una matriz triangular superior con puros $-1$ como entradas. Para la última, usamos que $n+1+n-1=2n$ siempre es un número par, así que queda $-1$ elevado a un número par. Esto concluye la prueba.

$\square$

Una de las consecuencias de la proposición anterior es que para cualquier polinomio mónico $P$ de grado $n$ en $F[X]$, existe una matriz en $M_n(F)$ tal que su polinomio característico es $P$.

Más adelante…

En la próxima entrada veremos unos últimos aspectos teóricos del polinomio característico antes de lanzarnos de lleno al teorema de Cayley-Hamilton y su demostración.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz $A$ tal que $\chi_A(X)=X^5-5X^3+X^2-2X+2$. Sugerencia: Usa el último problema.
  2. Demuestra que el polinomio característico de una matriz $A=[a_{ij}]$ triangular inferior está dado por $\prod_{i=1}^{n}(X-a_{ii})$.
  3. Demuestra que $0$ es eigenvalor de una matriz si y sólo si su determinante es cero.
  4. Calcula el polinomio característico de la siguiente matriz con entradas reales:
    \begin{align*}
    A= \begin{pmatrix} 5 & 5 & 5 \\ 6 & 6 & 6\\ -11 & -11 & -11\end{pmatrix}.
    \end{align*} Sugerencia: ¿Quién es $A^2$?
  5. ¿Es cierto que si $F$ es cualquier campo y $A$ es una matriz con entradas en $F$, entonces el hecho de que $\operatorname{Tr}(A)=0$ implica que $A$ sea nilpotente? Sugerencia: Piensa en $F_2$.
  6. Da una demostración alternativa al último problema de esta entrada usando inducción matemática sobre el tamaño de la matriz.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Polinomio característico

Por Julio Sampietro

Introducción

En el transcurso de esta unidad hemos construido varios de los objetos algebraicos que nos interesan. En primer lugar, dejamos claro qué quería decir evaluar un polinomio en una matriz o transformación lineal. Esto nos llevó a preguntarnos por aquellos polinomios que anulan a una matriz o transformación lineal. De manera natural, descubrimos que aquellos polinomios que anulan son múltiplos de un polinomio especial asociado a la matriz o transformación lineal llamado polinomio mínimo.

De manera un poco separada, comenzamos a estudiar los eigenvalores, eigenvectores y eigenespacios de una transformación lineal y en la entrada anterior nos enfocamos en varias de sus propiedades principales. Uno de los resultados clave que encontramos es que los eigenvalores de una matriz o transformación lineal son las raíces del polinomio mínimo que estén en el campo en el que estemos trabajando.

Aunque este resultado sea interesante de manera teórica, en la práctica debemos hacer algo diferente pues no es tan sencillo encontrar el polinomio mínimo de una matriz o transformación lineal. Es por esto que ahora estudiaremos con profundidad otro objeto que resultará fundamental en nuestro estudio: el polinomio característico. Ya nos encontramos con él anteriormente. Si $A$ es una matriz en $M_n(F)$, dicho polinomio en la variable $\lambda$ es el determinante $\det(\lambda I_n-A)$.

Esta entrada es más bien una introducción, así que nos enfocaremos en probar las cosas más básicas de este objeto. Lo primero, y más importante, es verificar que en efecto es un polinomio (y con ciertas características específicas). También, aprovecharemos para calcularlo en varios contextos (y campos) diferentes.

Definición de polinomio característico

Comencemos con una matriz $A\in M_n(F)$. Vimos que encontrar los eigenvalores de $A$ se reduce a encontrar las soluciones de la ecuación

\begin{align*}
\det(\lambda I_n-A)=0
\end{align*}

en $F$. Vamos a estudiar más a detalle la expresión de la izquierda.

El siguiente teorema va un poco más allá y de hecho estudia expresiones un poco más generales.

Teorema. Sean $A,B\in M_n(F)$ dos matrices. Existe un polinomio $P\in F[X]$ tal que para todo $x\in F$ se cumple

\begin{align*}
P(x)=\det(xA+B).
\end{align*}

Si denotamos a este polinomio por $P(X)=\det(XA+B)$, entonces

\begin{align*}
\det(XA+B)=\det(A)X^{n}+\alpha_{n-1}X^{n-1}+\dots+\alpha_1 X+\det B
\end{align*}

para algunas expresiones polinomiales $\alpha_1,\dots, \alpha_{n-1}$ con coeficientes enteros en las entradas de $A$ y $B$.

Demostración. Consideremos el siguiente polinomio en la variable $X$ y coeficientes en $F$, es decir, el siguiente polinomio en $F[X]$:

\begin{align*}
P(X)=\sum_{\sigma\in S_n} \operatorname{sign}(\sigma)\left(a_{1\sigma(1)} X+b_{1\sigma(1)}\right)\cdots \left(a_{n\sigma(n)}X+b_{n\sigma(n)}\right).
\end{align*}

Por construcción, $P$ es un polinomio cuyos coeficientes son expresiones polinomiales enteras en las entradas de $A$ y $B$. Más aún, se cumple que $P(x)=\det(xA+B)$ para $x\in F$ (podría ser útil revisar la entrada sobre determinantes para convencerte de ello). El término constante lo obtenemos al evaluar en $X=0$, pero eso no es más que $P(0)=\det(0\cdot A+B)=\det(B)$. Finalmente para cada $\sigma\in S_n$ tenemos que el primer término de cada sumando es

\begin{align*}
\operatorname{sign}(\sigma)(a_{1\sigma(1)}X+b_{1\sigma(1)})\cdots (a_{n\sigma(n)} X+b_{n\sigma(n)})
\end{align*}

Notemos que la única manera de obtener un término $X^n$ en esta expresión es cuando en cada binomio que se está multiplicando se usa el término $X$. Así, el coeficiente de $X^n$ es $\operatorname{sign}(\sigma) a_{1\sigma(1)}\cdots a_{n\sigma(n)}X^{n}$.

Agrupando todos los sumandos para todas las $\sigma$ y comparando con la definición del determinante llegamos a que $$P(X)=\det(A)X^{n}+\ldots,$$ es decir el término de orden $n$ es en efecto $\det(A)$.

$\square$

Del teorema se sigue que si $A$ y $B$ tienen entradas enteras o racionales, $\det(XA+B)$ tiene coeficientes enteros o racionales respectivamente.

Enseguida podemos definir (gracias al teorema) el siguiente objeto:

Definición. El polinomio característico de la matriz $A\in M_n(F)$ es el polinomio $\chi_A\in F[X]$ definido por

\begin{align*}
\chi_A(X)=\det(X\cdot I_n-A).
\end{align*}

Una observación inmediata es que, de acuerdo al teorema, el coeficiente principal de $\chi_A(X)$ tiene coeficiente $\det(I_n)=1$. En otras palabras, acabamos de demostrar la siguiente propiedad fundamental del polinomio característico.

Proposición. El polinomio característico de una matriz en $M_n(F)$ siempre tiene grado exactamente $n$ y además es un polinomio mónico, es decir, que el coeficiente que acompaña al término de grado $n$ es igual a $1$.

Veamos un ejemplo sencillo.

Ejemplo. Si queremos calcular el polinomio característico de

\begin{align*}
A=\begin{pmatrix} 1 & -1\\ 1 &0\end{pmatrix}\in M_2(\mathbb{R})
\end{align*}

entonces usamos la definición

\begin{align*}
\chi_A(X)&=\det(X\cdot I_2-A)\\&=\begin{vmatrix} X-1 & 1\\ -1 & X\end{vmatrix}\\&= X(X-1)+1.
\end{align*}

Y así los eigenvalores de $A$ son las raíces reales de $\chi_A(X)$. Es decir, tenemos que resolver

\begin{align*} 0=x(x-1)+1=x^2-x+1.\end{align*}

Sin embargo, el discriminante de esta ecuación cuadrática es $(-1)^2-4(1)(1)=-3$, el cual es un real negativo, por lo que no tenemos eigenvalores reales. Si estuviéramos trabajando en $\mathbb{C}$ tendríamos dos eigenvalores complejos:

\begin{align*}
x_{1,2}= \frac{1\pm i\sqrt{3}}{2}.
\end{align*}

De aquí, ¿cómo encontramos los eigenvectores y eigenespacios? Basta con resolver los sistemas lineales homogéneos de ecuaciones $(A-x_1I_2)X=0$ para encontrar el $x_1$-eigenespacio y $(A-x_2)X=0$ para encontrar el $x_2$-eigenespacio.

$\triangle$

Algunos cálculos de polinomios característicos

Ya que calcular polinomios característicos se reduce a calcular determinantes, te recomendamos fuertemente que recuerdes las propiedades que tienen los determinantes. Sobre todo, aquellas que permiten calcularlos.

¡A calcular polinomios característicos!

Problema 1. Encuentra el polinomio característico y los eigenvalores de $A$ dónde $A$ es

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0 & 0\\
2 & 0 & -1 & 0\\
0 & 7 & 0 &6\\
0 & 0 & 3 & 0
\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. Usamos la expansión de Laplace respecto al primer renglón:

\begin{align*}
\chi_A(X)&=\det(XI_4-A)\\&= \begin{vmatrix}
X & -1 & 0 & 0\\
-2 & X & 1 & 0\\
0 & -7 & X & -6\\
0 & 0 & -3 & X\end{vmatrix}\\
&= X\begin{vmatrix} X & 1 & 0\\ -7 & X & -6\\ 0 & -3 & X\end{vmatrix}+ \begin{vmatrix}
-2 & 1 & 0\\ 0 & X& -6\\ 0 &-3 & X\end{vmatrix}\\
&= X(X^3-11X)-2(X^2-18)\\
&= X^4-13X^2+36.
\end{align*}

Después, para encontrar los eigenvalores de $A$ tenemos que encontrar las raíces reales de la ecuación

\begin{align*}
x^4-13x^2+36=0.
\end{align*}

Sin embargo, no hay que desalentarse por ver una ecuación de grado $4$. Si hacemos el cambio $y=x^2$ podemos llevar nuestro problema a resolver

\begin{align*}
y^2-13y+36=0.
\end{align*}

¡Es una ecuación de segundo orden! Esta la podemos resolver usando ‘la chicharronera’ y obtenemos como soluciones $y_1=4$ y $y_2=9$. Pero todavía tenemos que resolver $x^2=y_1$ y $x^2=y_2$. Al resolver estas últimas dos ecuaciones obtenemos que $x=\pm 2,\pm 3$ son los eigenvalores de $A$.

$\triangle$

Problema 2. Calcula el polinomio característico y los eigenvalores de la matriz

\begin{align*}
A=\begin{pmatrix} 1 & 0 & 1\\ 1 & 1 & 0\\ 1 & 0 &1 \end{pmatrix}\in M_3(F_2).
\end{align*}

Solución. Nota que estamos trabajando en el campo de dos elementos $F_2$, por lo que $-1=1$. Usando la definición:

\begin{align*}
\chi_A(X)&=\det(XI_3-A)\\&= \begin{vmatrix} X-1 & 0 & -1\\ -1 & X-1 & 0\\ -1 & 0 &X-1\end{vmatrix}\\
&= \begin{vmatrix} X+1 & 0 & 1\\ 1 & X+1& 0 \\ 1 & 0 &X+1\end{vmatrix}.
\end{align*}

Aquí estamos usando repetidamente $-1=1$. Usamos otra vez la expansión de Laplace en el primer renglón para llegar a

\begin{align*}
\chi_A(X)&= (X+1)\begin{vmatrix} X+1 & 0 \\ 0 & X+1\end{vmatrix}+\begin{vmatrix} 1 & X+1\\ 1 & 0\end{vmatrix}\\
&= (X+1)^3-(X+1).
\end{align*}

Luego, si queremos encontrar los eigenvalores de $A$ tenemos que resolver

\begin{align*}
(x+1)^3-(x+1)=0.
\end{align*}

Si bien existen varias maneras de resolver la ecuación, podemos simplemente sustituir los únicos valores posibles de $x$ : $0$ o $1$. Sustituyendo es fácil ver que ambos satisfacen la ecuación, por lo que los eigenvalores de $A$ son $0$ y $1$.

$\triangle$

Más adelante…

En la próxima entrada calcularemos el polinomio característico de una variedad de matrices importantes: triangulares superiores, nilpotentes, etc. Esto nos permitirá entender mejor al polinomio característico y lidiar con muchos casos para facilitarnos los cálculos más adelante.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que $0$ es un eigenvalor de una matriz $A$ si y sólo si $\det(A)=0$.
  • ¿Una matriz compleja de tamaño $n$ tiene necesariamente $n$ eigenvalores distintos?
  • Calcular el polinomio característico y los eigenvalores de
    \begin{align*}A=\begin{pmatrix} 1 & 2 & 0\\ 0 & 1 &2\\ 2 & 0 & 1\end{pmatrix}\in M_3(F_3).
    \end{align*}
  • Usando la fórmula del determinante para matrices de tamaño $2$, encuentra un criterio simple para saber si una matriz con entradas reales de tamaño $2$ tiene dos, uno o ningún eigenvalor real.
  • Da un criterio simple para saber si una matriz de tamaño $2$ con entradas complejas tiene eigenvalores puramente imaginarios.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Propiedades de eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En la entrada anterior platicamos acerca de eigenvectores, eigenvalores y eigenespacios de matrices y transformaciones lineales. Vimos algunos ejemplos básicos. En esta entrada profundizaremos en el estudio de estos objetos y exploraremos diversas de sus propiedades. Comenzaremos con algunas observaciones inmediatas. Después, veremos cómo encontrar de manera sencilla los eigenvalores de las matrices triangulares superiores. También veremos que «eigenvectores correspondientes a eigenvalores diferentes son linealmente independientes«. Finalmente, conectaremos estas nuevas ideas con un objeto que estudiamos previamente: el polinomio mínimo.

Primeras observaciones

A partir de la proposición de la entrada anterior que nos dice cómo calcular eigenvalores se desprenden algunas consecuencias sencillas pero útiles.

Por ejemplo, recuerda que el determinante de una matriz y su transpuesta es igual. En particular, si $A\in M_n(F)$ entonces

\begin{align*}
\det(\lambda I_n -\ ^{t}A)= \det(\ ^{t}(\lambda I_n- A))= \det(\lambda I_n-A).
\end{align*}

Luego $\det (\lambda I_n-A)=0$ si y sólo si $\det(\lambda I_n-\ ^{t}A)=0$. Recordando que las raíces de estos polinomios son precisamente los eigenvalores, se sigue que los eigenvalores de $A$ y $^{t}A$ son iguales.

Por otro lado, como los eigenvalores son las raíces de un polinomio de grado $n$, sabemos que hay a lo más $n$ soluciones. Entonces toda matriz tiene a lo más $n$ eigenvalores.

Esto también ocurre para transformaciones lineales en espacios de dimensión finita y lo podemos enunciar como sigue:

Corolario. Sea $V$ un espacio de dimensión finita sobre $F$ y $T:V\to V$ lineal. Entonces $T$ tiene a lo más $\dim V$ eigenvalores distintos.

Sin embargo, si el espacio no es de dimensión finita no podemos hacer tal afirmación. Si $V$ es el espacio de todas las funciones suaves (es decir con derivadas de todos los órdenes) de $\mathbb{R}$ en $\mathbb{R}$ y $T:V\to V$ es la función lineal que a cada función la manda en su derivada, entonces tenemos «muchos» eigenvalores. Haciendo esto más preciso, para cada real $r$ la función $e^{rx}$ es un eigenvector con eigenvalor $r$ puesto que

\begin{align*}
T(e^{rx})= \left(e^{rx}\right)’= re^{rx}.
\end{align*}

Así, tenemos al menos tantos eigenvalores como números reales. De hecho, estos son exactamente los eigenvalores de $T$, lo cual puede demostrarse mediante el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales, que estudiarás en otro momento de tu formación matemática.

Matrices triangulares superiores

Parte del interés de «triangular» matrices (es decir, encontrar una matriz similar que sea triangular superior) está dada por la facilidad de calcular sus eigenvalores. Exploramos esto mediante los siguientes dos problemas.

Problema 1. Sea $A=[a_{ij}]$ una matriz triangular superior en $M_n(F)$. Demuestra que los eigenvalores de $A$ son precisamente los elementos en la diagonal.

Solución. Ya establecimos que encontrar los valores propios se reduce a encontrar las raíces del polinomio $\det(\lambda I_n-A)$. Notamos que si $A$ es triangular superior, entonces $\lambda I_n-A$ también es triangular superior. Más aún, las entradas de la diagonal son simplemente $\lambda-a_{ii}$. Pero sabemos que el determinante de una matriz triangular superior es el producto de sus entradas diagonales. Así

\begin{align*}
\det(\lambda I_n -A)= (\lambda-a_{11})(\lambda-a_{22})\cdots (\lambda -a_{nn})
\end{align*}

cuyas raíces son exactamente los elementos $a_{ii}$.

$\square$

Podemos combinar el resultado anterior con otras propiedades de matrices triangulares superiores para resolver a mano algunos problemas que de entrada parecen complicados.

Problema 2. Encuentra los eigenvalores de $A^{3}$ donde

\begin{align*}
A=\begin{pmatrix} 1 & 2 &3 &4 \\ 0 & 5 & 6 & 7\\ 0 & 0 & 8 & 9\\ 0 &0 &0 & 10\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. En realidad no hace falta hacer el producto de matrices para encontrar la matriz $A^3$. Sabemos que el producto de dos matrices triangulares superiores es triangular superior y que de hecho las entradas de la diagonal son solo el producto de las entradas correspondientes. Es decir, si $[a_{ij}]$ y $[b_{ij}]$ son dos matrices triangulares superiores, las entradas de la diagonal son $a_{ii}b_{ii}$. En nuestro caso, las entradas de la diagonal son $1^3, 5^3, 8^3$ y $10^3$, y por el problema anterior, estos son precisamente los eigenvalores de $A^3$.

$\triangle$

Relaciones con independencia lineal y combinaciones polinomiales

El resultado principal de esta entrada es el siguiente teorema, que en particular afirma que si dos eigenvalores son distintos, sus eigenvectores son linealmente independientes. En realidad, el resultado es un poco más general y lo enunciamos a continuación

Teorema. Sean $\lambda_1,\dots, \lambda_k$ eigenvalores distintos dos a dos de una transformación lineal $T:V\to V$. Entonces los $\lambda_i$-eigenespacios están en posición de suma directa.

Demostración. Por definición, tenemos que demostrar que si tenemos una colección $\{v_i\}$ de vectores con $T(v_i)=\lambda_i v_i$ y $v_1+\dots+v_k=0$ entonces $v_1=\dots=v_k=0$. Procedemos por inducción sobre $k$.

Nuestro caso base es una tautología, pues si $k=1$ entonces tenemos que mostrar que si $v_1=0$ entonces $v_1=0$.

Asumamos que el resultado se cumple para $k-1$ y verifiquemos que se cumple para $k$. Supongamos que $v_1+\dots+v_k=0$. Aplicando $T$ de ambos lados de esta igualdad llegamos a

\begin{align*}
T(v_1+\dots+v_k)&= T(v_1)+\dots+T(v_k)\\
&=\lambda_1 v_1+\dots +\lambda _k v_k=0.
\end{align*}

Por otro lado, si multiplicamos a la igualdad $v_1+\dots+v_k=0$ por $\lambda_k$ de ambos lados llegamos a

\begin{align*}
\lambda_k v_1+\dots +\lambda _k v_k=0.
\end{align*}

Sustrayendo y factorizando estas dos igualdades se sigue que

\begin{align*}
(\lambda_k -\lambda_1)v_1+\dots +(\lambda_k-\lambda_{k-1})v_{k-1}=0.
\end{align*}

Esto es una combinación lineal de los primeros $k-1$ vectores $v_i$ igualada a cero. Luego, la hipótesis inductiva nos dice que $(\lambda_k-\lambda_i)v_i=0$ para todo $i=1,\dots, k-1$. Como $\lambda_k\neq \lambda_i$ entonces $\lambda_k-\lambda_i\neq 0$ y entonces $v_i=0$. Sustituyendo en la igualdad original, esto implica que $v_k=0$ inmediatamente.

$\square$

Enseguida veremos que si formamos un polinomio $P(T)$, entonces $P(\lambda)$ es un eigenvalor de $P(T)$ para cualquier eigenvalor $\lambda$ de $T$. Esto lo veremos en el siguiente problema.

Problema. Sea $\lambda$ un eigenvalor de $T:V\to V$ y sea $P$ un polinomio en una variable con coeficientes en $F$. Demuestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

Solución. Como $\lambda$ es un eigenvalor de $T$, existe $v$ un vector no cero tal que $T(v)=\lambda v$. Inductivamente, se cumple que $T^{k}(v)=\lambda^{k} v$. En efecto

\begin{align*}
T^{k+1}(v)&=T(T^{k}(v))\\
&= T(\lambda^{k} v)\\
&= \lambda^{k}T(v)\\
&=\lambda^{k+1}v.
\end{align*}

Usando esto, si $P(X)=a_n X^{n}+\dots+a_1 X+a_0$ se tiene que

\begin{align*}
P(T)(v)&= a_nT^{n}(v)+\dots +a_1 T(v)+ a_0 v\\
&= a_n\lambda^{n}v+\dots +a_1\lambda v+a_0v\\
&= (a_n\lambda^{n}+\dots +a_1\lambda +a_0)v\\
&= P(\lambda) v.
\end{align*}

Esto muestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

$\square$

Relación con el polinomio mínimo

Una consecuencia del problema previo es la siguiente proposición.

Proposición. Sea $A\in M_n(\mathbb{C})$ una matriz y $P\in \mathbb{C}[X]$ un polinomio tal que $P(A)=O_n$. Entonces cualquier eigenvalor $\lambda$ de $A$ satisface $P(\lambda)=0$.

Solución. Por el problema anterior, $P(\lambda)$ es un eigenvalor de $P(A)$, pero $P(A)=O_n$ y el único eigenvalor de la matriz cero es $0$. Luego $P(\lambda)=0$.

$\square$

De esto, podemos por fin establecer una conexión con el polinomio mínimo, que enunciamos en forma de teorema.

Teorema. Sea $T:V\to V$ una transformación lineal sobre un espacio de dimensión finita sobre un campo $F$. Los eigenvalores de $T$ son precisamente las raíces en $F$ del polinomio mínimo $\mu_T$.

Demostración. Dado que $\mu_T(T)=0$, el problema que acabamos de resolver nos dice que todos los eigenvalores de $T$ son raíces de $\mu_T$.

Conversamente, supongamos que existe $\lambda$ una raíz de $\mu_T$ que no es eigenvalor. Entonces la transformación $T-\lambda \operatorname{Id}$ es invertible. Como $\mu_T(\lambda)=0$, podemos factorizar la raíz y escribir $\mu_T(X)=(X-\lambda)Q(X)$ para algún $Q\in F[X]$. Dado que $\mu_T(T)=0$ deducimos que

\begin{align*}
(T-\lambda \operatorname{Id})\circ Q(T)=0.
\end{align*}

Recordando una vez más que $T-\lambda \operatorname{Id}$ es invertible, esta ecuación implica que $Q(T)=0$. Ya que $\mu_T$ es el polinomio mínimo, por una propiedad que mostramos anteriormente obtendríamos que $\mu_T$ divide a $Q$. Pero esto se contradice con la igualdad $\mu_T(X)=(X-\lambda)Q(X)$, que nos dice que $\mu_T$ tiene grado mayor. Esto concluye la demostración.

$\square$

Ejercicios

Terminamos con un par de ejercicios para repasar el material de estas secciones. El primero de entre ellos toma prestados nombres de la probabilidad (lo lo cuál puede sugerirte en qué tipo de texto te podrías encontrar con estas matrices).

Problema 1. Una matriz $A\in M_n(\mathbb{R})$ se dice estocástica si $a_{ij}\geq 0$ para todo $i,j\in \{1,\dots, n\}$ y $\sum_{j=1}^{n} a_{ij}=1$ para todo $i\in \{1,\dots, n\}$.

Demuestra que $1$ es un eigenvalor de cualquier matriz estocástica.

Solución. Consideremos el vector $v=(1,\dots, 1)$. Nota que

\begin{align*}
A\cdot v&= \begin{pmatrix}
a_{11} & a_{12} &\dots & a_{1n}\\
a_{21} & a_{22} & \dots & a_{2n}\\
\dots & \dots & \dots & \dots\\
a_{n1} & a_{n2} & \dots & a_{nn}
\end{pmatrix} \cdot \begin{pmatrix}
1\\
1\\
\vdots\\
1
\end{pmatrix}\\
&= \begin{pmatrix}
a_{11}+a_{12}+\dots+a_{1n}\\
a_{21}+a_{22}+\dots+a_{2n}\\
\vdots\\
a_{n1}+a_{n2}+\dots+a_{nn}
\end{pmatrix}\\
&=\begin{pmatrix}
1\\
1\\
\vdots\\
1\end{pmatrix}.
\end{align*}

Es decir $A\cdot v=v$, por lo que $v$ es un eigenvector de $A$ con eigenvalor asociado $1$.

$\square$

Problema 2. Sea $V$ el espacio de todos los polinomios con coeficientes reales. Sea $T:V\to V$ la transformación lineal dada por $P(X)\mapsto P(1-X)$. ¿Cuáles son los eigenvalores de $T$?

Solución. Observa que
\begin{align*}T^2(P)&=T\circ T(P)\\&= T(P(1-X))\\&= P(1-(1-X))\\&= P(X).\end{align*} Así $T^2=\operatorname{Id}$, o bien $T^2-\text{Id}=0$. Luego, el polinomio mínimo $\mu_T$ tiene que dividir al polinomio $X^2-1$. Sin embargo, los únicos factores de este polinomio son $X-1$ y $X+1$. Dado que $T\neq \pm \operatorname{Id}$ se tiene que $\mu_T(X)=X^2-1$. Por el último teorema que vimos, los eigenvalores de $T$ son precisamente las raíces de $\mu_T$ en $\mathbb{R}$, es decir $\pm 1$.

$\triangle$

Más adelante…

En las entradas subsecuentes iremos más a fondo en el concepto de polinomio característico, para eventualmente llegar al teorema de Cayley-Hamilton. Para eso tendremos que equiparnos de bastante teoría y repasar varias propiedades de dicho polinomio.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $V$ el espacio de polinomios con coeficientes reales de grado a lo más $n$. Encuentra los eigenvalores de la transformación $T:P(X)\mapsto P(X)-(1+X)P'(X)$.
  • Si $V$ es el espacio de polinomios con coeficientes reales, encuentra los eigenvalores de $T:P(X)\mapsto P(3X)$.
  • Sean $A,B$ matrices en $M_n(\mathbb{C})$ tales que $AB-BA=B$. Demuestra que para todo $k\geq 1$ se cumple que $AB^{k}-B^{k}A=kB^{k}$ y de esto deduce que $B$ es nilpotente: existe $m$ tal que $B^{m}=0$. Sugerencia: ¿Cuántos eigenvalores puede tener $T:X\mapsto AX-XA$?
  • ¿Puedes generalizar el último problema de la sección de matrices triangulares superiores?
  • Sea $A$ una matriz cuadrada con entradas reales. Supón que $\lambda$ es un real positivo que es eigenvalor de $A^2$. Demuestra que $\sqrt{\lambda}$ o $-\sqrt{\lambda}$ es un eigenvalor de $A$. ¿Sucederá a veces que sólo una de estas es eigenvalor?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En esta entrada revisitamos los conceptos de eigenvalores y eigenvectores de una transformación lineal. Estos son esenciales para entender a las transformaciones lineales, y tienen un rango de aplicabilidad impresionante: aparecen en la física, las ecuaciones diferenciales parciales, la ciencia de datos, la topología algebraica y la probabilidad.

Primero enunciaremos la definición, después veremos un primer ejemplo para convencernos de que no son objetos imposibles de calcular. Luego daremos un método para vislumbrar una manera más sencilla de hacer dicho cálculo y concluiremos con unos ejercicios.

Eigen-definiciones

Comenzamos con $V$ un espacio vectorial sobre $F$ y $T:V\to V$ una transformación lineal.

Definición. Un eigenvalor (también conocido como valor propio) de $T$ es un escalar $\lambda \in F$ tal que $\lambda \cdot \operatorname{Id}-T$ no es invertible. Un eigenvector (también conocido como vector propio o $\lambda$-eigenvector) correspondiente a $\lambda$ es un vector no-cero de $\ker (\lambda \cdot \operatorname{Id}-T)$. A este kernel se le conoce como el eigenespacio correspondiente a $\lambda$ (o $\lambda$-eigenespacio).

Entonces un $\lambda$-eigenvector es por definición distinto de cero y satisface

\begin{align*}
T(v)=\lambda v.
\end{align*}

Hay que tener cuidado. se permite que $\lambda=0$ sea eigenvalor, pero no se permite que $v=0$ sea eigenvector.

La colección de todos los eigenvectores, junto con el vector cero, es el eigenespacio asociado a $\lambda$. Podemos enunciar definiciones análogas con matrices.

Definición. Sea $A\in M_n(F)$ una matriz cuadrada. Un escalar $\lambda \in F$ es un eigenvalor de $A$ si existe un vector $X\in F^n$ distinto de cero (un eigenvector) tal que $AX=\lambda X$. En este caso el subespacio

\begin{align*}
\ker(\lambda I_n-A):=\lbrace X\in F^n\mid AX=\lambda X\rbrace
\end{align*}

es el $\lambda$-eigenespacio de $A$.

Puedes verificar que ambas definiciones se corresponden en el siguiente sentido:

Si $V$ es un espacio de dimensión finita y $T:V\to V$ es una transformación lineal, podemos escoger cualquier base de $V$ y asociarle a $T$ su forma matricial, digamos $A$, en esta base. Los eigenvalores de $T$ son precisamente los eigenvalores de $A$. ¡Pero cuidado! Los eigenvectores de $A$ dependerán de la base elegida.

Un primer ejemplo

Seguimos con un sencillo pero importante ejemplo.

Ejemplo 1. Considera la matriz

\begin{align*}
A=\begin{pmatrix}
0 & -1\\
1 & 0
\end{pmatrix}.
\end{align*}

Busquemos los eigenvectores y eigenvalores de $A$, pensando a $A$ como una matriz con entradas complejas. Sea $\lambda\in \mathbb{C}$ un eigenvalor y $X$ un eigenvector asociado. Entonces se cumple la relación $AX=\lambda X$. Si $X=(x_1,x_2)$ entonces la condición mencionada es equivalente al par de ecuaciones

\begin{align*}
-x_2=\lambda x_1, \hspace{5mm} x_1=\lambda x_2.
\end{align*}

Sustituyendo una en la otra obtenemos

\begin{align*}
-x_2=\lambda^2 x_2.
\end{align*}

Si $x_2=0$ entonces $x_1=0$ y así $X$ es un vector nulo, lo que es imposible por definición (recuerda que pedimos que los eigenvectores sean distintos de cero). Entonces $x_2\neq 0$ y podemos dividir por $x_2$ a la ecuación previa, de manera que $\lambda^2=-1$, o sea $\lambda=\pm i$. Conversamente, $i$ y $-i$ son eigenvalores. En efecto, podemos tomar $x_2=1$ y $x_1=\lambda$ como soluciones del problema anterior y obtener un vector propio asociado. De hecho, el eigenespacio está dado por

\begin{align*}
\ker (\lambda I_2-A)=\lbrace (\lambda x_2, x_2)\mid x_2\in \mathbb{C}\rbrace
\end{align*}

y esto no es más que la recta generada por el vector $v=(\lambda,1)\in \mathbb{C}^2$. Por lo tanto, vista como una matriz compleja, $A$ tiene dos eigenvalores distintos $\pm i$ y dos eigenespacios, los generados por $(i,1)$ y $(-i,1)$.

Por otro lado, veamos qué pasa si pensamos a $A$ como una matriz con entradas reales. Haciendo las mismas cuentas llegamos a la misma ecuación, $-x_2=\lambda^2 x_2$. Podemos reescribirla factorizando el término $x_2$:

\begin{align*}
(\lambda^2+1)x_2=0.
\end{align*}

Como $\lambda$ esta vez es un número real, $\lambda^2+1$ siempre es distinto de cero. Entonces para que el producto sea cero, tiene que ocurrir que $x_2=0$, ¡pero entonces $x_1=0$ y así $X=0$! En conclusión: vista como una matriz con entradas reales, $A$ no tiene eigenvalores, y por tanto no tiene eigenespacios. La moraleja es que los eigenvalores y eigenvectores dependen mucho del campo en el que trabajemos.

¿Cómo calcularlos?

Si bien el ejemplo anterior resultó simple, no es difícil imaginar que matrices más complicadas y más grandes pueden resultar en procedimientos menos claros. En general:

  • ¿Cómo podemos calcular los eigenvalores?
  • ¿Cómo podemos calcular los eigenespacios de manera eficiente?
  • ¿Cómo podemos calcular los eigenvectores?

Una vez calculados los eigenvalores, calcular los eigenespacios se reduce a resolver el sistema de ecuaciones homogéneo $(A-\lambda I_n)X=0$, lo cual ya hemos hecho muchas veces mediante reducción gaussiana. Luego, calcular los eigenvectores simplemente es tomar los elementos no cero del eigenespacio. Sin embargo, el cálculo de eigenvalores involucra encontrar raíces de polinomios lo cual de entrada no es obvio. Un primer paso es la siguiente observación que enunciamos como proposición.

Proposición. Un escalar $\lambda \in F$ es un eigenvalor de $A\in M_n(F)$ si y sólo si

\begin{align*}
\det(\lambda I_n-A)=0.
\end{align*}

Demostración. El sistema $(\lambda I_n-A)X=0$ tiene soluciones no triviales si y sólo si la matriz $\lambda I_n-A$ no es invertible. A su vez, la matriz $\lambda I_n-A$ no es invertible si y sólo si su determinante es nulo. El resultado se sigue.

$\square$

Regresemos a nuestra pregunta. Si

\begin{align*}
A=\begin{pmatrix}
a_{11} & a_{12} & \dots & a_{1n}\\
a_{21} & a_{22} & \dots & a_{2n}\\
\dots & \dots & \dots& \dots\\
a_{n1} & a_{n2}& \dots & a_{nn}
\end{pmatrix}
\end{align*}

entonces la proposición nos dice que podemos calcular los valores propios de $A$ resolviendo la ecuación polinomial

\begin{align*}
\begin{vmatrix}
\lambda- a_{11} & -a_{12} & \dots & -a_{1n}\\
-a_{21} & \lambda -a_{22} & \dots & -a_{2n}\\
\dots & \dots & \dots & \dots \\
-a_{n1} & -a_{n2} & \dots & \lambda-a_{nn}
\end{vmatrix}
=0
\end{align*}

en $F$. Esta es una ecuación polinomial de grado $n$, y si el grado es mayor a $4$ en general no existe una fórmula para resolverla en términos de radicales (aunque claro que hay casos particulares que si podemos resolver sin mucho problema).

Problema 2. Queremos calcular los eigenvalores de $A$, donde $A$ está dada por

\begin{align*}
A=\begin{pmatrix}
1 & 0 & 0\\
0 & 0 &-1\\
0 & 1 & 0
\end{pmatrix}.
\end{align*}

Solución. Como vimos en la proposición, esto se reduce a calcular las raíces del polinomio

\begin{align*}
\begin{vmatrix}
\lambda -1 & 0 & 0\\
0 & \lambda & 1\\
0 &-1 & \lambda
\end{vmatrix}=0.
\end{align*}

Calculando el determinante vemos que esto es de hecho

\begin{align*}
(\lambda-1)(\lambda^2+1)=0.
\end{align*}

Sin embargo tenemos que recordar que las raíces dependen de nuestro campo de elección. Como no comentamos nada sobre el campo en el cual trabajamos, consideraremos dos casos. Si el campo es $\mathbb{C}$ entonces los eigenvalores son $1$ y $\pm i$. Si trabajamos sobre $\mathbb{R}$ entonces tenemos un único eigenvalor: $1$.

$\triangle$

Ejercicios

Acabamos esta entrada con unos ejercicios para reforzar lo que vimos.

Problema 1. Encuentra todos los números reales $x$ tales que la matriz

\begin{align*}
A=\begin{pmatrix}
1 & x\\
2 & 1
\end{pmatrix}
\end{align*}

tiene exactamente dos eigenvalores distintos. La misma pregunta para ningún eigenvalor.

Solución. El número de eigenvalores va a estar dado por el número de raíces del polinomio $\det(\lambda I_2-A)$. Es decir, tenemos que trabajar la ecuación

\begin{align*}
\det(\lambda I_2-A)=\begin{vmatrix} \lambda -1 & -x\\ -2 & \lambda-1\end{vmatrix}=0.
\end{align*}

Que a su vez se reduce a

\begin{align*}
(\lambda-1)^2-2x=0.
\end{align*}

Y para que tenga dos soluciones basta con que $2x$ sea un número positivo. En efecto, en ese caso podemos despejar y resolver

\begin{align*}
\lambda = 1 \pm \sqrt{2x}.
\end{align*}

Como $2x$ es positivo solo si $x$ lo es, podemos concluir que la condición necesaria y suficiente es que $x$ sea un real positivo. Similarmente, si $x$ es un número negativo no tendremos ningún eigenvalor.

$\triangle$

Problema 2. Sea $V$ el conjunto de todas las matrices $A\in M_2(\mathbb{C})$ tales que $v=\begin{pmatrix} 1\\ 2 \end{pmatrix}$ es un eigenvector de $A$. Demuestra que $V$ es un subespacio de $M_2(\mathbb{C})$ y da una base.

Solución. Supongamos que $v$ es un eigenvector de $A$, con eigenvalor $\lambda$, y que es eigenvector de $B$, con eigenvalor $\mu$. Entonces

\begin{align*}
(A+c B)(v)= Av+c Bv= \lambda v+c\mu v= (\lambda+c\mu)v
\end{align*}

por lo que $v$ es eigenvector de $A+cB$ con eigenvalor $\lambda +c\mu$. Esto demuestra que $V$ es un subespacio. Para darnos una idea de cómo podría ser una base para $V$, comencemos con una matriz genérica $A=\begin{pmatrix} a & b\\ c & d\end{pmatrix}$ tal que $A\in V$. Entonces $A$ tiene que satisfacer $Av=\lambda v$ para algún $\lambda$. Escribamos esto más explícitamente

\begin{align*}
\begin{pmatrix}
a & b\\
c & d
\end{pmatrix} \cdot \begin{pmatrix} 1 \\ 2\end{pmatrix}= \begin{pmatrix}
a+2b\\
c+2d
\end{pmatrix}=\begin{pmatrix} \lambda \\ 2\lambda\end{pmatrix}.
\end{align*}

Así se desprenden dos ecuaciones

\begin{align*}
\begin{cases}
a+2b=\lambda \\
c+2d=2\lambda
\end{cases}.
\end{align*}

Sabemos que $\lambda$ es un parámetro libre, pues puede ser cualquier eigenvalor. Si conocemos a $\lambda$ entonces necesitamos alguna de las variables, $a$ o $b$ para determinar a la otra y lo mismo con $c$ y $d$. Entonces escojamos $b$ y $d$ como variables libres. Enseguida nuestra matriz es de la forma (reemplazando a $a$ y $c$ por sus valores en $b$ y $d$):

\begin{align*}
A&= \begin{pmatrix}
\lambda -2b & b\\
2\lambda -2d & d
\end{pmatrix}\\
&= b\begin{pmatrix} -2 & 1\\ 0 & 0
\end{pmatrix}+ d \begin{pmatrix} 0 & 0 \\ -2 & 1\end{pmatrix}+\lambda \begin{pmatrix} 1 & 0\\
2 & 0
\end{pmatrix}.
\end{align*}

Entonces proponemos como base

\begin{align*}
\beta = \bigg\lbrace \begin{pmatrix} -2 & 1\\ 0 & 0
\end{pmatrix}, \begin{pmatrix} 0 & 0 \\ -2 & 1\end{pmatrix},\begin{pmatrix} 1 & 0\\
2 & 0
\end{pmatrix}\bigg\rbrace.
\end{align*}

Ya vimos que $\beta$ genera a $V$, y dejamos la independencia lineal como ejercicio.

$\square$

Más adelante…

En las próximas entradas desarrollaremos las propiedades relevantes de los eigenvalores y eigenvectores para eventualmente llegar al polinomio característico y establecer el puente con el polinomio mínimo.

Tarea moral

Aquí unos ejercicios para que repases el material de esta entrada.

  1. Encuentra todos los eigenvalores de la matriz $A=\begin{pmatrix} 1 & 1 &0 \\ 0 & 2 &1\\ 0 & 0 & 1\end{pmatrix}\in M_3(\mathbb{C})$.
  2. Completa la demostración del último ejercicio de la sección de ejercicios, verificando que las soluciones encontradas son matrices linealmente independientes. ¿Puedes generalizar este ejercicio de alguna manera?
  3. Encuentra los eigenvalores de la matriz $A\in M_n(\mathbb{R})$ cuyas entradas son puros $2$.
  4. Da contraejemplos para cada una de las siguientes afirmaciones:
    1. Si $u$ y $v$ son eigenvectores de $A$, entonces $u+v$ es eigenvector de $A$.
    2. Si $\lambda$ es eigenvalor de $A$ y $\mu$ es eigenvalor de $B$, entonces $\lambda \mu$ es eigenvalor de $AB$.
    3. Si $A$ y $B$ son formas matriciales de una misma transformación $T$ y $v$ es eigenvector de $A$, entonces $v$ es eigenvector de $B$.
  5. Considera la transformación derivada en $\mathbb{R}[x]$. ¿Quienes son sus eigenvectores y eigenvalores? Como sugerencia, estudia el coeficiente de mayor grado.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»