Álgebra Lineal II: Eigenvectores y eigenvalores

Introducción

En esta entrada revisitamos los conceptos de eigenvalores y eigenvectores de una transformación lineal. Estos son esenciales para entender a las transformaciones lineales, y tienen un rango de aplicabilidad impresionante: aparecen en la física, las ecuaciones diferenciales parciales, la ciencia de datos, la topología algebraica y la probabilidad.

Primero enunciaremos la definición, después veremos un primer ejemplo para convencernos de que no son objetos imposibles de calcular. Luego daremos un método para vislumbrar una manera más sencilla de hacer dicho cálculo y concluiremos con unos ejercicios.

Eigen-definiciones

Comenzamos con $V$ un espacio vectorial sobre $F$ y $T:V\to V$ una transformación lineal.

Definición. Un eigenvalor (también conocido como valor propio) de $T$ es un escalar $\lambda \in F$ tal que $\lambda \cdot \operatorname{Id}-T$ no es invertible. Un eigenvector (también conocido como vector propio o $\lambda$-eigenvector) correspondiente a $\lambda$ es un vector no-cero de $\ker (\lambda \cdot \operatorname{Id}-T)$. A este kernel se le conoce como el eigenespacio correspondiente a $\lambda$ (o $\lambda$-eigenespacio).

Entonces un $\lambda$-eigenvector es por definición distinto de cero y satisface

\begin{align*}
T(v)=\lambda v.
\end{align*}

Hay que tener cuidado. se permite que $\lambda=0$ sea eigenvalor, pero no se permite que $v=0$ sea eigenvector.

La colección de todos los eigenvectores, junto con el vector cero, es el eigenespacio asociado a $\lambda$. Podemos enunciar definiciones análogas con matrices.

Definición. Sea $A\in M_n(F)$ una matriz cuadrada. Un escalar $\lambda \in F$ es un eigenvalor de $A$ si existe un vector $X\in F^n$ distinto de cero (un eigenvector) tal que $AX=\lambda X$. En este caso el subespacio

\begin{align*}
\ker(\lambda I_n-A):=\lbrace X\in F^n\mid AX=\lambda X\rbrace
\end{align*}

es el $\lambda$-eigenespacio de $A$.

Puedes verificar que ambas definiciones se corresponden en el siguiente sentido:

Si $V$ es un espacio de dimensión finita y $T:V\to V$ es una transformación lineal, podemos escoger cualquier base de $V$ y asociarle a $T$ su forma matricial, digamos $A$, en esta base. Los eigenvalores de $T$ son precisamente los eigenvalores de $A$. ¡Pero cuidado! Los eigenvectores de $A$ dependerán de la base elegida.

Un primer ejemplo

Seguimos con un sencillo pero importante ejemplo.

Ejemplo. Considera la matriz

\begin{align*}
A=\begin{pmatrix}
0 & -1\\
1 & 0
\end{pmatrix}.
\end{align*}

Busquemos los eigenvectores y eigenvalores de $A$, pensando a $A$ como una matriz con entradas complejas. Sea $\lambda\in \mathbb{C}$ un eigenvalor y $X$ un eigenvector asociado. Entonces se cumple la relación $AX=\lambda X$. Si $X=(x_1,x_2)$ entonces la condición mencionada es equivalente al par de ecuaciones

\begin{align*}
-x_2=\lambda x_1, \hspace{5mm} x_1=\lambda x_2.
\end{align*}

Sustituyendo una en la otra obtenemos

\begin{align*}
-x_2=\lambda^2 x_2.
\end{align*}

Si $x_2=0$ entonces $x_1=0$ y así $X$ es un vector nulo, lo que es imposible por definición (recuerda que pedimos que los eigenvectores sean distintos de cero). Entonces $x_2\neq 0$ y podemos dividir por $x_2$ a la ecuación previa, de manera que $\lambda^2=-1$, o sea $\lambda=\pm i$. Conversamente, $i$ y $-i$ son eigenvalores. En efecto, podemos tomar $x_2=1$ y $x_1=\lambda$ como soluciones del problema anterior y obtener un vector propio asociado. De hecho, el eigenespacio está dado por

\begin{align*}
\ker (\lambda I_2-A)=\lbrace (\lambda x_2, x_2)\mid x_2\in \mathbb{C}\rbrace
\end{align*}

y esto no es más que la recta generada por el vector $v=(\lambda,1)\in \mathbb{C}^2$. Por lo tanto, vista como una matriz compleja, $A$ tiene dos eigenvalores distintos $\pm i$ y dos eigenespacios, los generados por $(i,1)$ y $(-i,1)$.

Por otro lado, veamos qué pasa si pensamos a $A$ como una matriz con entradas reales. Haciendo las mismas cuentas llegamos a la misma ecuación, $-x_2=\lambda^2 x_2$. Podemos reescribirla factorizando el término $x_2$:

\begin{align*}
(\lambda^2+1)x_2=0.
\end{align*}

Como $\lambda$ esta vez es un número real, $\lambda^2+1$ siempre es distinto de cero. Entonces para que el producto sea cero, tiene que ocurrir que $x_2=0$, ¡pero entonces $x_1=0$ y así $X=0$! En conclusión: vista como una matriz con entradas reales, $A$ no tiene eigenvalores, y por tanto no tiene eigenespacios. La moraleja es que los eigenvalores y eigenvectores dependen mucho del campo en el que trabajemos.

¿Cómo calcularlos?

Si bien el ejemplo anterior resultó simple, no es difícil imaginar que matrices más complicadas y más grandes pueden resultar en procedimientos menos claros. En general:

  • ¿Cómo podemos calcular los eigenvalores?
  • ¿Cómo podemos calcular los eigenespacios de manera eficiente?
  • ¿Cómo podemos calcular los eigenvectores?

Una vez calculados los eigenvalores, calcular los eigenespacios se reduce a resolver el sistema de ecuaciones homogéneo $(A-\lambda I_n)X=0$, lo cual ya hemos hecho muchas veces mediante reducción gaussiana. Luego, calcular los eigenvectores simplemente es tomar los elementos no cero del eigenespacio. Sin embargo, el cálculo de eigenvalores involucra encontrar raíces de polinomios lo cual de entrada no es obvio. Un primer paso es la siguiente observación que enunciamos como proposición.

Proposición. Un escalar $\lambda \in F$ es un eigenvalor de $A\in M_n(F)$ si y sólo si

\begin{align*}
\det(\lambda I_n-A)=0.
\end{align*}

Demostración. El sistema $(\lambda I_n-A)X=0$ tiene soluciones no triviales si y sólo si la matriz $\lambda I_n-A$ no es invertible. A su vez, la matriz $\lambda I_n-A$ no es invertible si y sólo si su determinante es nulo. El resultado se sigue.

$\square$

Regresemos a nuestra pregunta. Si

\begin{align*}
A=\begin{pmatrix}
a_{11} & a_{12} & \dots & a_{1n}\\
a_{21} & a_{22} & \dots & a_{2n}\\
\dots & \dots & \dots& \dots\\
a_{n1} & a_{n2}& \dots & a_{nn}
\end{pmatrix}
\end{align*}

entonces la proposición nos dice que podemos calcular los valores propios de $A$ resolviendo la ecuación polinomial

\begin{align*}
\begin{vmatrix}
\lambda- a_{11} & -a_{12} & \dots & -a_{1n}\\
-a_{21} & \lambda -a_{22} & \dots & -a_{2n}\\
\dots & \dots & \dots & \dots \\
-a_{n1} & -a_{n2} & \dots & \lambda-a_{nn}
\end{vmatrix}
=0
\end{align*}

en $F$. Esta es una ecuación polinomial de grado $n$, y si el grado es mayor a $4$ en general no existe una fórmula para resolverla en términos de radicales (aunque claro que hay casos particulares que si podemos resolver sin mucho problema).

Problema. Queremos calcular los eigenvalores de $A$, donde $A$ está dada por

\begin{align*}
A=\begin{pmatrix}
1 & 0 & 0\\
0 & 0 &-1\\
0 & 1 & 0
\end{pmatrix}.
\end{align*}

Solución. Como vimos en la proposición, esto se reduce a calcular las raíces del polinomio

\begin{align*}
\begin{vmatrix}
\lambda -1 & 0 & 0\\
0 & \lambda & 1\\
0 &-1 & \lambda
\end{vmatrix}=0.
\end{align*}

Calculando el determinante vemos que esto es de hecho

\begin{align*}
(\lambda-1)(\lambda^2+1)=0.
\end{align*}

Sin embargo tenemos que recordar que las raíces dependen de nuestro campo de elección. Como no comentamos nada sobre el campo en el cual trabajamos, consideraremos dos casos. Si el campo es $\mathbb{C}$ entonces los eigenvalores son $1$ y $\pm i$. Si trabajamos sobre $\mathbb{R}$ entonces tenemos un único eigenvalor: $1$.

$\square$

Ejercicios

Acabamos esta entrada con unos ejercicios para reforzar lo que vimos.

Problema. Encuentra todos los números reales $x$ tales que la matriz

\begin{align*}
A=\begin{pmatrix}
1 & x\\
2 & 1
\end{pmatrix}
\end{align*}

tiene exactamente dos eigenvalores distintos. La misma pregunta para ningún eigenvalor.

Solución. El número de eigenvalores va a estar dado por el número de raíces del polinomio $\det(\lambda I_2-A)$. Es decir, tenemos que trabajar la ecuación

\begin{align*}
\det(\lambda I_2-A)=\begin{vmatrix} \lambda -1 & -x\\ -2 & \lambda-1\end{vmatrix}=0.
\end{align*}

Que a su vez se reduce a

\begin{align*}
(\lambda-1)^2-2x=0.
\end{align*}

Y para que tenga dos soluciones basta con que $2x$ sea un número positivo. En efecto, en ese caso podemos despejar y resolver

\begin{align*}
\lambda = 1 \pm \sqrt{2x}.
\end{align*}

Como $2x$ es positivo solo si $x$ lo es, podemos concluir que la condición necesaria y suficiente es que $x$ sea un real positivo. Similarmente, si $x$ es un número negativo no tendremos ningún eigenvalor.

$\square$

Problema. Sea $V$ el conjunto de todas las matrices $A\in M_2(\mathbb{C})$ tales que $v=\begin{pmatrix} 1\\ 2 \end{pmatrix}$ es un eigenvector de $A$. Demuestra que $V$ es un subespacio de $M_2(\mathbb{C})$ y da una base.

Solución. Supongamos que $v$ es un eigenvector de $A$, con eigenvalor $\lambda$, y que es eigenvector de $B$, con eigenvalor $\mu$. Entonces

\begin{align*}
(A+c B)(v)= Av+c Bv= \lambda v+c\mu v= (\lambda+c\mu)v
\end{align*}

por lo que $v$ es eigenvector de $A+cB$ con eigenvalor $\lambda +c\mu$. Esto demuestra que $V$ es un subespacio. Para darnos una idea de cómo podría ser una base para $V$, comencemos con una matriz genérica $A=\begin{pmatrix} a & b\\ c & d\end{pmatrix}$ tal que $A\in V$. Entonces $A$ tiene que satisfacer $Av=\lambda v$ para algún $\lambda$. Escribamos esto más explicitamente

\begin{align*}
\begin{pmatrix}
a & b\\
c & d
\end{pmatrix} \cdot \begin{pmatrix} 1 \\ 2\end{pmatrix}= \begin{pmatrix}
a+2b\\
c+2d
\end{pmatrix}=\begin{pmatrix} \lambda \\ 2\lambda\end{pmatrix}.
\end{align*}

Así se desprenden dos ecuaciones

\begin{align*}
\begin{cases}
a+2b=\lambda \\
c+2d=2\lambda
\end{cases}.
\end{align*}

Sabemos que $\lambda$ es un parámetro libre, pues puede ser cualquier eigenvalor. Si conocemos a $\lambda$ entonces necesitamos alguna de las variables, $a$ o $b$ para determinar a la otra y lo mismo con $c$ y $d$. Entonces escojamos $b$ y $d$ como variables libres. Enseguida nuestra matriz es de la forma (reemplazando a $a$ y $c$ por sus valores en $b$ y $d$):

\begin{align*}
A&= \begin{pmatrix}
\lambda -2b & b\\
2\lambda -2d & d
\end{pmatrix}\\
&= b\begin{pmatrix} -2 & 1\\ 0 & 0
\end{pmatrix}+ d \begin{pmatrix} 0 & 0 \\ -2 & 1\end{pmatrix}+\lambda \begin{pmatrix} 1 & 0\\
2 & 0
\end{pmatrix}.
\end{align*}

Entonces proponemos como base

\begin{align*}
\beta = \bigg\lbrace \begin{pmatrix} -2 & 1\\ 0 & 0
\end{pmatrix}, \begin{pmatrix} 0 & 0 \\ -2 & 1\end{pmatrix},\begin{pmatrix} 1 & 0\\
2 & 0
\end{pmatrix}\bigg\rbrace.
\end{align*}

Ya vimos que $\beta$ genera a $V$, y dejamos la independencia lineal como ejercicio.

$\square$

Más adelante

En las próximas entradas desarrollaremos las propiedades relevantes de los eigenvalores y eigenvectores para eventualmente llegar al polinomio característico y establecer el puente con el polinomio mínimo.

Tarea moral

Aquí unos ejercicios para que repases el material de esta entrada.

  1. Encuentra todos los eigenvalores de la matriz $A=\begin{pmatrix} 1 & 1 &0 \\ 0 & 2 &1\\ 0 & 0 & 1\end{pmatrix}\in M_3(\mathbb{C})$.
  2. Completa la demostración del último ejercicio de la sección de ejercicios, verificando que las soluciones encontradas son matrices linealmente independientes. ¿Puedes generalizar este ejercicio de alguna manera?
  3. Encuentra los eigenvalores de la matriz $A\in M_n(\mathbb{R})$ cuyas entradas son puros $2$.
  4. Da contraejemplos para cada una de las siguientes afirmaciones:
    1. Si $u$ y $v$ son eigenvectores de $A$, entonces $u+v$ es eigenvector de $A$.
    2. Si $\lambda$ es eigenvalor de $A$ y $\mu$ es eigenvalor de $B$, entonces $\lambda \mu$ es eigenvalor de $AB$.
    3. Si $A$ y $B$ son formas matriciales de una misma transformación $T$ y $v$ es eigenvector de $A$, entonces $v$ es eigenvector de $B$.
  5. Considera la transformación derivada en $\mathbb{R}[x]$. ¿Quienes son sus eigenvectores y eigenvalores? Como sugerencia, estudia el coeficiente de mayor grado.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.