Introducción
En la entrada anterior platicamos acerca de eigenvectores, eigenvalores y eigenespacios de matrices y transformaciones lineales. Vimos algunos ejemplos básicos. En esta entrada profundizaremos en el estudio de estos objetos y exploraremos diversas de sus propiedades. Comenzaremos con algunas observaciones inmediatas. Después, veremos cómo encontrar de manera sencilla los eigenvalores de las matrices triangulares superiores. También veremos que «eigenvectores correspondientes a eigenvalores diferentes son linealmente independientes«. Finalmente, conectaremos estas nuevas ideas con un objeto que estudiamos previamente: el polinomio mínimo.
Primeras observaciones
A partir de la proposición de la entrada anterior que nos dice cómo calcular eigenvalores se desprenden algunas consecuencias sencillas pero útiles.
Por ejemplo, recuerda que el determinante de una matriz y su transpuesta es igual. En particular, si entonces
Luego si y sólo si
. Recordando que las raíces de estos polinomios son precisamente los eigenvalores, se sigue que los eigenvalores de
y
son iguales.
Por otro lado, como los eigenvalores son las raíces de un polinomio de grado , sabemos que hay a lo más
soluciones. Entonces toda matriz tiene a lo más
eigenvalores.
Esto también ocurre para transformaciones lineales en espacios de dimensión finita y lo podemos enunciar como sigue:
Corolario. Sea un espacio de dimensión finita sobre
y
lineal. Entonces
tiene a lo más
eigenvalores distintos.
Sin embargo, si el espacio no es de dimensión finita no podemos hacer tal afirmación. Si es el espacio de todas las funciones suaves (es decir con derivadas de todos los órdenes) de
en
y
es la función lineal que a cada función la manda en su derivada, entonces tenemos «muchos» eigenvalores. Haciendo esto más preciso, para cada real
la función
es un eigenvector con eigenvalor
puesto que
Así, tenemos al menos tantos eigenvalores como números reales. De hecho, estos son exactamente los eigenvalores de , lo cual puede demostrarse mediante el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales, que estudiarás en otro momento de tu formación matemática.
Matrices triangulares superiores
Parte del interés de «triangular» matrices (es decir, encontrar una matriz similar que sea triangular superior) está dada por la facilidad de calcular sus eigenvalores. Exploramos esto mediante los siguientes dos problemas.
Problema. Sea una matriz triangular superior en
. Demuestra que los eigenvalores de
son precisamente los elementos en la diagonal.
Solución. Ya establecimos que encontrar los valores propios se reduce a encontrar las raíces del polinomio . Notamos que si
es triangular superior, entonces
también es triangular superior. Más aún, las entradas de la diagonal son simplemente
. Pero sabemos que el determinante de una matriz triangular superior es el producto de sus entradas diagonales. Así
cuyas raíces son exactamente los elementos .
Podemos combinar el resultado anterior con otras propiedades de matrices triangulares superiores para resolver a mano algunos problemas que de entrada parecen complicados.
Problema. Encuentra los eigenvalores de donde
Solución. En realidad no hace falta hacer el producto de matrices para encontrar la matriz . Sabemos que el producto de dos matrices triangulares superiores es triangular superior y que de hecho las entradas de la diagonal son solo el producto de las entradas correspondientes. Es decir, si
y
son dos matrices triangulares superiores, las entradas de la diagonal son
. En nuestro caso, las entradas de la diagonal son
y
, y por el problema anterior, estos son precisamente los eigenvalores de
.
Relaciones con independencia lineal y combinaciones polinomiales
El resultado principal de esta entrada es el siguiente teorema, que en particular afirma que si dos eigenvalores son distintos, sus eigenvectores son linealmente independientes. En realidad, el resultado es un poco más general y lo enunciamos a continuación
Teorema. Sean eigenvalores distintos dos a dos de una transformación lineal
. Entonces los
-eigenespacios están en posición de suma directa.
Demostración. Por definición, tenemos que demostrar que si tenemos una colección de eigenvectores con
y
entonces
. Procedemos por inducción sobre
.
Nuestro caso base es una tautología, pues si entonces tenemos que mostrar que si
entonces
.
Asumamos que el resultado se cumple para y verifiquemos que se cumple para
. Supongamos que
. Aplicando
de ambos lados de esta igualdad llegamos a
Por otro lado, si multiplicamos a la igualdad por
de ambos lados llegamos a
Sustrayendo y factorizando estas dos igualdades se sigue que
Esto es una combinación lineal de los primeros vectores
igualada a cero. Luego, la hipótesis inductiva nos dice que
para todo
. Como
entonces
y entonces
. Sustituyendo en la igualdad original, esto implica que
inmediatamente.
Enseguida veremos que si formamos un polinomio , entonces
es un eigenvalor de
para cualquier eigenvalor
de
. Esto lo veremos en el siguiente problema.
Problema. Sea un eigenvalor de
y sea
un polinomio en una variable con coeficientes en
. Demuestra que
es un eigenvalor de
.
Solución. Como es un eigenvalor de
, existe
un vector no cero tal que
. Inductivamente, se cumple que
. En efecto
Usando esto, si se tiene que
Esto muestra que es un eigenvalor de
.
Relación con el polinomio mínimo
Una consecuencia del problema previo es la siguiente proposición.
Proposición. Sea una matriz y
un polinomio tal que
. Entonces cualquier eigenvalor
de
satisface
.
Solución. Por el problema anterior, es un eigenvalor de
, pero
y el único eigenvalor de la matriz cero es
. Luego
.
De esto, podemos por fin establecer una conexión con el polinomio mínimo, que enunciamos en forma de teorema.
Teorema. Sea una transformación lineal sobre un espacio de dimensión finita sobre un campo
. Los eigenvalores de
son precisamente las raíces en
del polinomio mínimo
.
Demostración. Dado que , el problema que acabamos de resolver nos dice que todos los eigenvalores de
son raíces de
.
Conversamente, supongamos que existe una raíz de
que no es eigenvalor. Entonces la transformación
es invertible. Como
, podemos factorizar la raíz y escribir
para algún
. Dado que
deducimos que
Recordando una vez más que es invertible, esta ecuación implica que
. Ya que
es el polinomio mínimo, por una propiedad que mostramos anteriormente obtendríamos que
divide a
. Pero esto se contradice con la igualdad
, que nos dice que
tiene grado mayor. Esto concluye la demostración.
Ejercicios
Terminamos con un par de ejercicios para repasar el material de estas secciones. El primero de entre ellos toma prestados nombres de la probabilidad (lo lo cuál puede sugerirte en qué tipo de texto te podrías encontrar con estas matrices).
Problema. Una matriz se dice estocástica si
para todo
y
para todo
.
Demuestra que es un eigenvalor de cualquier matriz estocástica.
Solución. Consideremos el vector . Nota que
Es decir , por lo que
es un eigenvector de
con eigenvalor asociado
.
Problema. Sea el espacio de todos los polinomios con coeficientes reales. Sea
la transformación lineal dada por
. ¿Cuáles son los eigenvalores de
?
Solución. Observa que












Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
- Sea
el espacio de polinomios con coeficientes reales de grado a lo más
. Encuentra los eigenvalores de la transformación
.
- Si
es el espacio de polinomios con coeficientes reales, encuentra los eigenvalores de
.
- Sean
matrices en
tales que
. Demuestra que para todo
se cumple que
y de esto deduce que
es nilpotente: existe
tal que
. Sugerencia: ¿Cuántos eigenvalores puede tener
?
- ¿Puedes generalizar el último problema de la sección de matrices triangulares superiores?
- Sea
una matriz cuadrada con entradas reales. Supón que
es un real positivo que es eigenvalor de
. Demuestra que
o
es un eigenvalor de
. ¿Sucederá a veces que sólo una de estas es eigenvalor?
Más adelante
En las entradas subsecuentes iremos más a fondo en el concepto de polinomio característico, para eventualmente llegar al teorema de Cayley-Hamilton. Para eso tendremos que equiparnos de bastante teoría y repasar varias propiedades de dicho polinomio.
Hola,
Para la demostración del Teorema donde los eigenvectores de eigenvalores distintos son linealmente independiente, ¿Por qué debemos que tener que v1+v2+…+vn=0? Tengo entendido que esto quiere resumir que cualquier eigenvector ui de λi es multiplicado por un escalar αi≠0, entonces este nuevo vector vi=αiui es eigenvector de λi. Lo que no veo es cómo evitar que no exista ningún αj=0 que ya evite a vj ser un eigenvector.
Ya entiendo. Es porque estamos haciendo inducción fuerte, y por lo tanto tenemos que ya todo subconjunto de {vi} de menor cardinalidad debe ser linealmente independiente. Con esto, no puede ser el caso que exista un αj=0, ya que esto contradice la hipótesis de inducción fuerte al estar trabajando en k.
Me disculpo por gastar su tiempo con pregunta anterior.
Que tenga un buen día.
Hola Antonio. La demostración aquí está escrita un poquito diferente a como la vimos en el curso. Lo que sucede es que aquí está enunciada en términos de «sumas directas» de subespacios y por eso basta considerar que tengan coeficiente 1. Por ejemplo, si quisieras pensar en alpha_1v_1, entonces mejor lo nombras w_1=alpha_1v_1 y con eso w_1 vuelve a estar en el subespacio (recuerda que son cerrados bajo multiplicación escalar) y de ahí trabajas como en la demostración.