Introducción
En entradas anteriores ya establecimos los fundamentos para hablar de determinantes. Dimos su definición para el caso de vectores y el caso de matrices/transformaciones lineales. Enunciamos y demostramos varias de sus propiedades. Luego dedicamos toda una entrada a ver formas de calcularlos. Finalmente, vimos que nos pueden ayudar para entender mucho mejor a los sistemas de ecuaciones lineales. Entender bien estos conceptos te será de gran utilidad en tu formación matemática.
Además, los determinantes son un paso natural en uno de nuestros objetivos del curso: entender por qué las matrices simétricas reales son diagonalizables. Recuerda que una matriz en
es diagonalizable si existe una matriz diagonal
y una matriz invertible
, ambas en
, de modo que
Lo que haremos en esta entrada es hablar de esos valores que aparecen en la matriz diagonal en el caso de que
sea diagonalizable. Resulta que estos valores están relacionados con una pregunta muy natural en términos de lo que le hace la matriz a ciertos vectores. Y mejor aún, como veremos, hay un método para encontrar estos valores por medio de un determinante. Vamos poco a poco.
Eigenvalores y eigenvectores para transformaciones lineales
Sea un espacio vectorial sobre un campo
y sea
una transformación lineal. Para fijar ideas, pensemos en
por el momento. A veces,
simplemente la cambia la magnitud a un vector, sin cambiarle la dirección. Es decir, hay algunos vectores para los cuales
se comporta simplemente como la multiplicación por un escalar. En símbolos, hay vectores
tales que existe un valor
tal que
.
Por supuesto, al vector siempre le pasa esto, pues como
es lineal, se tiene que
para cualquier escalar
. Resulta que cuando se estudian estos vectores y escalares especiales, lo más conveniente es quitar al vector
de la discusión. Estas ideas llevan a la siguiente definición.
Definición. Un eigenvalor de una transformación lineal es un escalar
tal que
no es invertible. En otras palabras,
es un escalar tal que existe un vector no cero en el kernel de
. A un vector
en
tal que

En otras palabras, es un eigenvector correspondiente a
si
no es cero y
. A los eigenvalores y eigenvectores de
también se les conoce en la bibliografía como valores propios y vectores propios de
.
Observa que si al conjunto de eigenvectores para un eigenvalor le agregamos el vector
, entonces obtenemos el kernel de una transformación lineal, que sabemos que es un subespacio vectorial.
Veamos un par de ejemplos para que queden más claras las ideas.
Ejemplo. Consideremos a la transformación lineal dada por
Observa que
que
y que
Estas igualdades muestran que es un eigenvector de
con eigenvalor
, que
es un eigenvector de
con eigenvalor
y
es un eigenvector de
con eigenvalor
.
Ejemplo. Consideremos al espacio vectorial de polinomios con coeficientes reales. Tomemos la transformación lineal
que manda a un polinomio a su segunda derivada. ¿Quiénes son los eigenvalores y eigenvectores de
?
Para que sea un eigenvector con eigenvalor
, tiene que suceder que
Como no es el vector cero, tiene un cierto grado. Si
, entonces la igualdad anterior no puede suceder, pues si
es de grado mayor o igual a
, entonces el grado de
es menor al de
, y si el grado de
es
ó
, su segunda derivada es
, y no puede pasar
. Así, el único eigenvalor que puede tener
es
. Observa que sí es válido que los eigenvalores sean cero (los eigenvectores no).
Cuando , tiene que pasar que
sea
, es decir, el polinomio cero. Los únicos polinomios tales que su derivada es cero son los constantes y los lineales. Pero el polinomio cero por definición no es eigenvector.
Así, la respuesta final es que el único eigenvalor de es
, y sus eigenvectores correspondientes son los polinomios constantes distintos de cero, y los polinomios lineales.
Eigenvalores y eigenvectores para matrices
Tenemos una definición similar para matrices. Sea una matriz en
.
Definición. Un escalar en
es un eigenvalor de
si la matriz
no es invertible. En otras palabras, si existe un vector no cero
en
tal que
. A un tal vector
se le conoce como un eigenvector correspondiente al eigenvalor
.
En otras palabras, los eigenvalores y eigenvectores de son exactamente los eigenvalores y eigenvectores de la transformación
dada por
.
Además, si elegimos cualquier base de un espacio de dimensión finita
y
es la matriz de
con respecto a la base
, entonces para cualquier escalar
se tiene que
es la matriz de
con respecto a esta misma base. De aquí se deduce que los eigenvalores de
son los mismos que los eigenvalores de
. Dos matrices que representan a
difieren sólo en un cambio de base, así que obtenemos el siguiente resultado fundamental.
Proposición. Si es una matriz en
y
es una matriz invertible, entonces
y
tienen los mismos eigenvalores. En otras palabras, matrices similares tienen los mismos eigenvalores.
En el primer ejemplo tomamos la transformación lineal tal que





Proposición. Si es una matriz triangular (superior o inferior) en
, entonces sus eigenvalores son exactamente las entradas en su diagonal principal.
Demostración. Haremos el caso para cuando es triangular superior. El otro caso queda de tarea moral.
Queremos encontrar los valores para los cuales la matriz
no sea invertible. La matriz
es triangular superior, así que la matriz
también, pues las entradas de
se vuelven negativas, y luego sólo se altera la diagonal principal.
Si las entradas diagonales de son
, entonces las entradas diagonales de
son
La matriz no es invertible si y sólo si su determinante es igual a cero. Como es una matriz triangular superior, su determinante es el producto de sus entradas diagonales, es decir,
Este producto es si y sólo si
es igual a alguna entrada
. De esta forma, los únicos eigenvalores de
son las entradas en su diagonal.
Si es una matriz diagonalizable, entonces es semejante a una matriz diagonal
. Por la proposición anterior, los eigenvalores de
serían entonces las entradas en la diagonal principal de
. Esto nos da una intuición muy importante: si acaso pudiéramos encontrar todos los eigenvalores de
, entonces eso podría ser un paso parcial hacia diagonalizarla.
Encontrar eigenvalores es encontrar las raíces de un polinomio
La siguiente proposición conecta eigenvalores, polinomios y determinantes.
Proposición. Sea una matriz en
. Entonces la expresión
![Rendered by QuickLaTeX.com F[\lambda]](https://blog.nekomath.com/wp-content/ql-cache/quicklatex.com-ff4cc5a0134df4f9ef0f6c639dd10994_l3.png)



Demostración. La fórmula para el determinante
en términos de permutaciones nos dice que el determinante es sumas de productos de entradas de . Cada una de las entradas es un polinomio en
, ya sea constante, o lineal. Como
es cerrado bajo sumas y productos, esto prueba la primer parte de la afirmación.
Para probar que el grado es exactamente , notemos que cada sumando de la expresión multiplica exactamente
entradas. Como las entradas a lo mucho son de grado uno en
, entonces cada sumando es un polinomio de grado a lo más
. Hay una única forma que el grado sea
: cuando se elige la permutación identidad y entonces se obtiene el sumando
Esto termina la prueba.
La proposición anterior nos asegura entonces que la siguiente definición tiene sentido.
Definición. Para una matriz en
, el polinomio característico de
es el polinomio
en
dado por
De esta forma, es un eigenvalor de
si y sólo si es una raíz del polinomio
. Esto son buenas y malas noticias. Por un lado, nos cambia un problema de álgebra lineal a uno de polinomios, en donde a veces tenemos herramientas algebraicas que nos ayudan a encontrar raíces. Sin embargo, como se ve en cursos anteriores, también hay otros polinomios para los cuales es muy difícil encontrar sus raíces de manera exacta. Lo que salva un poco esa situación es que sí existen métodos para aproximar raíces numéricamente de manera computacional.
A pesar de la dificultad de encontrar raíces, sin duda tenemos consecuencias interesantes de esta conexión. Consideremos como ejemplo el siguiente resultado.
Proposición. Una matriz en
tiene a lo más
eigenvalores distintos. Lo mismo es cierto para una transformación lineal
para
un espacio vectorial de dimensión
.
Demostración. La matriz tiene tantos eigenvalores como raíces en
tiene su polinomio característico. Como el polinomio característico es de grado exactamente
, tiene a lo más
raíces en
.
La parte de transformaciones queda de tarea moral.
Ya que encontramos los eigenvalores de una matriz o transformación, es posible que queramos encontrar uno o más eigenvectores correspondientes a ese eigenvalor. Observa que eso corresponde a encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo de la forma
Terminamos esta entrada con un ejemplo de cómo encontrar los valores propios y vectores propios en un caso concreto.
Problema. Encuentra los eigenvalores de la matriz
- Una matriz en
- Una matriz en
.
En el caso de , encuentra un eigenvector para cada eigenvalor.
Solución. Para encontrar los eigenvalores, tenemos que encontrar el determinante
Usando expansión de Laplace en la primer columna y haciendo las operaciones, obtenemos que el determinante de es el polinomio
Aquí es importante la distinción de saber en qué campo estamos trabajando. Si estamos en , la única raíz del polinomio es
. Si estamos en
, obtenemos otras dos raíces:
y
.
Ahora, para cuando es matriz en
, necesitamos encontrar un eigenvector para el eigenvalor
. Esto equivale a encontrar una solución al sistema de ecuaciones
Una solución para este sistema es . Y en efecto,
es eigenvector de
para el eigenvalor
pues no es el vector cero y
Observa que la matriz anterior no es diagonalizable en , pues si lo fuera tendría que ser semejante a una matriz diagonal
con entradas
y
en la diagonal, pero entonces
no sería una matriz en
. Esto nos da otra intuición con respecto a la diagonalización de una matriz: si acaso una matriz en
es diagonalizable, entonces su polinomio característico debe tener puras raíces en
. Esta es una condición necesaria, pero aún no es suficiente.
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
- En la entrada vimos que los eigenvalores de una transformación
son los eigenvalores de cualquier matriz que la represente. ¿Es cierto que los eigenvectores de
son los eigenvectores de cualquier matriz que lo represente?
- Muestra que una transformación lineal
para
un espacio vectorial de dimensión
tiene a lo más
eigenvalores distintos.
- Encuentra los eigenvalores de las matrices de permutación.
- Para un real
se define la matriz
tiene eigenvalores reales si y sólo si
\o
. Sugerencia: Encuentra el polinomio característico (que es cuadrático) y calcula su discrimintante. Si es negativo, no tiene soluciones reales.
- Sea
una matriz en
. Muestra que la matriz transpuesta
tiene los mismos eigenvalores que
, y de hecho, el mismo polinomio característico que
. Sugerencia. Recuerda que una matriz y su transpuesta tienen el mismo determinante.
Más adelante…
En esta entrada definimos el concepto de eigenvalor y eigenvector para una transformación lineal y para una matriz; y vimos algunas de las propiedades que cumplen. En la siguiente entrada estudiaremos el concepto de polinomio característico utilizando los conceptos que hemos visto en esta entrada y enunciaremos (sin demostración) dos teoremas muy importantes. Luego, pondremos en práctica lo que hemos estudiado resolviendo algunos ejercicios.
Entradas relacionadas
- Ir a Álgebra Lineal I
- Entrada anterior del curso: Problemas de determinantes y ecuaciones lineales
- Siguiente entrada del curso: Propiedades del polinomio característico
Leo, ¿puede ser que para alguno de los eigenvalores su eingevector sea el vector nulo? Si eso pasa, ¿qué significa?
Hola Lorena. Por definición, para cualquier matriz A, cualquier escalar lambda y el vector 0, se tiene que A0 = 0 = lambda 0, que es la igualdad que pide la definición de eigenvectores. Sin embargo, por definición, el vector cero _nunca_ es eigenvector. En otras palabras, un eigenvector tiene que ser un vector _no nulo_, que esté en el kernel de (lambda I) – A.
Los mismos comentarios aplican para eigenvectores de transformaciones.
disculpe, sabe que quiere decir una transformacion lineal de R2 a R2 sin eigenvectores? me pudiera proporcionar un ejemplo?
Hola. Quiere decir que no existe ningún vector v de entradas reales distinto del vector 0 tal que para algún real r se cumpla que Tv=rv. En esta y otras entradas se explica la teoría para poder construir lo que buscas. Una forma de hacerlo es construir una matriz de 2×2 cuyo polinomio característico no tenga raíces reales.
A la hora de calcular T(-19,-5,1)… en la segunda igualdad, la expresión de la primer coordenada debe ser:
38-75+18 en lugar de 28+75-18
Hola profesor.
Disculpe en el segundo ejemplo ¿no tendría que ser que los eigenvectores son los polinomios de grado a lo más 1? ya que su primer derivada es una constante y su segunda derivada es el cero y además 0p=0
Hola Daniela,
Un polinomio de grado uno no puede ser eigenvector porque su segunda derivada es cero, por definición un eigenvector p con eigenvalor a satisfce T(p)=ap, pero la igualdad anterior es imposible ya que T(p) tiene grado cero y ap tiene grado 1. Por lo tanto los únicos eigenvectores de T son los polinomios constantes distintos de cero.
Buenas noches.
En esta parte:
Ya que encontramos los eigenvalores de una matriz o transformación, es posible que queramos encontrar uno o más eigenvectores correspondientes a ese eigenvalor. Observa que eso corresponde a encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo de la forma (I_n-A)X=0
… creo que hizo falta generalizarlo, como:
Ya que encontramos los eigenvalores de una matriz o transformación, es posible que queramos encontrar uno o más eigenvectores correspondientes a ese eigenvalor, digamos k. Observa que eso corresponde a encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo de la forma (kI_n-A)X=0
… pues, según yo, la primera parte solo encuentra eigenvectores cuando el eigenvalor aociado es 1