Introducción
En esta entrada demostramos el teorema espectral para matrices simétricas reales en sus dos formas. Como recordatorio, lo que probaremos es lo siguiente.
Teorema. Sea un espacio euclideano y
una transformación simétrica. Entonces, existe una base ortonormal de
que consiste de eigenvectores de
.
Teorema. Sea una matriz simétrica en
. Entonces, existe una matriz ortogonal
y una matriz diagonal
, ambas en
, tales que
Para ello, usaremos los tres resultados auxiliares que demostramos en la entrada de eigenvalores de matrices simétricas reales. Los enunciados precisos están en ese enlace. Los resumimos aquí de manera un poco informal.
- Los eigenvalores complejos de matrices simétricas reales son números reales.
- Si una transformación
es simétrica y
es un subespacio estable bajo
, entonces
también lo es. Además,
restringida a
o a
también es simétrica.
- Es lo mismo que una matriz sea diagonalizable, a que exista una base formada eigenvectores de la matriz.
Además de demostrar el teorema espectral, al final de la entrada probaremos una de sus consecuencias más importantes. Veremos una clasificación de las matrices que inducen formas bilineales positivas.
Demostración de la primera versión del teorema espectral
Comenzamos mostrando la siguiente versión del teorema espectral.
Teorema. Sea un espacio euclideano y
una transformación simétrica. Entonces, existe una base ortonormal de
que consiste de eigenvectores de
.
Demostración. Como es espacio Euclideano, entonces tiene cierta dimensión finita
. Haremos inducción fuerte sobre
. Si
, el polinomio característico de
es de grado
y con coeficientes reales, así que tiene una raíz
real. Si
es un eigenvector de
para
, entonces
también es eigenvector de
y conforma una base ortonormal para
.
Supongamos que el resultado es cierto para todo espacio Euclideano de dimensión menor a y tomemos
espacio Euclideano de dimensión
. Por el teorema fundamental del álgebra, el polinomio característico de
tiene por lo menos una raíz
en
. Como
es simétrica, cualquier matriz
que represente a
también, y
sería una raíz del polinomio característico de
. Por el resultado que vimos en la entrada anterior,
es real.
Consideremos el kernel de la transformación
. Si
es de dimensión
, entonces
, y por lo tanto
para todo vector
en
, es decir, todo vector no cero de
es eigenvector de
. De esta forma, cualquier base ortonormal de
satisface la conclusión. De esta forma, podemos suponer que
y que por lo tanto
, y como





Como la restricción de
a
es una transformación simétrica, podemos aplicar la hipótesis inductiva y encontrar una base ortonormal
de eigenvectores de
(y por lo tanto de
) para
.
Usando de nuevo que



El producto interior de dos elementos distintos de , o de dos elementos distintos de
es cero, pues individualmente son bases ortonormales. El producto de un elemento de
y uno de
es cero pues un elemento está en
y el otro en
. Además, todos los elementos de
tiene norma
, pues vienen de bases ortogonales. Esto muestra que
es una base ortonormal de
que consiste de eigenvectores de
.
Demostración de la segunda versión del teorema espectral
Veamos ahora la demostración del teorema espectral en su enunciado con matrices.
Teorema. Sea una matriz simétrica en
. Entonces, existe una matriz ortogonal
y una matriz diagonal
, ambas en
, tales que
Demostración. Como es una matriz simétrica, la transformación
dada por
es simétrica. Aplicando la primer versión del teorema espectral, existe una base ortonormal de
que consiste de eigenvectores de
. Digamos que estos eigenvectores son
. Por definición de
, estos eigenvectores de
son exactamente eigenvectores de
.
Anteriormente demostramos que si construimos a una matriz usando a
como columnas y tomamos la matriz diagonal
cuyas entradas son los eigenvalores correspondientes
, entonces
Afirmamos que la matriz es ortogonal. En efecto, la fila
de la matriz
es precisamente
. De esta forma, la entrada
del producto
es precisamente el producto punto de
con
. Como la familia
es ortonormal, tenemos que dicho producto punto es uno si
y cero en otro caso. De aquí, se concluye que
.
Si una matriz es ortogonal, entonces su inversa también. Esto es sencillo de demostrar y queda como tarea moral. Así, definiendo , tenemos la igualdad


Matrices positivas y positivas definidas
Una matriz simétrica en
induce una forma bilineal simétrica en
mediante la asignación
Definición. Una matriz en
es positiva o positiva definida si su forma bilineal asociada es positiva o positiva definida respectivamente.
Una de las aplicaciones del teorema espectral es que nos permite dar una clasificación de las matrices simétricas positivas.
Teorema. Sea una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:
es positiva.
- Todos los eigenvalores de
son no negativos.
para alguna matriz simétrica
en
.
para alguna matriz
en
.
Demostración. (1) implica (2). Supongamos que es positiva y tomemos
un eigenvalor de
. Tomemos
un eigenvector de eigenvalor
. Tenemos que:
Como , debemos tener
.
(2) implica (3). Como es matriz simétrica, por el teorema espectral tiene una diagonalización
con
una matriz invertible y
una matriz diagonal cuyas entradas son los eigenvalores
de
. Como los eigenvalores son no negativos, podemos considerar la matriz diagonal
cuyas entradas son los reales
Notemos que
, así que si definimos a la matriz
, tenemos que
Además, es simétrica pues como
es diagonal y
es ortogonal, tenemos que
(3) implica (4). Es inmediato, tomando y usando que
es simétrica.
(4) implica (1). Si y tomamos un vector
en
, tenemos que
lo cual muestra que es positiva.
También hay una versión de este teorema para matrices simétricas positivas definidas. Enunciarlo y demostrarlo queda como tarea moral.
En una entrada final, se verá otra consecuencia linda del teorema espectral: el teorema de descomposición polar. Dice que cualquier matriz con entradas reales se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.
Más allá del teorema espectral
Durante el curso introdujimos varias de las nociones fundamentales de álgebra lineal. Con ellas logramos llegar a uno de los teoremas más bellos: el teorema espectral. Sin embargo, la teoría de álgebra lineal no termina aquí. Si en tu formación matemática profundizas en el área, verás otros temas y resultados fundamentales como los siguientes:
- El teorema de Cayley-Hamiltón: toda matriz se anula en su polinomio característico.
- La clasificación de matrices diagonalizables: una matriz es diagonalizable si y sólo si su polinomio característico se factoriza en el campo de la matriz, y la multiplicidad algebraica de sus eigenvalores corresponde con la multiplicidad geométrica.
- El teorema de la forma canónica de Jordan: aunque una matriz no se pueda diagonalizar, siempre puede ser llevada a una forma estándar «bonita».
- Productos interiores con imágenes en
, a los que también se les conoce como formas hermitianas.
- Los polinomios mínimos de matrices y transformaciones, que comparten varias propiedades con el polinomio característico, pero dan información un poco más detallada.
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
- Muestra que la inversa de una matriz ortogonal es ortogonal.
- Encuentra una base ortonormal de
conformada por eigenvectores de la matriz
- Determina si la matriz anterior es positiva y/o positiva definida.
- Enuncia y demuestra un teorema de clasificación de matrices simétricas positivas definidas.
- Muestra que la matriz
Más adelante…
En esta entrada discutimos dos demostraciones del teorema espectral. Sólo nos falta discutir cómo podemos aplicarlo. En la siguiente entrada trabajaremos con algunos problemas, por ejemplo, ver cómo se usa para demostrar que una matriz simétrica no es diagonalizable.
Finalmente, discutiremos cómo podemos pensar en las nociones de continuidad y acotamiento en el álgebra lineal.
Entradas relacionadas
- Ir a Álgebra Lineal I
- Entrada anterior del curso: Matrices simétricas reales y sus eigenvalores
- Siguiente entrada del curso: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales
Cuando enuncian la segunda versión del teorema, dicen que las matrices pertenecen a R^n
¿Este fue un error o es una manera de referirse a M_n(R)?
En la entrada anterior también pasa lo mismo.
Fue un vector, ya quedó la corrección.
Hola, en la primer demostración del teorema espectral, creo que sería importante mencionar que al conjunto ortogonal al que se refieren no es el definido en entradas pasadas, así como por que el ortogonal es complemento de W, siendo sincero, llevo un buen rato tratando de entender el por que