Archivo de la etiqueta: eigenespacioes

Álgebra Lineal II: El teorema espectral real

Por Ayax Calderón

Introducción

Por lo que estudiamos en la primera parte de este curso, ya sabemos cuándo una matriz arbitraria es diagonalizable. Lo que haremos ahora es enunciar y demostrar el teorema espectral en el caso real. Una de las cosas que nos dice es que las matrices simétricas reales son diagonalizables. Pero nos dice todavía más. También nos garantiza que la manera en la que se diagonalizan es a través de una matriz ortogonal. Esto combina mucho de la teoría que hemos cubierto. Además, gracias al teorema espectral podremos, posteriormente, demostrar el famoso teorema de descomposicion polar que nos dice cómo son todas las matrices.

Resultados preliminares para el teorema espectral real

Comencemos enunciando algunas propiedades que tienen las matrices y transformaciones simétricas. El primero habla de cómo son los eigenvalores de las matrices simétricas.

Lema. Sea $A\in M_n({\mathbb{R}})$ una matriz simétrica. Entonces todas las raíces del polinomio característico de $A$ son números reales.

Demostración. Tomemos $A\in M_n(\mathbb{R})$ y sea $\lambda$. Su polinomio característico está en $\mathbb{R}[x]$, así que por el teorema fundamental del álgebra todas sus raíces están en $\mathbb{C}$. Sea $t$ una raíz del polinomio característico de $A$.

Pensemos a $A$ como un elemento de $M_n(\mathbb{C})$. Como $\det (tI_n-A)=0$, entonces $t$ es eigenvalor y por lo tanto hay un eigenvector $X\in\mathbb{C}^n$ no nulo tal que $AX=tX$. Como el vector tiene entradas complejas, lo podemos escribir como $X=Y+iZ$ para dos vectores $Y,Z\in \mathbb{R}^n$. Así mismo, podemos escribir a $t$ como $t=a+ib$ con $a$ y $b$ números reales.

Con esta notación, de la igualdad $AX=tX$ se sigue que

\begin{align*}
AY+iAZ&=AX\\
&=(a+ib)(Y+iZ)\\
&=aY-bZ+i(aZ+bY).
\end{align*}

Igualando las partes imaginarias y las partes reales obtenemos que

\begin{equation}\label{1}
AY=aY-bZ, \hspace{4mm} AZ=aZ+bY.
\end{equation}

Usemos ahora que $A$ es simétrica. Tenemos que
\begin{equation}\label{2}
\langle AY,Z \rangle=\langle Y, AZ \rangle.
\end{equation}

Sustituyendo la primera igualdad de \eqref{1} en el lado izquierdo de \eqref{2}, y la segunda igualdad de \eqref{1} en el lado derecho de \eqref{2}, obtenemos que:

\begin{equation*}
\langle aY-bZ,Z \rangle=\langle Y, aZ+bY \rangle,
\end{equation*}

y usando la linealidad del producto interior, se obtiene que

\begin{equation*}
a\langle Y,Z \rangle – b\langle Z,Z\rangle =a\langle Y, Z \rangle + b \langle Y , Y \rangle.
\end{equation*}

Se sigue que
$$b(||Y||^2+||Z||^2)=0$$ y como $Y$ o $Z$ es distinto de cero (de lo contrario tendríamos que $X=0$), entonces concluimos que $b=0$ y con ellos que $t$ es un número real.

$\square$

El segundo lema que veremos nos dice qué sucede cuando una transformación lineal es simétrica y tomamos un subespacio estable bajo ella. Recuerda que un subespacio $W$ de un espacio vectorial $V$ es estable bajo una transformación lineal $T:V\to V$ si $T(W)\subseteq W$.

Lema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica sobre $V$. Sea $W$ un subespacio de $V$ estable bajo $T$. Entonces

  1. $W^\bot$ también es estable bajo $T$.
  2. Las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales simétricas sobre estos espacios.

Demostración.

1. Tomemos $x\in W^\bot$. Nos gustaría ver que $T(x)\in W^\bot$. Para ello, tomemos $y\in W$. Como $W$ es estable bajo $T$, tenemos $T(y)\in W$. Como $x\in W^\bot$, tenemos que $\langle x,T(y) \rangle =0$. Usando esto y la simetría de $T$, obtenemos entonces
$$\langle T(x),y \rangle = \langle x,T(y) \rangle=0,$$
que es lo que queríamos probar.

2. Sea $T_1$ la restricción de $T$ a$W$. Para $x,y\in W$ tenemos que
$$\langle T_1(x),y \rangle=\langle T(x),y \rangle=\langle x,T(y) \rangle =\langle x,T_1(y) \rangle ,$$ por lo tanto $T_1$ es simétrica sobre $W$. Análogamente se ve que el resultado se cumple para $W^\bot$.

$\square$

El teorema espectral real

Los dos lemas anteriores son lo que necesitamos para demostrar el teorema principal de esta entrada.

Teorema (el teorema espectral real). Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica. Entonces existe una base ortonormal de $V$ conformada por eigenvectores de $T$.

Demostración. Procederemos por inducción fuerte sobre $n=\dim V$. Si $n=1$, entonces el polinomio característico de $T$ es de grado $1$ y tiene coeficientes reales, por lo que tiene una raíz real $t$. Si $v$ es un eigenvector de $T$ con eigenvalor $t$, entonces $\frac{v}{||v||}$ también es eigenvector de $T$ y forma una base ortonormal de $V$. Esto termina el caso $n=1$.

Ahora supongamos que el resultado se satisface hasta dimensión $n-1$ y tomemos $V$ de dimensión $n$. Sea $B=\{e_1,e_2,\dots e_n\}$ una base ortonormal de $V$. Sea $A$ la matriz asociada a $T$ con respecto a $B$. Como $T$ es simétrica, entonces $A$ también lo es. Su polinomio característico no es constante, de modo que por el teorema fundamental del álgebra tiene por lo menos una raíz $t$, y por el primer lema de la sección anterior, se tiene que $t$ es real y por lo tanto es un eigenvalor.

Sea $W=\ker (t\text{id} -T)$ el $t$-eigenespacio de $T$. Si $W=V$, entonces $T=t\text{id}$ y así $B$ es una base ortonormal de $V$ compuesta por eigenvectores de $T$. De otro modo, $W\neq V$ y por lo tanto $k:=\dim W<n$. Tenemos que $V=W\oplus W^\bot$ y sabemos que los eigenespacios son estables bajo la transformación correspondiente. Así, por el segundo lema de la sección anterior $W^\bot$ también es estable bajo $T$ y la restricción de $T$ a $W^\bot$ es simétrica.

Podemos entonces aplicar la hipótesis inductiva a $T_{|W^\bot}$ para encontrar una base ortonormal $C=\{f_1^\bot,f_2^\bot\dots,f_{n-k}^\bot\}$ de $W^\bot$ compuesta por eigenvectores de $T$. Escogiendo una base ortonormal $D=\{f_1,f_2,\dots,f_k\}$ de $W$ (que automaticamente está formada por eigenvectores de $T$). La base $C\cup D$ de $V$ es entonces la base de eigenvectores que buscábamos.

$\square$

El teorema espectral también puede enunciarse en términos de matrices. Hacemos esto a continuación.

Observación. Si $A\in M_n(\mathbb{R})$ es una matriz simétrica, entonces la transformación lineal $T:X\mapsto AX$ sobre $\mathbb{R}^n$ es simétrica. Aplicando el teorema anterior, podemos encontrar una base ortonormal de $V$ con respecto a la cual la matriz asociada a $T$ es diagonal. Como la base canónica de $V$ es ortonormal, y como la matriz de cambio de pase entre dos bases ortonormlaes es ortogonal, obtenemos el siguiente resultado fundamental.

Teorema (el teorema espectral para matrices reales). Sea $A\in M_n(\mathbb{R})$ una matriz simétrica. Entonces $A$ es diagonalizable y, más específicamente, existen una matriz ortogonal $P\in M_n(\mathbb{R})$ y una matriz diagonal $D\in M_n(\mathbb{R})$ tales que $$A=P^{-1}DP.$$

Así, $A$ es simultaneamente, mediante una misma matriz $P$, tanto similar como congruente a una matriz diagonal.

Aplicación a caracterizar las matrices simétricas positivas

Ya hemos dado algunas caracterizaciones para las matrices simétricas positivas. Veamos algunas caracterizaciones adicionales.

Teorema. Sea $A\in M_n(\mathbb{R})$ una matriz simétrica. Entonces las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B\in M_n(\mathbb{R})$.
  4. $A=\hspace{.5mm}^tCC$ para alguna matriz $C\in M_n(\mathbb{R})$.

Demostración. 1) implica 2). Supongamos que $A$ es positiva y que $t$ es un eigenvalor de $A$ con eigenvector $v$. Como $Av=tv$, obtenemos que

\begin{align*}
t||v||^2&= t\langle v,v \rangle\\
&= \langle v, tv \rangle\\
&= \langle v, Av \rangle\\
&= \hspace{.5mm}^tvAv\\
&\geq 0,
\end{align*}
por lo tanto $t\geq 0$.

2) implica 3). Sean $t_1,\dots, t_n$ todas las raíces del polinomio característico de $A$, escritos con su multiplicidad correspondiente. Por el primer lema de la sección anterior, todos ellos son reales, y estamos suponiendo que son no negativos. Por el teorema espectral podemos encontrar una matriz $P$ y una diagonal $D$ tal que $A=P^{-1}DP$, y por lo que vimos de teoría de diagonalización, $D$ precisamente tiene como entradas en su diagonal a $t_1,t_2,\dots,t_n$. Sea $D’$ la matriz diagonal con entradas $c_i=\sqrt{t_i}$ y sea $B=P^{-1}D’P$. Como $P$ es ortogonal, $B$ es simétrica

Y además, por construcción, $B^2=P^{-1}{D’}^2P=P^{-1}DP=A$, como queríamos.

3) implica 4). Basta con tomar la matriz $B$ de (3) y tomar $C=B$. Como $B$ es simétrica, $A=B^2=\hspace{.5mm}^tBB$.

4) implica 1). Esto ya lo habíamos demostrado en un resultado anterior de caracterización de matrices simétricas.

$\square$

Más adelante…

Hemos enunciado y demostrado el teorema espectral. Lo que nos dice es muy interesante: una matriz simétrica básicamente consiste en cambiar de base a una base muy sencilla $e_1,\ldots,e_n$ (ortonormal) a traves de la matriz $P$. Luego, en esa base pasa algo muy simple: en la dirección de $e_i$, simplemente alargamos de acuerdo al eigenvalor $\lambda_i$.

Como consecuencia, veremos en la siguiente entrada que esto nos permite entender no sólo a las matrices simétricas, sino a todas, todas las matrices. Al teorema que veremos a continuación se le conoce como el teorema de descomposición polar.

Tarea moral

  1. La matriz $\begin{pmatrix} \sin \theta & \cos \theta \\ \cos \theta & \sin\theta \end{pmatrix}$ es real y simétrica, de modo que es diagonalizable. ¿Cuál es su diagonalización?
  2. Da un ejemplo de una matriz simétrica con coeficientes complejos que no sea diagonalizable.
  3. Sea $T$ una transformación lineal sobre un espacio euclidiano $V$, y supón que $V$ tiene una base ortonormal conformada por eigenvectores de $T$. Demuestra que $T$ es simétrica (por lo que el recíproco del teorema espectral se satisface).
  4. Considera la matriz $$A=\begin{pmatrix}
    1 & -2 & -2\\
    -2 & 1 & -2\\
    -2 & -2 &1\end{pmatrix}.$$
    Explica por qué $A$ es diagonalizable en $M_n(\mathbb{R})$ y encuentra una matriz $P$ tal que $P^{-1}AP$ es diagonal.
  5. Adapta el teorema de caracterización de matrices positivas visto en esta entrada a una versión para matrices positivas definidas.

Entradas relacionadas