Archivo de la etiqueta: teorema espectral

Álgebra lineal II: Teorema espectral complejo y teorema de descomposición polar complejo.

Introducción

En esta entrada nos dedicaremos a demostrar los resultados análogos de vistos en esta unidad, pero aplicados a espacios hermitianos. Veremos que las pruebas son muy parecidas, razón por la cuál algunas simplemente las omitiremos.

Definición. Sea $V$ un espacio hermitiano, es decir, un $\mathbb{C}$-espacio vectorial de dimensión finita equipado con un producto interior hermitiano $\langle \cdot , \cdot \rangle$. Una transformación lineal $T:V\to V$ se dice hermitiana si
$$\langle T(x),y \rangle=\langle x,T(y) \rangle$$ para cualesquiera $x,y\in V$.
Decimos que una matriz $A\in M_n(\mathbb{C})$ es hermitiana si $A=A^*$, donde $A^*=\overline{^tA}$.

Teorema. Sea $V$ un $\mathbb{C}$-espacio vectorial hermitiano y $B=\{e_1,\dots, e_n\}$ una base ortonormal de $V$. $T$ es hermitiana si y sólo si $A=Mat_B(T)$ es hermitiana.

Demostración. Recordemos que si $B$ es una base ortonormal de $V$, entonces cualquier $x\in V$ se puede expresar como
$$x=\displaystyle\sum_{i=1}^n \langle x,e_i \rangle e_i.$$
Entonces $$T(e_j)=\displaystyle\sum_{i=1}^n\langle T(e_j),e_i \rangle e_i$$ y por lo tanto $$A_{ij}=\langle T(e_j),e_j \rangle .$$
Supongamos primero que $T$ es hermitiana, entonces $A_{ji}=\langle T(e_i),e_j \rangle$ y luego $\overline{A_{ji}}\langle e_j,T(e_i) \rangle=\langle T(e_j),e_i \rangle$ y así $A$ es herrmitiana.

Supongamos ahora que $A$ es hermitiana, entonces
\begin{align*}
\langle T(x),y \rangle &=\displaystyle\sum_{i=1}^n\sum_{j=1}^n \langle T(x_ie_i),y_je_j \rangle =\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}A_{ji}\\
&=\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}\overline{A_{ij}}=\sum_{i=1}^n\sum_{j=1}^n \langle x_ie_i, T(y_j)e_j \rangle=\langle x,T(y) \rangle.
\end{align*}
Por lo tanto $T$ es hermitiana.

$\square$

Teorema. Sea $V$ un $\mathbb{C}$-espacio vectorial hermitiano y $T:V\to V$ una transformación lineal hermitiana. Entonces las siguientes afirmaciones son verdaderas:

  1. Todos los eigenvalores de $T$ son reales.
  2. Si $W$ es un subespacio de $V$ estable bajo $T$, entonces $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales hermitianas sobre estos subespacio.
  3. Existe una base ortonormal de $V$ formada por eigenvectores de $T$.

Demostración.

  1. Sea $t$ un eigenvalor de $T$, entonces $T(x)=tx$ para algún vector no nulo $x\in V$. Como $T$ es hermitiana, entonces también es normal, y así por el primer teorema visto en la entrada de transformaciones normales, tenemos que
    $$tx=T(x)=T^*(x)=\overline{t}x.$$
    Por lo tanto $t=\overline{t}$ y así $t$ es real.
  2. Sea $y\in W^\bot$, entonces
    $$\langle x,T(y) \rangle=\langle T(x),y \rangle=0 \hspace{2mm} \forall x\in W,$$
    pues $T(x)in W$ ya que $W$ es $T$-invariante.
    Entonces $T^*(y)\in W^\bot$ y así $T(W^\bot)\subseteq W^\bot$. Además,
    $$\langle T_W(x),y \rangle =\langle T(x),y \rangle=\langle x,T(y) \rangle=\langle x,T_W(y) \rangle\hspace{2mm}\forall x,y\in W.$$ Por lo tanto $T_W$ es hermitiana. La prueba de que $T_{W^\bot}$ es hermitiana es análoga.
  3. Por el teorema fundamental de álgebra tenemos que el polinomio característico de $T$ se divide en $\mathbb{C}$. Entonces, por el teorema de Schur existe una base ortonormal $B$ de $V$ tal que $A= Mat_B(T)$ es una matriz triangular superior. Recordemos que $Mat_B(T^*)=Mat_B(T)^*$, se sigue que
    $$A=Mat_B(T)=Mat_B(T^*)=Mat_B(T)^*=A^*.$$
    Entonces $A$ y $A^*$ son simultaneamente triangulares superiores y por lo tanto $A$ es diagonal. Finalmente $B$ es una base formada por eigenvectores de $T$.

$\square$

Resulta que el recíproco del último inciso del teorema anterior también es cierto:
Teorema. Si $V$ es un $\mathbb{C}$-espacio vectorial hermitiano y $T:V\to V$ es una transformación lineal hermitiana tal que existe una base $B$ de $V$ formada por eigenvectores de $T$ con eigenvalores reales, entonces $T$ es hermitiana.

Demostración. Sea $A=Mat_B(T)$. Como los elementos de $B=\{e_1,\dots, e_n\}$ son eigenvectores de $T$, entonces $A$ es una matriz diagonal. Como por hipótesis todas el eigenvalor de cada eigenvector de $T$ es real, entonces las entradas de $A$ también son reales, pues $a_{ii}=t_i$, donde $T(e_i)=t_ie_i$. Se sigue que $A=A^*$ y por lo tanto $T$ es hermitiana.

$\square$

Teorema. Sea $A\in M_n(\mathbb{C})$ una matriz hermitiana, entonces existe una matriz unitaria $P$ y una matriz diagonal $D$ con entradas reales tal que $A=P^{-1}DP$.

Demostración. Supongamos que $A$ es hermitiana. Como las entradas de $A$ son complejas, entonces por el teorema de Schur $A$ es similar a una matriz triangular superior mediante una matriz unitaria, es decir que existe una matriz unitaria $Q$ y una matriz triangular superior $U$ tal que
$$U=Q^*AQ.$$
Notemos que como $A$ es hermitiana, entonces $U$ también lo es, pues
$$U^*=(Q^*AQ)^*=Q^*A^*Q=Q^*AQ=U.$$
Por lo tanto todas las entradas de $U$ son reales y además es una matriz diagonal.

$\square$

Teorema (Descomposición polar compleja). Sea $T:V\to V$ una transformación lineal invertible. Entonces existe una única pareja $(H,U)$ de transformaciones lineales sobre $V$ tal que $H$ es hermitiana con eigenvalores positivos, $U$ es unitaria y $T=U\circ H$.

La prueba es análoga a la vista en la entrada de descomposición polar.

Tarea moral

  • Sea $U:V\to V$ una transformación lineal sobre un espacio hermitiano $V$. Demuestra o da un contraejemplo de la siguiente afirmación:
    Si $||U(x)||=||x||$ para cualquier $x\in B$, donde $B$ es una base ortonormal de $V$, entonces $U$ es unitario.
  • Demuestra que una matriz unitaria y triangular superior necesariamente es diagonal.
  • Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.
  • Bajo las mismas hipótesis del inciso anterior y haciendo uso de éste, demuestra que $A$ es normal si y sólo si $WP=PW$.

Álgebra lineal II: El teorema de descomposición polar

Introducción

La descomposición polar es el análogo en el espacio de matrices, al resultado que dice que cualquier número complejo puede ser expresado como el producto de un número real no negativo y un número complejo de módulo $1$.

Caso invertible

Problema a) Sea $T$ una transformación lineal simétrica sobre un espacio Euclidiano $V$. Demuestra que para cualquier $d\geq 2$ existe una única transformación lineal simétrica positiva definida $T_d$ tal que $T_d^d=T$. Más aún, demuestra que existe un polinomio $P_d\in\mathbb{R}[X]$ tal que $A_d=P_d(T)$.
b) Sea $A\in M_n(\mathbb{R})$ una matriz simétrica positiva definida. Demuestra que para cualquier $d\geq 2$ existe una única matriz simétrica positiva definida $A_d$ tal que $A_d^d=A$. Más aún, existe un polinomio $P_d\in\mathbb{R}[X]$ tal que $A_d=P_d(A)$.

Solución. Como $T$ es simétrica y positiva definida, existen números reales positivos $t_1\dots,t_n$ y una base ortonormal $B=\{e_1,\dots,e_n\}$ de $V$ tal que $T(e_i)=te_i$ para cada $1\leq i \leq n$. Definimos $T_d:V\to V$ como $T_d(e_i)=\sqrt[d]{t_i}e_i$ para $1\leq i\leq n$ y lo extedemos por su linealidad. Entonces $T_d^d(e_i)=\sqrt[d]{t_i}^d e_i=t_ie_i=T(e_i)$ para $1\leq i\leq n$. Por lo tanto $T_d^d=T$. Más aún, $T_d$ es simétrica y positiva definida: en efecto, la matriz asociada a $T_d$ con respecto a la base ortonormal $\{e_1,\dots, e_d\}$ es diagonal con entradas positivas.

Ahora pobamos que $T_d$ es un polinomio en $T$. Bastará con probar que existe un polinomio $P$ tal que $P(t_i)=\sqrt[d]{t_i}$ para $1\leq i\leq n$, y entonces
$$P(T)(e_i)=P(t_i)e_i=\sqrt[d]{t_i}e_i=T_d(e_i),$$
y por lo tanto $P(T)=T_d$.Para probar la existencia de $P$, supongamos sin pérdidad de generalidad que $\{t_1,\dots,t_k\}$ son lo números distinto que aparecen en la lista $\{t_i,\dots, t_n\}$ para algún $1\leq k\leq n$. Por lo tanto será suficiente construir un polinomio $P$ tal que $P(t_i)=\sqrt[d]{t_i}$ para $1\leq i \leq k$. Simplemente tomamos el polinomio de interpolación de Lagrange asociado a$ (t_1,\dots,t_k)$ y $(\sqrt[d]{t_1},\dots , \sqrt[d]{t_k})$.


Veamos ahora que $T_d$ es único . Sea $S$ una transformación lineal simétrica positiva tal que $S^d=T$. Entonces $S$ conmuta con $T=S^d$, por lo que también conmuta con cualquier polinomio en $T$. Se sigue del teorema párrafo anterior que $S$ conmuta con $T_d$. Como $S$ y $T_d$ son diagonalizables y conmutan, se sigue que existe una base $f_1,\dots,f_n$ de $V$ en el cual las matrices de $S$ y $T_d$ son diagonales, digamos $D_1$ y $D_2$. Notemos que as entradas $a_1,\dots, a_n$ y $b_1,\dots, b_n$ de $D_1$ y $D_2$, respectivamente, son positivas (pues son eigenvalores de $S$ y $T_d$) y satisfacen $a_i^d=b_i^d$ para $1\leq i\leq n$ (pues $S^d=T_d^d=T$). Se sigue que $a_i=b_i$ para $1\leq i\leq n$ y así $D_1=D_2$ y $S=T_d$. Por lo que $T_d$ es única.

Como las matrices simétricas positivamente definadas $A\in M_n(\mathbb{R}^n)$ son transformaciones lineales simétricas positivamente definidas de $\mathbb{R}^n\to\mathbb{R}^n$, entonces el inciso b) es consecuencia del inciso a).

$\square$

Consideremos ahora una matriz $A\in M_n(\mathbb{R})$. Entonces la matriz $^tAA$ es simétrica y positiva. Por el problema anterior, existe una única matriz simétrica positiva $S=\sqrt{^tAA}$ tal que $^tAA=S^2$, Supongamos que $A$ es invertible, entonces $S$ es inveritbles y así podemos definir
$$U=AS^{-1}.$$

Entonces, tomando en cuenta que $S$ es simétrica, obtenemos
$$^tUU=^tS^{-1}\hspace{.5mm}^tAAS^{-1}=S^{-1}S^2S^{-1}=I_n,$$ por lo que $U$ es ortogonal.

Teorema (De descomposición polar, caso invertible). Sea $A\in M_n(\mathbb{R})$ una matriz invertible. Entonces existe una única pareja $(S,U)$ con $S$ una matriz simétrica positiva definida y $U$ una matriz ortogonal tal que $A=US$.

Demostración. Ya probamos que la pareja existe, por lo que sólo nos falta probar la unicidad de $U$ y $S$. Supongamos que $A=US$ con $U$ ortogonal y $S$ simétrica y positiva definida, Entonces
$$^tAA=S^tUUS=S^2$$
y por el problema incial de esta entrada, deducimos que $S=\sqrt{^tAA}$ y entonces $U=AS^{-1}$. Por lo tanto $U$ y $S$ son únicas.

$\square$

Caso general

Es natural preguntarse qué sucede cuando la matriz $A$ no es invertible. Veremos que aún tenemos la descomposición $A=US$ con $U$ ortogonal y $S$ simétrica y positiva (no positiva definida). Sin embargo, la pareja $(S,U)$ ya no es única (si $A=O_n$, entonces $A=UO_n$ para culaquier matriz ortogonal $U$). La existencia de la descomposición en el caso en el que $A$ no es invertible es problemático. Consideraremos las matrices $A_k=A+\frac{1}{k}I_n$. Entonces existe $k_0$ tal que para toda $k>k_0$ la matriz $A_k$ es invertible (pues $A$ tiene solamente una cantidad finita de eigenvalores). Por el teorema anterior aplicado a $A_k$, podemos encontrar una matriz ortogonal $U_k$ y una matriz simétrica positiva definida $S_k$ tales que
$$A_k=U_kS_k.$$
Escribimos $U_k=[u_{ij}^{(k)}]$ y $S_k=[s_{ij}^{(k)}]$. Como $U_k$ es ortogonal, la suma de los cuadrados de los elementos de cada columna de $U_k$ es igual a $1$, por lo que $u_{ij}^(k)\in[-1,1]$ para cualesquiera $i,j\in\{1,\dots, n\}$ y para todo $k>k_0$. Recordemos de nuestras clases de cálculo que toda sucesión definida en un compacto tiene una subsucesión convergente, en particular el intervalo cerrado $[-1,1]$ es compacto, por lo que si aplicamos este resultado $n^2$ veces (una por cada pareja $i,j\in\{1,\dots, n\}$), podemos asegurar que existe una sucesión creciente $(k_n)_{n}$ tal que
$$u_{ij}:=\displaystyle\lim_{l\to\infty}u_{ij}^{k_l}$$
existe para cualesquiera $i,j\in\{1,2,\dots, n\}$. Afirmamos que la matriz $U=[u_{ij}]$ es ortogonal. En efecto, pasando al límite en cada entrada de la igualdad $^tU_{kl}U_{kl}=I_n$ nos da $^tUU=I_n$. Más aún, como
$$S_{kl}=U_{kl}^{-1}A_{kl}=\hspace{.5mm}^tU_{kl}A_{kl},$$
y como cada $(i,j)$-entrada de $^tU_{kl}$ converge (cuando $l\to\infty$) a $u_{ij}$ y cada $(i,j)$-entrada de $A_{kl}$ converge a $a_{ij}$ (cuando $l\to\infty$), podemos deducir que para cualesquiera $i,j\in\{1,2,\dots,n\}$, la sucesión $(S_{ij})_l^{(kl)}$ converge a algún $s_{ij}$, la matriz $S=[s_{ij}]$ es simétrica y
$$S=\hspace{.5mm}^tUA,$$ o bien $$A=US.$$
Sólo nos falta demostrar que $S$ es positiva, pero si tomamos $X\in\mathbb{R}^n$, entonces pasando al límite en la desigualdad $^tXS_{kl}X\geq 0$ obtenemos $^tXSX\geq 0$, por lo que $S$ es positiva.

Gracias a toda la discusión anterior, hemos porbado el teorema principal de esta sección que enunciamos a continuación:

Teorema (De descomposición polar, caso general). Cualquier matriz $A\in M_n(\mathbb{R})$ se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Observación. Si $A=US$, entonces necesariamente
$$^tAA=S^2$$ y así $S=\sqrt{^tAA}$ está determinada de manera única. A los eigenvalores de $S$ los llamamos valores singulares de $A$.

Tarea moral

  • Sean $A,B\in M_n(\mathbb{R})$ matrices tales que $^tAA=^tBB$. Demuestra que existe una matriz ortogonal $U\in M_n(\mathbb{R})$ tal que $B=UA$.
  • Encuentra la descomposición polar de $$\begin{pmatrix}
    11 & -5\\
    -2 & 10 \end{pmatrix}.$$
  • Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.

Álgebra lineal II: Teorema espectral real

Introducción

Hasta ahora ya sabemos, en general, como determinar cuando una matriz arbitraria es diagonalizable. En esta entrada nos dedicaremos a estudiar y demostrar un teorema que nos dice cuándo que cierto tipo de transformaciones siempre son diagnoalizables. Más adelante usaremos este teorema para demostrar la famosa descomposición polar.

Resultados preliminares

Teorema. Sea $A\in M_n({\mathbb{R}})$ una matriz simétrica. Entonces todas las raíces del polinomio característico de $A$ son reales.

Demostración. Sea $t$ una raíz del polinomio caractereístico de $A$. Pensemos a $A$ como un elemento de $M_n(\mathbb{C})$. Como $\det (tI_n-A)=0$, entonces existe $X\in\mathbb{C}^n$ no nulo tal que $AX=tX$. Escribimos $X=Y+iZ$ para dos vectores $X,Y\in \mathbb{R}^n$ y $t=a+ib$ con $a$ y $b$ números reales. Entonces de la igualdad $AX=tX$ se sigue que
$$AY+iAZ=(a+ib)(Y+iZ)=Ay-bZ+i(aZ+bY)$$ y separando las partes imaginarias y las partes reales obtenemos que
\begin{equation}\label{1}
AY=aY-bZ, \hspace{4mm} AZ=aZ+bY.
\end{equation}

Como $A$ es simétrica, tenemos que
\begin{equation}\label{2}
\langle AY,Z \rangle=\langle Y, AZ \rangle.
\end{equation}
Sustituyendo \eqref{1} en el lado izquierdo de \eqref{2} obtenemos que \eqref{2} es igual a $a\langle Y,Z \rangle -b||Z||^2,$ mientras que el lado derecho de \eqref{2} es igual a $a\langle Y,Z \rangle -b||Y||^2$. Se sigue que
$$b(||Y||^2+||Z||^2)=0$$ y como $Y$ o $Z$ es distinto de cero (de lo contrario tendríamos que $X=0$), entonces concluimos que $b=0$ y con ellos que $t$ es un número real.

$\square$

Lema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica sobre $V$. Sea $W$ un subespacio de $V$ estable bajo $T$. Entonces

  1. $W^\bot$ también es estable bajo $T$.
  2. Las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales simétricas sobre estos espacios.

Demostración. 1. Sea $x\in W^\bot$ y $y\in W$. Entonces
$$\langle T(x),y \rangle = \langle x,T(y) \rangle . $$
Ahora $x\in W^\bot$ y $T(y)\in T(W)\subseteq W$, por lo que $\langle x,T(y) \rangle =0$ y así $T(W^\bot)\subseteq W^\bot$, que es lo que queríamos probar.

2. Sea $T_1$ la restricción de $T$ a$W$. Para $x,y\in W$ tenemos que
$$\langle T_1(x),y \rangle=\langle T(x),y \rangle=\langle x,T(y) \rangle =\langle x,T_1(y) \rangle ,$$ por lo tanto $T_1$ es simétrica sobres $W$. Análogamente vemos que el resultado se satisface para $W^\bot$.

$\square$

Teorema principal

Con todo lo visto hasta ahora, ya estamos listos para probar el teorema principal de esta entrada.

Teorema. (Teorema Espectral) Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica. Entonces existe una base ortonormal de $V$ conformada por eigenvectores de $T$.

Demostración. Procederemos a la prueba mediante inducción fuerte sobre $n=\dim V$. Si $n=1$, entonces el polinomio característico de $T$ es de grado $1$ y tiene coeficientes reales, por lo que tiene una raíz real $t$. Si $v$ es un eigenvector de $T$ con eigenvalor $t$, entonces $\frac{v}{||v||}$ también es eigenvector de $T$ y forma una base ortonormal de $V$. Ahora supongamos que el resultado se satisface hasta $n-1$ y demostremoslo para el caso $n$. Sea $B=\{e_1,e_2,\dots e_n\}$ una base ortonormal de $V$. Sea $A$ la matriz asociada a $T$ con respecto a $B$. Como $T$ es simétrica, entonces $A$ también lo es, por lo que tiene un eigenvalor real $t$ por el primer teorema de esta entrada y el teorema fundamental del álgebra.

Sea $W=\ker (tid- T)$ un $t$-eigenespacio de $T$. Si $W=V$, entonces $T=tid$ y así $B$ es una base ortonormal de $V$ compuesta por eigenvectores de $T$. Supongamos que $\dim W<n$. Tenemos que $V=W\oplus W^\bot$ y $W^\bot$ es estable bajo $T$, induciendo una transformación lineal simétrica sobre este subespacio. Aplicando la hipótesis inductiva a $T_{W^\bot}$ podemos encontrar una base ortonormal $C=\{f_1^\bot,f_2^\bot\dots,f_n^\bot\}$ de $W^\bot$ compuesta por eigenvectores de $T$. Escogiendo una base ortonormal $D=\{f_1,f_2,\dots,f_n\}$ de $W$ (que automaticamente está formada por eigenvectores de $T$), podemos obtener una base $\{f_1,\dots ,f_s,f_1^\bot, \dots ,f_k^\bot\}$ de $V=W\oplus W^\bot$ formada por eigenvectores de $T$.

$\square$

Observación. Si $A\in M_n(\mathbb{R})$ es una matriz simétrica, entonces la transformación lineal $T:X\mapsto AX$ sobre $\mathbb{R}^n$ es simétrica. Aplicando el teorema anterior, podemos encontrar una base ortonormal de $V$ con respecto a la cual la matriz asociada a $T$ es diagonal. Como la base canónica de $V$ es ortonormal, y como la matriz de cambio de pase entre dos bases ortonormlaes es ortogonal, obtenemos el siguiente resultado fundamental:

Teorema. Sea $A\in M_n(\mathbb{R})$ una matriz simétrica . Entonces existe una matriz ortogonal $P\in M_n(\mathbb{R})$ tal que $PAP^{-1}$ es diagonal (en particular $A$ es diagonalizable). En otra palabras, existe una base ortonormal de $\mathbb{R}^n$ formada por eigenvectores de $A$.

Caracterizando las matrices simétricas positivas

Teorema Sea $A\in M_n(\mathbb{R})$ una matriz simétrica. Entonces las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B\in M_n(\mathbb{R})$.
  4. $A=\hspace{.5mm}^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. Supongamos que $A$ es positiva y que $t$ es un eigenvalor de $A$ con eigenvector $v$. Como $Av=tv$, obtenemos que
$$t||v||^2=\langle v,Av \rangle= \hspace{.5mm}^tvAv\geq 0,$$
por lo tanto $t\geq 0$ y así hemos probado que 1. implica 2.

Supongamos ahora que 2. se satisface y sean $t_1,\dots, t_n$ todos los eigenvalores de $A$, contados con multiplicidad. Por hipótesis $t_i\geq 0$ para cualquier $i\in[1,n]$. Más aún, gracias al teorema espectral podemos encontrar una matrix $P$ tal que $PAP^{-1}=D$, donde $D$ es una matriz diagonal con entradas $t_1,t_2,\dots,t_n$. Sea $D_1$ la matriz diagonal con entradas $c_i=\sqrt{t_i}$ y sea $B=P^{-1}D_1P$. Entonces $B$ es simétrica, como $P$ s ortogonal y $D_1$ es simétrica:
$$^tB=\hspace{.5mm}^tPD_1P^{-1}=P^{-1}D_1P.$$

Más aún, por construcción $B^2=P^{-1}D_1^2P=P^{-1}DP=A$, lo que muestra 3.

Para probar que 3. implica 4. bastará con tomar $C=B$ y usar que $B$ es simétrica.

Si 4. es cierto, entonces para todo $X\in \mathbb{R}^n$ tenemos que
$$^tXAX=||BX||^2\geq 0$$ y por lo tanto $A$ es positiva.

$\square$

Aplicación

Problema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal simétrica sobre $V$. Sean $t_1,\dots,t_n$ los eigenvalores de $T$. Entonces
$$\displaystyle\sup_{x\in V\backslash \{0\}}\frac{||T(x)||}{||x||}=\max_{1\leq i\leq n}|t_i|.$$

Solución. Consideremos una base ortonormal de $V$ $\{e_1,\dots, e_n\}$ tal que $T(e_i)=t_ie_i$. Dado $x\in V\backslash\{0\}$, podemos escribir
$$x=x_1e_1+x_2e_2+\dots+x_ne_n$$
para algunos números reales $x_i$. Entonces
$$T(x)=\displaystyle\sum_{i=1}^nt_ix_ie_i.$$
Por lo tanto,
$$\frac{||T(x)||}{||x||}=\sqrt{\frac{\displaystyle\sum_{i=1}^n t_i^2x_i^2}{\displaystyle\sum_{i=1}^n x_i^2}}\leq |t_n|,$$
pues $t_i^2x_i^2\leq t_n^2x_i^2$ para $1\leq i\leq n$.
Se sigue que
$$\displaystyle\sup_{x\in V\backslash \{0\}}\frac{||T(x)||}{||x||}\leq |t_n|.$$
Como $\frac{||T(e_n)||}{||e_n||}=|t_n|$, entonces la desigualdad anterior en realidad es una igualdad y con ello concluimos el resultado deseado.

$\square$

Tarea moral

  • Da un ejemplo de una matriz simétrica con coeficientes complejos que no sea diagonalizable.
  • Sea $T$ una transformación lineal sobre un espacio euclidiano $V$, y supón que $V$ tiene una base ortonormal conformada por eigenvectores de $T$. Demuestra que $T$ es simétrica (por lo que el recíproco del teorema espectral se satisface).
  • Considera la matriz $$A=\begin{pmatrix}
    1 & -2 & -2\\
    -2 & 1 & -2\\
    -2 & -2 &1\end{pmatrix}.$$
    Explica por qué $A$ es diagonalizable en $M_n(\mathbb{R})$ y encuentra una matriz $P$ tal que $P^{-1}AP$ es diagonal.

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si $A$ es una matriz de $m\times n$, su transpuesta $^tA$ es la matriz de $n\times m$ que se obtiene de reflejar a las entradas de $A$ en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos $A=[a_{ij}]$, entonces $^tA=[a_{ji}]$. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y $^tA = A^{-1}$. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si $A$ es una matriz de $n\times n$ con entradas reales y simétrica, entonces:

  • Sus eigenvalores $\lambda_1,\ldots,\lambda_n$ (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal $P$ de $n\times n$ y con entradas reales tal que si tomamos a $D$ la matriz diagonal de $n\times n$ cuyas entradas en la diagonal principal son $\lambda_1,\ldots,\lambda_n$, entonces $$A=P^{-1}DP.$$

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si $A=P^{-1}DP$ como en el teorema anterior, entonces
\begin{align*}
A^2&=(P^{-1}DP)(P^{-1}DP)\\
&=P^{-1}DDP\\
&=P^{-1}D^2P,
\end{align*}

y de manera inductiva se puede probar que $A^k=P^{-1}D^kP$. Elevar la matriz $D$ a la $k$-ésima potencia es sencillo, pues como es una matriz diagonal, su $k$-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la $k$.

Problema. Sea $A$ una matriz de $n\times n$ simétrica y de entradas reales. Muestra que si $A^k = O_n$ para algún entero positivo $k$, entonces $A=O_n$.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de $A$. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como $A$ es simétrica y de entradas reales, entonces sus eigenvalores $\lambda_1,\ldots, \lambda_n$ son reales y es diagonalizable. Digamos que su diagonalización es $P^{-1} D P$. Tenemos que $$O_n = A^k = P^{-1} D^k P.$$ Multiplicando por la matriz $P$ a la izquierda, y la matriz $P^{-1}$ a la derecha, tenemos que $D^k=O_n$. Las entradas de $D^k$ son $\lambda_1^k,\ldots,\lambda_n^k$, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo, $$\lambda_1=\ldots=\lambda_n=0.$$

Concluimos que $D=O_n$, y que por lo tanto $A=P^{-1} O_n P = O_n$.

$\square$

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz $$A=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}.$$ Calcula las primeras potencias de $A$ a mano. Conjetura y muestra cómo es $A^n$ en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el $n$-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz $A$ obtenemos:

\begin{align*}
A&=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\\
A^2&=\begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix},\\
A^3&=\begin{pmatrix} 1 & 2 \\ 2& 3 \end{pmatrix},\\
A^4&=\begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix},\\
A^5&=\begin{pmatrix} 3 & 5 \\ 5 & 8 \end{pmatrix}.
\end{align*}

Al parecer, en las entradas de $A$ van apareciendo los números de Fibonacci. Seamos más concretos. Definimos $F_0=0$, $F_1=1$ y para $n\geq 0$ definimos $$F_{n+2}=F_{n}+F_{n+1}.$$ La conjetura es que para todo entero $n\geq 1$, se tiene que $$A^n=\begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1}\end{pmatrix}.$$

Esto se puede probar por inducción. Arriba ya hicimos el caso $n=1$. Supongamos la conjetura cierta hasta un entero $n$ dado, y consideremos la matriz $A^{n+1}$. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

\begin{align*}
A^{n+1}&=AA^n\\
& =\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1} \end{pmatrix}\\
&= \begin{pmatrix} F_n & F_{n+1} \\ F_{n-1} + F_n & F_n + F_{n+1} \end{pmatrix}\\
&=\begin{pmatrix} F_n & F_{n+1} \\ F_{n+1} & F_{n+2} \end{pmatrix}.
\end{align*}

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz $A$ es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de $A$. Su polinomio característico es $$\begin{vmatrix} \lambda & -1 \\ – 1 & \lambda -1 \end{vmatrix}=\lambda^2-\lambda -1.$$

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de $A$) son $$\frac{1\pm \sqrt{5}}{2}.$$ Por el momento, para simplificar la notación, llamemos $\alpha$ a la de signo más y $\beta$ a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible $P$ de $2\times 2$ tal que $$A=P^{-1}\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} P.$$

De esta forma, $$A^n = P^{-1}\begin{pmatrix} \alpha^n & 0 \\ 0 & \beta^n \end{pmatrix} P.$$

Aquí no es tan importante determinar concretamente $P$ ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de $\alpha^n$ y $\beta^n$ y de que los coeficientes de esta combinación lineal ya no dependen de $n$, sino sólo de las entradas de $P$. En particular, la entrada superior derecha de $A^n$ por un lado es $F_n$, y por otro lado es $r\alpha^n + s\beta ^n$.

¿Cómo obtenemos los valores de $\alpha$ y $\beta$? Basta substituir $n=1$ y $n=2$ para obtener un sistema de ecuaciones en $\alpha$ y $\beta$. Aquí abajo usamos que como $\alpha$ y $\beta$ son raíces de $x^2-x-1$, entonces $\alpha^2=\alpha+1$, $\beta^2=\beta+1$ y $\alpha+\beta = 1$.

$$\begin{cases}
1= F_1 = r \alpha + s \beta \\
1= F_2 = r \alpha^2 + s \beta^2 = r + s + 1.
\end{cases}$$

De aquí, obtenemos la solución
\begin{align*}
r&=\frac{1}{\alpha-\beta} = \frac{1}{\sqrt{5}}\\
s&=-r = -\frac{1}{\sqrt{5}}.
\end{align*}

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es $$F_n=\frac{\left(\frac{1+\sqrt{5}}{2}\right)^n – \left(\frac{1-\sqrt{5}}{2}\right)^n}{\sqrt{5}}.$$

$\square$

Matrices positivas y positivas definidas

Por definición, una matriz simétrica $A$ de $n\times n$ con entradas reales es positiva si para cualquier vector (columna) $v$ en $\mathbb{R}^n$ se tiene que $$^t v A v \geq 0.$$ Aquí $^tv$ es la transposición de $v$, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector $v=0$, entonces decimos que $A$ es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz $A=\begin{pmatrix} 1 & -1 \\ -1 & 1\end{pmatrix},$ pues para cualquier vector $v=(x,y)$ se tiene que $$^t v A v = x^2-2xy+y^2=(x-y)^2\geq 0.$$ Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como $(1,1)$. Como puedes verificar, un ejemplo de matriz positiva definida es $$B=\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}.$$

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en $\mathbb{R}^n$. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea $A$ una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B$ en $M_n(\mathbb{R})$.
  4. $A= {^tC} C$ para alguna matriz $C$ en $M_n(\mathbb{R})$.

Hay un resultado análogo para cuando se quiere determinar si una matriz $A$ es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos $3$ y $4$ se necesita además que $B$ y $C$ sean invertibles.

Problema. Sea $A$ una matriz de $n\times n$ con entradas reales, simétrica y positiva. Muestra que si $$\text{tr}(A) = n \sqrt[n]{\det(A)},$$ entonces $A$ conmuta con cualquier matriz de $n\times n$.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que $A$ se puede diagonalizar con matrices $A=P^{-1} D P$, donde $D$ es la matriz diagonal que tiene en su diagonal principal a los eigenvalores $\lambda_1,\ldots,\lambda_n$ de $A$, y $P^{-1}$ es una matriz invertible. Como $A$ y $D$ son similares, se tiene que
\begin{align*}
\text{tr}(A)=\text{tr}(D)=\lambda_1+\ldots+\lambda_n\\
\det(A)=\det(D)=\lambda_1\cdot\ldots\cdot\lambda_n.
\end{align*}

Como $A$ es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

$$\frac{\lambda_1+\ldots+\lambda_n}{n} \geq \sqrt[n]{\lambda_1\cdot\ldots\cdot\lambda_n}.$$

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor $\lambda$, y entonces $D=\lambda I_n$. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de $n\times n$, tendríamos entonces que

\begin{align*}
A&=P^{-1}D P \\
&=P^{-1}(\lambda I_n) P\\
&=(\lambda I_n) (P^{-1}P)\\
&=\lambda I_n.
\end{align*}

Con esto probamos que $A$ es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de $n\times n$.

$\square$

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Teorema espectral para matrices simétricas reales

Introducción

En esta entrada demostramos el teorema espectral para matrices simétricas reales en sus dos formas. Como recordatorio, lo que probaremos es lo siguiente.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Teorema. Sea $A$ una matriz simétrica en $\mathbb{R}^n$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $\mathbb{R}^n$, tales que $$A=P^{-1}DP.$$

Para ello, usaremos los tres resultados auxiliares que demostramos en la entrada de eigenvalores de matrices simétricas reales. Los enunciados precisos están en ese enlace. Los resumimos aquí de manera un poco informal.

  • Los eigenvalores complejos de matrices simétricas reales son números reales.
  • Si una transformación $T$ es simétrica y $W$ es un subespacio estable bajo $T$, entonces $W^\bot$ también lo es. Además, $T$ restringida a $W$ o a $W^\bot$ también es simétrica.
  • Es lo mismo que una matriz sea diagonalizable, a que exista una base formada eigenvectores de la matriz.

Además de demostrar el teorema espectral, al final de la entrada probaremos una de sus consecuencias más importantes. Veremos una clasificación de las matrices que inducen formas bilineales positivas.

Demostración de la primera versión del teorema espectral

Comenzamos mostrando la siguiente versión del teorema espectral.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Demostración. Como $V$ es espacio Euclideano, entonces tiene cierta dimensión finita $n$. Haremos inducción fuerte sobre $n$. Si $n=1$, el polinomio característico de $T$ es de grado $1$ y con coeficientes reales, así que tiene una raíz $\lambda$ real. Si $v$ es un eigenvector de $T$ para $\lambda$, entonces $\frac{v}{\norm{v}}$ también es eigenvector de $T$ y conforma una base ortonormal para $V$.

Supongamos que el resultado es cierto para todo espacio Euclideano de dimensión menor a $n$ y tomemos $V$ espacio Euclideano de dimensión $n$. Por el teorema fundamental del álgebra, el polinomio característico de $T$ tiene por lo menos una raíz $\lambda$ en $\mathbb{C}$. Como $T$ es simétrica, cualquier matriz $A$ que represente a $T$ también, y $\lambda$ sería una raíz del polinomio característico de $A$. Por el resultado que vimos en la entrada anterior, $\lambda$ es real.

Consideremos el kernel $W$ de la transformación $\lambda \text{id} – T$. Si $W$ es de dimensión $n$, entonces $W=V$, y por lo tanto $T(v)=\lambda v$ para todo vector $v$ en $V$, es decir, todo vector no cero de $V$ es eigenvector de $T$. De esta forma, cualquier base ortonormal de $V$ satisface la conclusión. De esta forma, podemos suponer que $W\neq V$ y que por lo tanto $1\leq \dim W \leq n-1$, y como $$V=W\oplus W^\bot,$$ se obtiene que $1\leq \dim W^\bot \leq n-1$. Sea $B$ una base ortonormal de $W$, que por lo tanto está formada por eigenvectores de $T$ con eigenvalor $\lambda$.

Como la restricción $T_1$ de $T$ a $W^\bot$ es una transformación simétrica, podemos aplicar la hipótesis inductiva y encontrar una base ortonormal $B’$ de eigenvectores de $T_1$ (y por lo tanto de $T$) para $W^\bot$.

Usando de nuevo que $$V=W\oplus W^\bot,$$ tenemos que $B\cup B’$ es una base de $V$ formada por eigenvectores de $T$.

El producto interior de dos elementos distintos de $B$, o de dos elementos distintos de $B’$ es cero, pues individualmente son bases ortonormales. El producto de un elemento de $B$ y uno de $B’$ es cero pues un elemento está en $W$ y el otro en $W^\bot$. Además, todos los elementos de $B\cup B’$ tiene norma $1$, pues vienen de bases ortogonales. Esto muestra que $B\cup B’$ es una base ortonormal de $V$ que consiste de eigenvectores de $T$.

$\square$

Demostración de la segunda versión del teorema espectral

Veamos ahora la demostración del teorema espectral en su enunciado con matrices.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $M_n(\mathbb{R})$, tales que $$A=P^{-1}DP.$$

Demostración. Como $A$ es una matriz simétrica, la transformación $T:F^n\to F^n$ dada por $T(X)=AX$ es simétrica. Aplicando la primer versión del teorema espectral, existe una base ortonormal de $F^n$ que consiste de eigenvectores de $T$. Digamos que estos eigenvectores son $C_1,\ldots,C_n$. Por definición de $T$, estos eigenvectores de $T$ son exactamente eigenvectores de $A$.

Anteriormente demostramos que si construimos a una matriz $B$ usando a $C_1,\ldots,C_n$ como columnas y tomamos la matriz diagonal $D$ cuyas entradas son los eigenvalores correspondientes $\lambda_1,\ldots,\lambda_n$, entonces $$A=BDB^{-1}.$$

Afirmamos que la matriz $B$ es ortogonal. En efecto, la fila $j$ de la matriz $^t B$ es precisamente $C_j$. De esta forma, la entrada $(i,j)$ del producto ${^tB} B$ es precisamente el producto punto de $C_i$ con $C_j$. Como la familia $C_1,\ldots,C_n$ es ortonormal, tenemos que dicho producto punto es uno si $i=j$ y cero en otro caso. De aquí, se concluye que ${^tB} B=I_n$.

Si una matriz es ortogonal, entonces su inversa también. Esto es sencillo de demostrar y queda como tarea moral. Así, definiendo $P=B^{-1}$, tenemos la igualdad $$A=P^{-1}DP,$$ con $D$ diagonal y $P$ ortogonal, justo como lo afirma el teorema.

$\square$

Matrices positivas y positivas definidas

Una matriz $A$ simétrica en $M_n(\mathbb{R})$ induce una forma bilineal simétrica en $\mathbb{R}^n$ mediante la asignación $$(x,y) \mapsto {^t x} A y,$$ con forma cuadrática correspondiente $$x \mapsto {^t x} A x.$$

Definición. Una matriz $A$ en $M_n(\mathbb{R})$ es positiva o positiva definida si su forma bilineal asociada es positiva o positiva definida respectivamente.

Una de las aplicaciones del teorema espectral es que nos permite dar una clasificación de las matrices simétricas positivas.

Teorema. Sea $A$ una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B$ en $M_n(\mathbb{R})$.
  4. $A= {^tC} C$ para alguna matriz $C$ en $M_n(\mathbb{R})$.

Demostración. (1) implica (2). Supongamos que $A$ es positiva y tomemos $\lambda$ un eigenvalor de $A$. Tomemos $v$ un eigenvector de eigenvalor $\lambda$. Tenemos que:
\begin{align*}
\lambda \norm{v}^2 &=\lambda {^tv} v\\
&= {^t v} (\lambda v)\\
&={^t v} Av\\
&\geq 0.
\end{align*}

Como $\norm{v}^2\geq 0$, debemos tener $\lambda \geq 0$.

(2) implica (3). Como $A$ es matriz simétrica, por el teorema espectral tiene una diagonalización $A=P^{-1}DP$ con $P$ una matriz invertible y $D$ una matriz diagonal cuyas entradas son los eigenvalores $\lambda_1,\ldots,\lambda_n$ de $A$. Como los eigenvalores son no negativos, podemos considerar la matriz diagonal $E$ cuyas entradas son los reales $\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}.$ Notemos que $E^2=D$, así que si definimos a la matriz $B=P^{-1}EP$, tenemos que $$B^2=P^{-1}E^2 P = P^{-1}DP = A.$$

Además, $B$ es simétrica pues como $E$ es diagonal y $P$ es ortogonal, tenemos que
\begin{align*}
{^tB} &= {^t P} {^t E} {^t (P^{-1})}\\
&= P^{-1} E P\\
&= B.
\end{align*}

(3) implica (4). Es inmediato, tomando $C=B$ y usando que $B$ es simétrica.

(4) implica (1). Si $A= {^tC} C$ y tomamos un vector $v$ en $\mathbb{R}^n$, tenemos que

\begin{align*}
{^t v} A v &= {^tv} {^tC} C v\\
&= {^t(Cv)} (Cv)\\
&=\norm{Cv}^2\\
&\geq 0,
\end{align*}

lo cual muestra que $A$ es positiva.

$\square$

También hay una versión de este teorema para matrices simétricas positivas definidas. Enunciarlo y demostrarlo queda como tarea moral.

En una entrada final, se verá otra consecuencia linda del teorema espectral: el teorema de descomposición polar. Dice que cualquier matriz con entradas reales se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Más allá del teorema espectral

Durante el curso introdujimos varias de las nociones fundamentales de álgebra lineal. Con ellas logramos llegar a uno de los teoremas más bellos: el teorema espectral. Sin embargo, la teoría de álgebra lineal no termina aquí. Si en tu formación matemática profundizas en el área, verás otros temas y resultados fundamentales como los siguientes:

  • El teorema de Cayley-Hamiltón: toda matriz se anula en su polinomio característico.
  • La clasificación de matrices diagonalizables: una matriz es diagonalizable si y sólo si su polinomio característico se factoriza en el campo de la matriz, y la multiplicidad algebraica de sus eigenvalores corresponde con la multiplicidad geométrica.
  • El teorema de la forma canónica de Jordan: aunque una matriz no se pueda diagonalizar, siempre puede ser llevada a una forma estándar «bonita».
  • Productos interiores con imágenes en $\mathbb{C}$, a los que también se les conoce como formas hermitianas.
  • Los polinomios mínimos de matrices y transformaciones, que comparten varias propiedades con el polinomio característico, pero dan información un poco más detallada.

Tarea moral

Los siguientes ejercicios y problemas te ayudarán a reforzar lo aprendido en esta entrada.

  • Muestra que la inversa de una matriz ortogonal es ortogonal.
  • Encuentra una base ortonormal de $\mathbb{R}^3$ conformada por eigenvectores de la matriz $\begin{pmatrix}10 & 0 & -7\\ 0 & 3 & 0 \\ -7 & 0 & 10\end{pmatrix}.$
  • Determina si la matriz anterior es positiva y/o positiva definida.
  • Enuncia y demuestra un teorema de clasificación de matrices simétricas positivas definidas.
  • Muestra que la matriz $$\begin{pmatrix}5 & 1 & 7\\1 & 10 & -7\\7 & -7 & 18\end{pmatrix}$$ es positiva.

Más adelante…

En esta entrada discutimos dos demostraciones del teorema espectral. Sólo nos falta discutir cómo podemos aplicarlo. En la siguiente entrada trabajaremos con algunos problemas, por ejemplo, ver cómo se usa para demostrar que una matriz simétrica no es diagonalizable.

Finalmente, discutiremos cómo podemos pensar en las nociones de continuidad y acotamiento en el álgebra lineal.

Entradas relacionadas