Archivo de la etiqueta: descomposición polar

Álgebra Lineal II: El teorema espectral complejo

Introducción

En esta entrada nos dedicaremos a demostrar los resultados análogos de vistos en esta unidad, pero aplicados a espacios hermitianos. Veremos que las pruebas son muy parecidas, razón por la cuál algunas simplemente las omitiremos.

Definiciones y lemas auxiliares

Definición. Sea $V$ un espacio hermitiano, es decir, un $\mathbb{C}$-espacio vectorial de dimensión finita equipado con un producto interior hermitiano $\langle \cdot , \cdot \rangle$. Una transformación lineal $T:V\to V$ se dice hermitiana si
$$\langle T(x),y \rangle=\langle x,T(y) \rangle$$ para cualesquiera $x,y\in V$.
Decimos que una matriz $A\in M_n(\mathbb{C})$ es hermitiana si $A=A^*$, donde $A^*=\overline{^tA}$.

Teorema. Sea $V$ un $\mathbb{C}$-espacio vectorial hermitiano y $B=\{e_1,\dots, e_n\}$ una base ortonormal de $V$. $T$ es hermitiana si y sólo si $A=Mat_B(T)$ es hermitiana.

Demostración. Recordemos que si $B$ es una base ortonormal de $V$, entonces cualquier $x\in V$ se puede expresar como
$$x=\displaystyle\sum_{i=1}^n \langle x,e_i \rangle e_i.$$
Entonces $$T(e_j)=\displaystyle\sum_{i=1}^n\langle T(e_j),e_i \rangle e_i$$ y por lo tanto $$A_{ij}=\langle T(e_j),e_j \rangle .$$
Supongamos primero que $T$ es hermitiana, entonces $A_{ji}=\langle T(e_i),e_j \rangle$ y luego $\overline{A_{ji}}\langle e_j,T(e_i) \rangle=\langle T(e_j),e_i \rangle$ y así $A$ es herrmitiana.

Supongamos ahora que $A$ es hermitiana, entonces
\begin{align*}
\langle T(x),y \rangle &=\displaystyle\sum_{i=1}^n\sum_{j=1}^n \langle T(x_ie_i),y_je_j \rangle =\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}A_{ji}\\
&=\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}\overline{A_{ij}}=\sum_{i=1}^n\sum_{j=1}^n \langle x_ie_i, T(y_j)e_j \rangle=\langle x,T(y) \rangle.
\end{align*}
Por lo tanto $T$ es hermitiana.

$\square$

Teorema. Sea $V$ un $\mathbb{C}$-espacio vectorial hermitiano y $T:V\to V$ una transformación lineal hermitiana. Entonces las siguientes afirmaciones son verdaderas:

  1. Todos los eigenvalores de $T$ son reales.
  2. Si $W$ es un subespacio de $V$ estable bajo $T$, entonces $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales hermitianas sobre estos subespacio.
  3. Existe una base ortonormal de $V$ formada por eigenvectores de $T$.

Demostración.

  1. Sea $t$ un eigenvalor de $T$, entonces $T(x)=tx$ para algún vector no nulo $x\in V$. Como $T$ es hermitiana, entonces también es normal, y así por el primer teorema visto en la entrada de transformaciones normales, tenemos que
    $$tx=T(x)=T^*(x)=\overline{t}x.$$
    Por lo tanto $t=\overline{t}$ y así $t$ es real.
  2. Sea $y\in W^\bot$, entonces
    $$\langle x,T(y) \rangle=\langle T(x),y \rangle=0 \hspace{2mm} \forall x\in W,$$
    pues $T(x)in W$ ya que $W$ es $T$-invariante.
    Entonces $T^*(y)\in W^\bot$ y así $T(W^\bot)\subseteq W^\bot$. Además,
    $$\langle T_W(x),y \rangle =\langle T(x),y \rangle=\langle x,T(y) \rangle=\langle x,T_W(y) \rangle\hspace{2mm}\forall x,y\in W.$$ Por lo tanto $T_W$ es hermitiana. La prueba de que $T_{W^\bot}$ es hermitiana es análoga.
  3. Por el teorema fundamental de álgebra tenemos que el polinomio característico de $T$ se divide en $\mathbb{C}$. Entonces, por el teorema de Schur existe una base ortonormal $B$ de $V$ tal que $A= Mat_B(T)$ es una matriz triangular superior. Recordemos que $Mat_B(T^*)=Mat_B(T)^*$, se sigue que
    $$A=Mat_B(T)=Mat_B(T^*)=Mat_B(T)^*=A^*.$$
    Entonces $A$ y $A^*$ son simultaneamente triangulares superiores y por lo tanto $A$ es diagonal. Finalmente $B$ es una base formada por eigenvectores de $T$.

$\square$

Resulta que el recíproco del último inciso del teorema anterior también es cierto:

Teorema. Si $V$ es un $\mathbb{C}$-espacio vectorial hermitiano y $T:V\to V$ es una transformación lineal hermitiana tal que existe una base $B$ de $V$ formada por eigenvectores de $T$ con eigenvalores reales, entonces $T$ es hermitiana.

Demostración. Sea $A=Mat_B(T)$. Como los elementos de $B=\{e_1,\dots, e_n\}$ son eigenvectores de $T$, entonces $A$ es una matriz diagonal. Como por hipótesis todas el eigenvalor de cada eigenvector de $T$ es real, entonces las entradas de $A$ también son reales, pues $a_{ii}=t_i$, donde $T(e_i)=t_ie_i$. Se sigue que $A=A^*$ y por lo tanto $T$ es hermitiana.

$\square$

Teorema (teorema espectral complejo). Sea $A\in M_n(\mathbb{C})$ una matriz hermitiana, entonces existe una matriz unitaria $P$ y una matriz diagonal $D$ con entradas reales tal que $A=P^{-1}DP$.

Demostración. Supongamos que $A$ es hermitiana. Como las entradas de $A$ son complejas, entonces por el teorema de Schur $A$ es similar a una matriz triangular superior mediante una matriz unitaria, es decir que existe una matriz unitaria $Q$ y una matriz triangular superior $U$ tal que
$$U=Q^*AQ.$$
Notemos que como $A$ es hermitiana, entonces $U$ también lo es, pues
$$U^*=(Q^*AQ)^*=Q^*A^*Q=Q^*AQ=U.$$
Por lo tanto todas las entradas de $U$ son reales y además es una matriz diagonal.

$\square$

Teorema (Descomposición polar compleja). Sea $T:V\to V$ una transformación lineal invertible. Entonces existe una única pareja $(H,U)$ de transformaciones lineales sobre $V$ tal que $H$ es hermitiana con eigenvalores positivos, $U$ es unitaria y $T=U\circ H$.

La prueba es análoga a la vista en la entrada de descomposición polar.

Más adelante…

Tarea moral

  1. Sea $U:V\to V$ una transformación lineal sobre un espacio hermitiano $V$. Demuestra o da un contraejemplo de la siguiente afirmación:
    Si $\norm{U(x)}=\norm{x}$ para cualquier $x\in B$, donde $B$ es una base ortonormal de $V$, entonces $U$ es unitario.
  2. Demuestra que una matriz unitaria y triangular superior necesariamente es diagonal.
  3. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.
  4. Bajo las mismas hipótesis del inciso anterior y haciendo uso de éste, demuestra que $A$ es normal si y sólo si $WP=PW$.

Entradas relacionadas

Álgebra Lineal II: El teorema de descomposición polar real

Introducción

La descomposición polar es el análogo en el espacio de matrices, al resultado que dice que cualquier número complejo puede ser expresado como el producto de un número real no negativo y un número complejo de módulo $1$.

Caso invertible

Problema a) Sea $T$ una transformación lineal simétrica positiva definida sobre un espacio Euclidiano $V$. Demuestra que para cualquier $d\geq 2$ existe una única transformación lineal simétrica positiva definida $T_d$ tal que $T_d^d=T$. Más aún, demuestra que existe un polinomio $P_d\in\mathbb{R}[X]$ tal que $A_d=P_d(T)$.
b) Sea $A\in M_n(\mathbb{R})$ una matriz simétrica positiva definida. Demuestra que para cualquier $d\geq 2$ existe una única matriz simétrica positiva definida $A_d$ tal que $A_d^d=A$. Más aún, existe un polinomio $P_d\in\mathbb{R}[X]$ tal que $A_d=P_d(A)$.

Solución. Como $T$ es simétrica y positiva definida, existen números reales positivos $t_1\dots,t_n$ y una base ortonormal $B=\{e_1,\dots,e_n\}$ de $V$ tal que $T(e_i)=te_i$ para cada $1\leq i \leq n$. Definimos $T_d:V\to V$ como $T_d(e_i)=\sqrt[d]{t_i}e_i$ para $1\leq i\leq n$ y lo extedemos por su linealidad. Entonces $T_d^d(e_i)=\sqrt[d]{t_i}^d e_i=t_ie_i=T(e_i)$ para $1\leq i\leq n$. Por lo tanto $T_d^d=T$. Más aún, $T_d$ es simétrica y positiva definida: en efecto, la matriz asociada a $T_d$ con respecto a la base ortonormal $\{e_1,\dots, e_d\}$ es diagonal con entradas positivas.

Ahora pobamos que $T_d$ es un polinomio en $T$. Bastará con probar que existe un polinomio $P$ tal que $P(t_i)=\sqrt[d]{t_i}$ para $1\leq i\leq n$, y entonces
$$P(T)(e_i)=P(t_i)e_i=\sqrt[d]{t_i}e_i=T_d(e_i),$$
y por lo tanto $P(T)=T_d$.Para probar la existencia de $P$, supongamos sin pérdidad de generalidad que $\{t_1,\dots,t_k\}$ son lo números distinto que aparecen en la lista $\{t_i,\dots, t_n\}$ para algún $1\leq k\leq n$. Por lo tanto será suficiente construir un polinomio $P$ tal que $P(t_i)=\sqrt[d]{t_i}$ para $1\leq i \leq k$. Simplemente tomamos el polinomio de interpolación de Lagrange asociado a$ (t_1,\dots,t_k)$ y $(\sqrt[d]{t_1},\dots , \sqrt[d]{t_k})$.

Veamos ahora que $T_d$ es único . Sea $S$ una transformación lineal simétrica positiva tal que $S^d=T$. Entonces $S$ conmuta con $T=S^d$, por lo que también conmuta con cualquier polinomio en $T$. Se sigue del teorema párrafo anterior que $S$ conmuta con $T_d$. Como $S$ y $T_d$ son diagonalizables y conmutan, se sigue que existe una base $f_1,\dots,f_n$ de $V$ en el cual las matrices de $S$ y $T_d$ son diagonales, digamos $D_1$ y $D_2$. Notemos que as entradas $a_1,\dots, a_n$ y $b_1,\dots, b_n$ de $D_1$ y $D_2$, respectivamente, son positivas (pues son eigenvalores de $S$ y $T_d$) y satisfacen $a_i^d=b_i^d$ para $1\leq i\leq n$ (pues $S^d=T_d^d=T$). Se sigue que $a_i=b_i$ para $1\leq i\leq n$ y así $D_1=D_2$ y $S=T_d$. Por lo que $T_d$ es única.

$\square$

Consideremos ahora una matriz $A\in M_n(\mathbb{R})$. Entonces la matriz $^tAA$ es simétrica y positiva. Por el problema anterior, existe una única matriz simétrica positiva $S=\sqrt{^tAA}$ tal que $^tAA=S^2$, Supongamos que $A$ es invertible, entonces $S$ es inveritbles y así podemos definir
$$U=AS^{-1}.$$

Entonces, tomando en cuenta que $S$ es simétrica, obtenemos
$$^tUU=^tS^{-1}\hspace{.5mm}^tAAS^{-1}=S^{-1}S^2S^{-1}=I_n,$$ por lo que $U$ es ortogonal.

Teorema (De descomposición polar, caso invertible). Sea $A\in M_n(\mathbb{R})$ una matriz invertible. Entonces existe una única pareja $(S,U)$ con $S$ una matriz simétrica positiva definida y $U$ una matriz ortogonal tal que $A=US$.

Demostración. Ya probamos que la pareja existe, por lo que sólo nos falta probar la unicidad de $U$ y $S$. Supongamos que $A=US$ con $U$ ortogonal y $S$ simétrica y positiva definida, Entonces
$$^tAA=S^tUUS=S^2$$
y por el problema incial de esta entrada, deducimos que $S=\sqrt{^tAA}$ y entonces $U=AS^{-1}$. Por lo tanto $U$ y $S$ son únicas.

$\square$

Caso general

Es natural preguntarse qué sucede cuando la matriz $A$ no es invertible. Veremos que aún tenemos la descomposición $A=US$ con $U$ ortogonal y $S$ simétrica y positiva (no positiva definida). Sin embargo, la pareja $(S,U)$ ya no es única (si $A=O_n$, entonces $A=UO_n$ para culaquier matriz ortogonal $U$). La existencia de la descomposición en el caso en el que $A$ no es invertible es problemático. Consideraremos las matrices $A_k=A+\frac{1}{k}I_n$. Entonces existe $k_0$ tal que para toda $k>k_0$ la matriz $A_k$ es invertible (pues $A$ tiene solamente una cantidad finita de eigenvalores). Por el teorema anterior aplicado a $A_k$, podemos encontrar una matriz ortogonal $U_k$ y una matriz simétrica positiva definida $S_k$ tales que
$$A_k=U_kS_k.$$

Escribimos $U_k=[u_{ij}^{(k)}]$ y $S_k=[s_{ij}^{(k)}]$. Como $U_k$ es ortogonal, la suma de los cuadrados de los elementos de cada columna de $U_k$ es igual a $1$, por lo que $u_{ij}^(k)\in[-1,1]$ para cualesquiera $i,j\in\{1,\dots, n\}$ y para todo $k>k_0$. Recordemos de nuestras clases de cálculo que toda sucesión definida en un compacto tiene una subsucesión convergente, en particular el intervalo cerrado $[-1,1]$ es compacto, por lo que si aplicamos este resultado $n^2$ veces (una por cada pareja $i,j\in\{1,\dots, n\}$), podemos asegurar que existe una sucesión creciente $(k_n)_{n}$ tal que
$$u_{ij}:=\displaystyle\lim_{l\to\infty}u_{ij}^{k_l}$$
existe para cualesquiera $i,j\in\{1,2,\dots, n\}$. Afirmamos que la matriz $U=[u_{ij}]$ es ortogonal. En efecto, pasando al límite en cada entrada de la igualdad $^tU_{kl}U_{kl}=I_n$ nos da $^tUU=I_n$. Más aún, como
$$S_{kl}=U_{kl}^{-1}A_{kl}=\hspace{.5mm}^tU_{kl}A_{kl},$$
y como cada $(i,j)$-entrada de $^tU_{kl}$ converge (cuando $l\to\infty$) a $u_{ij}$ y cada $(i,j)$-entrada de $A_{kl}$ converge a $a_{ij}$ (cuando $l\to\infty$), podemos deducir que para cualesquiera $i,j\in\{1,2,\dots,n\}$, la sucesión $(S_{ij})_l^{(kl)}$ converge a algún $s_{ij}$, la matriz $S=[s_{ij}]$ es simétrica y
$$S=\hspace{.5mm}^tUA,$$ o bien $$A=US.$$
Sólo nos falta demostrar que $S$ es positiva, pero si tomamos $X\in\mathbb{R}^n$, entonces pasando al límite en la desigualdad $^tXS_{kl}X\geq 0$ obtenemos $^tXSX\geq 0$, por lo que $S$ es positiva.

Gracias a toda la discusión anterior, hemos porbado el teorema principal de esta sección que enunciamos a continuación:

Teorema (De descomposición polar, caso general). Cualquier matriz $A\in M_n(\mathbb{R})$ se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Observación. Si $A=US$, entonces necesariamente
$$^tAA=S^2$$ y así $S=\sqrt{^tAA}$ está determinada de manera única. A los eigenvalores de $S$ los llamamos valores singulares de $A$.

Más adelante…

Tarea moral

  1. Sean $A,B\in M_n(\mathbb{R})$ matrices tales que $^tAA=^tBB$. Demuestra que existe una matriz ortogonal $U\in M_n(\mathbb{R})$ tal que $B=UA$.
  2. Encuentra la descomposición polar de $$\begin{pmatrix}
    11 & -5\\
    -2 & 10 \end{pmatrix}.$$
  3. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.

Entradas relacionadas

Álgebra Lineal II: El teorema espectral real

Introducción

Hasta ahora ya sabemos, en general, como determinar cuando una matriz arbitraria es diagonalizable. En esta entrada nos dedicaremos a estudiar y demostrar un teorema que nos dice cuándo que cierto tipo de transformaciones siempre son diagnoalizables. Más adelante usaremos este teorema para demostrar la famosa descomposición polar.

Resultados preliminares para el teorema espectral real

Teorema. Sea $A\in M_n({\mathbb{R}})$ una matriz simétrica. Entonces todas las raíces del polinomio característico de $A$ son reales.

Demostración. Sea $t$ una raíz del polinomio caractereístico de $A$. Pensemos a $A$ como un elemento de $M_n(\mathbb{C})$. Como $\det (tI_n-A)=0$, entonces existe $X\in\mathbb{C}^n$ no nulo tal que $AX=tX$. Escribimos $X=Y+iZ$ para dos vectores $X,Y\in \mathbb{R}^n$ y $t=a+ib$ con $a$ y $b$ números reales. Entonces de la igualdad $AX=tX$ se sigue que
$$AY+iAZ=(a+ib)(Y+iZ)=Ay-bZ+i(aZ+bY)$$ y separando las partes imaginarias y las partes reales obtenemos que
\begin{equation}\label{1}
AY=aY-bZ, \hspace{4mm} AZ=aZ+bY.
\end{equation}

Como $A$ es simétrica, tenemos que
\begin{equation}\label{2}
\langle AY,Z \rangle=\langle Y, AZ \rangle.
\end{equation}
Sustituyendo \eqref{1} en el lado izquierdo de \eqref{2} obtenemos que \eqref{2} es igual a $a\langle Y,Z \rangle -b||Z||^2,$ mientras que el lado derecho de \eqref{2} es igual a $a\langle Y,Z \rangle -b||Y||^2$. Se sigue que
$$b(||Y||^2+||Z||^2)=0$$ y como $Y$ o $Z$ es distinto de cero (de lo contrario tendríamos que $X=0$), entonces concluimos que $b=0$ y con ellos que $t$ es un número real.

$\square$

Lema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica sobre $V$. Sea $W$ un subespacio de $V$ estable bajo $T$. Entonces

  1. $W^\bot$ también es estable bajo $T$.
  2. Las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales simétricas sobre estos espacios.

Demostración. 1. Sea $x\in W^\bot$ y $y\in W$. Entonces
$$\langle T(x),y \rangle = \langle x,T(y) \rangle . $$
Ahora $x\in W^\bot$ y $T(y)\in T(W)\subseteq W$, por lo que $\langle x,T(y) \rangle =0$ y así $T(W^\bot)\subseteq W^\bot$, que es lo que queríamos probar.

2. Sea $T_1$ la restricción de $T$ a$W$. Para $x,y\in W$ tenemos que
$$\langle T_1(x),y \rangle=\langle T(x),y \rangle=\langle x,T(y) \rangle =\langle x,T_1(y) \rangle ,$$ por lo tanto $T_1$ es simétrica sobres $W$. Análogamente vemos que el resultado se satisface para $W^\bot$.

$\square$

El teorema espectral real

Con todo lo visto hasta ahora, ya estamos listos para probar el teorema principal de esta entrada.

Teorema (el teorema espectral real). Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica. Entonces existe una base ortonormal de $V$ conformada por eigenvectores de $T$.

Demostración. Procederemos a la prueba mediante inducción fuerte sobre $n=\dim V$. Si $n=1$, entonces el polinomio característico de $T$ es de grado $1$ y tiene coeficientes reales, por lo que tiene una raíz real $t$. Si $v$ es un eigenvector de $T$ con eigenvalor $t$, entonces $\frac{v}{||v||}$ también es eigenvector de $T$ y forma una base ortonormal de $V$. Ahora supongamos que el resultado se satisface hasta $n-1$ y demostremoslo para el caso $n$. Sea $B=\{e_1,e_2,\dots e_n\}$ una base ortonormal de $V$. Sea $A$ la matriz asociada a $T$ con respecto a $B$. Como $T$ es simétrica, entonces $A$ también lo es, por lo que tiene un eigenvalor real $t$ por el primer teorema de esta entrada y el teorema fundamental del álgebra.

Sea $W=\ker (tid- T)$ un $t$-eigenespacio de $T$. Si $W=V$, entonces $T=tid$ y así $B$ es una base ortonormal de $V$ compuesta por eigenvectores de $T$. Supongamos que $\dim W<n$. Tenemos que $V=W\oplus W^\bot$ y $W^\bot$ es estable bajo $T$, induciendo una transformación lineal simétrica sobre este subespacio. Aplicando la hipótesis inductiva a $T_{W^\bot}$ podemos encontrar una base ortonormal $C=\{f_1^\bot,f_2^\bot\dots,f_n^\bot\}$ de $W^\bot$ compuesta por eigenvectores de $T$. Escogiendo una base ortonormal $D=\{f_1,f_2,\dots,f_n\}$ de $W$ (que automaticamente está formada por eigenvectores de $T$), podemos obtener una base $\{f_1,\dots ,f_s,f_1^\bot, \dots ,f_k^\bot\}$ de $V=W\oplus W^\bot$ formada por eigenvectores de $T$.

$\square$

Observación. Si $A\in M_n(\mathbb{R})$ es una matriz simétrica, entonces la transformación lineal $T:X\mapsto AX$ sobre $\mathbb{R}^n$ es simétrica. Aplicando el teorema anterior, podemos encontrar una base ortonormal de $V$ con respecto a la cual la matriz asociada a $T$ es diagonal. Como la base canónica de $V$ es ortonormal, y como la matriz de cambio de pase entre dos bases ortonormlaes es ortogonal, obtenemos el siguiente resultado fundamental:

Teorema. Sea $A\in M_n(\mathbb{R})$ una matriz simétrica . Entonces existe una matriz ortogonal $P\in M_n(\mathbb{R})$ tal que $PAP^{-1}$ es diagonal (en particular $A$ es diagonalizable). En otra palabras, existe una base ortonormal de $\mathbb{R}^n$ formada por eigenvectores de $A$.

Caracterizando las matrices simétricas positivas

Teorema. Sea $A\in M_n(\mathbb{R})$ una matriz simétrica. Entonces las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B\in M_n(\mathbb{R})$.
  4. $A=\hspace{.5mm}^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. Supongamos que $A$ es positiva y que $t$ es un eigenvalor de $A$ con eigenvector $v$. Como $Av=tv$, obtenemos que
$$t||v||^2=\langle v,Av \rangle= \hspace{.5mm}^tvAv\geq 0,$$
por lo tanto $t\geq 0$ y así hemos probado que 1. implica 2.

Supongamos ahora que 2. se satisface y sean $t_1,\dots, t_n$ todos los eigenvalores de $A$, contados con multiplicidad. Por hipótesis $t_i\geq 0$ para cualquier $i\in[1,n]$. Más aún, gracias al teorema espectral podemos encontrar una matrix $P$ tal que $PAP^{-1}=D$, donde $D$ es una matriz diagonal con entradas $t_1,t_2,\dots,t_n$. Sea $D_1$ la matriz diagonal con entradas $c_i=\sqrt{t_i}$ y sea $B=P^{-1}D_1P$. Entonces $B$ es simétrica, como $P$ s ortogonal y $D_1$ es simétrica:
$$^tB=\hspace{.5mm}^tPD_1P^{-1}=P^{-1}D_1P.$$

Más aún, por construcción $B^2=P^{-1}D_1^2P=P^{-1}DP=A$, lo que muestra 3.

Para probar que 3. implica 4. bastará con tomar $C=B$ y usar que $B$ es simétrica.

Si 4. es cierto, entonces para todo $X\in \mathbb{R}^n$ tenemos que
$$^tXAX=||BX||^2\geq 0$$ y por lo tanto $A$ es positiva.

$\square$

Aplicación

Problema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal simétrica sobre $V$. Sean $t_1,\dots,t_n$ los eigenvalores de $T$. Entonces
$$\displaystyle\sup_{x\in V\backslash \{0\}}\frac{||T(x)||}{||x||}=\max_{1\leq i\leq n}|t_i|.$$

Solución. Consideremos una base ortonormal de $V$ $\{e_1,\dots, e_n\}$ tal que $T(e_i)=t_ie_i$. Dado $x\in V\backslash\{0\}$, podemos escribir
$$x=x_1e_1+x_2e_2+\dots+x_ne_n$$
para algunos números reales $x_i$. Entonces
$$T(x)=\displaystyle\sum_{i=1}^nt_ix_ie_i.$$
Por lo tanto,
$$\frac{||T(x)||}{||x||}=\sqrt{\frac{\displaystyle\sum_{i=1}^n t_i^2x_i^2}{\displaystyle\sum_{i=1}^n x_i^2}}\leq |t_n|,$$
pues $t_i^2x_i^2\leq t_n^2x_i^2$ para $1\leq i\leq n$.
Se sigue que
$$\displaystyle\sup_{x\in V\backslash \{0\}}\frac{||T(x)||}{||x||}\leq |t_n|.$$
Como $\frac{||T(e_n)||}{||e_n||}=|t_n|$, entonces la desigualdad anterior en realidad es una igualdad y con ello concluimos el resultado deseado.

$\square$

Más adelante…

Tarea moral

  1. Da un ejemplo de una matriz simétrica con coeficientes complejos que no sea diagonalizable.
  2. Sea $T$ una transformación lineal sobre un espacio euclidiano $V$, y supón que $V$ tiene una base ortonormal conformada por eigenvectores de $T$. Demuestra que $T$ es simétrica (por lo que el recíproco del teorema espectral se satisface).
  3. Considera la matriz $$A=\begin{pmatrix}
    1 & -2 & -2\\
    -2 & 1 & -2\\
    -2 & -2 &1\end{pmatrix}.$$
    Explica por qué $A$ es diagonalizable en $M_n(\mathbb{R})$ y encuentra una matriz $P$ tal que $P^{-1}AP$ es diagonal.

Entradas relacionadas