Archivo del Autor: Ayax Calderón

Álgebra lineal II: Teorema espectral complejo y teorema de descomposición polar complejo.

Introducción

En esta entrada nos dedicaremos a demostrar los resultados análogos de vistos en esta unidad, pero aplicados a espacios hermitianos. Veremos que las pruebas son muy parecidas, razón por la cuál algunas simplemente las omitiremos.

Definición. Sea $V$ un espacio hermitiano, es decir, un $\mathbb{C}$-espacio vectorial de dimensión finita equipado con un producto interior hermitiano $\langle \cdot , \cdot \rangle$. Una transformación lineal $T:V\to V$ se dice hermitiana si
$$\langle T(x),y \rangle=\langle x,T(y) \rangle$$ para cualesquiera $x,y\in V$.
Decimos que una matriz $A\in M_n(\mathbb{C})$ es hermitiana si $A=A^*$, donde $A^*=\overline{^tA}$.

Teorema. Sea $V$ un $\mathbb{C}$-espacio vectorial hermitiano y $B=\{e_1,\dots, e_n\}$ una base ortonormal de $V$. $T$ es hermitiana si y sólo si $A=Mat_B(T)$ es hermitiana.

Demostración. Recordemos que si $B$ es una base ortonormal de $V$, entonces cualquier $x\in V$ se puede expresar como
$$x=\displaystyle\sum_{i=1}^n \langle x,e_i \rangle e_i.$$
Entonces $$T(e_j)=\displaystyle\sum_{i=1}^n\langle T(e_j),e_i \rangle e_i$$ y por lo tanto $$A_{ij}=\langle T(e_j),e_j \rangle .$$
Supongamos primero que $T$ es hermitiana, entonces $A_{ji}=\langle T(e_i),e_j \rangle$ y luego $\overline{A_{ji}}\langle e_j,T(e_i) \rangle=\langle T(e_j),e_i \rangle$ y así $A$ es herrmitiana.

Supongamos ahora que $A$ es hermitiana, entonces
\begin{align*}
\langle T(x),y \rangle &=\displaystyle\sum_{i=1}^n\sum_{j=1}^n \langle T(x_ie_i),y_je_j \rangle =\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}A_{ji}\\
&=\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}\overline{A_{ij}}=\sum_{i=1}^n\sum_{j=1}^n \langle x_ie_i, T(y_j)e_j \rangle=\langle x,T(y) \rangle.
\end{align*}
Por lo tanto $T$ es hermitiana.

$\square$

Teorema. Sea $V$ un $\mathbb{C}$-espacio vectorial hermitiano y $T:V\to V$ una transformación lineal hermitiana. Entonces las siguientes afirmaciones son verdaderas:

  1. Todos los eigenvalores de $T$ son reales.
  2. Si $W$ es un subespacio de $V$ estable bajo $T$, entonces $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales hermitianas sobre estos subespacio.
  3. Existe una base ortonormal de $V$ formada por eigenvectores de $T$.

Demostración.

  1. Sea $t$ un eigenvalor de $T$, entonces $T(x)=tx$ para algún vector no nulo $x\in V$. Como $T$ es hermitiana, entonces también es normal, y así por el primer teorema visto en la entrada de transformaciones normales, tenemos que
    $$tx=T(x)=T^*(x)=\overline{t}x.$$
    Por lo tanto $t=\overline{t}$ y así $t$ es real.
  2. Sea $y\in W^\bot$, entonces
    $$\langle x,T(y) \rangle=\langle T(x),y \rangle=0 \hspace{2mm} \forall x\in W,$$
    pues $T(x)in W$ ya que $W$ es $T$-invariante.
    Entonces $T^*(y)\in W^\bot$ y así $T(W^\bot)\subseteq W^\bot$. Además,
    $$\langle T_W(x),y \rangle =\langle T(x),y \rangle=\langle x,T(y) \rangle=\langle x,T_W(y) \rangle\hspace{2mm}\forall x,y\in W.$$ Por lo tanto $T_W$ es hermitiana. La prueba de que $T_{W^\bot}$ es hermitiana es análoga.
  3. Por el teorema fundamental de álgebra tenemos que el polinomio característico de $T$ se divide en $\mathbb{C}$. Entonces, por el teorema de Schur existe una base ortonormal $B$ de $V$ tal que $A= Mat_B(T)$ es una matriz triangular superior. Recordemos que $Mat_B(T^*)=Mat_B(T)^*$, se sigue que
    $$A=Mat_B(T)=Mat_B(T^*)=Mat_B(T)^*=A^*.$$
    Entonces $A$ y $A^*$ son simultaneamente triangulares superiores y por lo tanto $A$ es diagonal. Finalmente $B$ es una base formada por eigenvectores de $T$.

$\square$

Resulta que el recíproco del último inciso del teorema anterior también es cierto:
Teorema. Si $V$ es un $\mathbb{C}$-espacio vectorial hermitiano y $T:V\to V$ es una transformación lineal hermitiana tal que existe una base $B$ de $V$ formada por eigenvectores de $T$ con eigenvalores reales, entonces $T$ es hermitiana.

Demostración. Sea $A=Mat_B(T)$. Como los elementos de $B=\{e_1,\dots, e_n\}$ son eigenvectores de $T$, entonces $A$ es una matriz diagonal. Como por hipótesis todas el eigenvalor de cada eigenvector de $T$ es real, entonces las entradas de $A$ también son reales, pues $a_{ii}=t_i$, donde $T(e_i)=t_ie_i$. Se sigue que $A=A^*$ y por lo tanto $T$ es hermitiana.

$\square$

Teorema. Sea $A\in M_n(\mathbb{C})$ una matriz hermitiana, entonces existe una matriz unitaria $P$ y una matriz diagonal $D$ con entradas reales tal que $A=P^{-1}DP$.

Demostración. Supongamos que $A$ es hermitiana. Como las entradas de $A$ son complejas, entonces por el teorema de Schur $A$ es similar a una matriz triangular superior mediante una matriz unitaria, es decir que existe una matriz unitaria $Q$ y una matriz triangular superior $U$ tal que
$$U=Q^*AQ.$$
Notemos que como $A$ es hermitiana, entonces $U$ también lo es, pues
$$U^*=(Q^*AQ)^*=Q^*A^*Q=Q^*AQ=U.$$
Por lo tanto todas las entradas de $U$ son reales y además es una matriz diagonal.

$\square$

Teorema (Descomposición polar compleja). Sea $T:V\to V$ una transformación lineal invertible. Entonces existe una única pareja $(H,U)$ de transformaciones lineales sobre $V$ tal que $H$ es hermitiana con eigenvalores positivos, $U$ es unitaria y $T=U\circ H$.

La prueba es análoga a la vista en la entrada de descomposición polar.

Tarea moral

  • Sea $U:V\to V$ una transformación lineal sobre un espacio hermitiano $V$. Demuestra o da un contraejemplo de la siguiente afirmación:
    Si $||U(x)||=||x||$ para cualquier $x\in B$, donde $B$ es una base ortonormal de $V$, entonces $U$ es unitario.
  • Demuestra que una matriz unitaria y triangular superior necesariamente es diagonal.
  • Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.
  • Bajo las mismas hipótesis del inciso anterior y haciendo uso de éste, demuestra que $A$ es normal si y sólo si $WP=PW$.

Álgebra lineal II: El teorema de descomposición polar

Introducción

La descomposición polar es el análogo en el espacio de matrices, al resultado que dice que cualquier número complejo puede ser expresado como el producto de un número real no negativo y un número complejo de módulo $1$.

Caso invertible

Problema a) Sea $T$ una transformación lineal simétrica positiva definida sobre un espacio Euclidiano $V$. Demuestra que para cualquier $d\geq 2$ existe una única transformación lineal simétrica positiva definida $T_d$ tal que $T_d^d=T$. Más aún, demuestra que existe un polinomio $P_d\in\mathbb{R}[X]$ tal que $A_d=P_d(T)$.
b) Sea $A\in M_n(\mathbb{R})$ una matriz simétrica positiva definida. Demuestra que para cualquier $d\geq 2$ existe una única matriz simétrica positiva definida $A_d$ tal que $A_d^d=A$. Más aún, existe un polinomio $P_d\in\mathbb{R}[X]$ tal que $A_d=P_d(A)$.

Solución. Como $T$ es simétrica y positiva definida, existen números reales positivos $t_1\dots,t_n$ y una base ortonormal $B=\{e_1,\dots,e_n\}$ de $V$ tal que $T(e_i)=te_i$ para cada $1\leq i \leq n$. Definimos $T_d:V\to V$ como $T_d(e_i)=\sqrt[d]{t_i}e_i$ para $1\leq i\leq n$ y lo extedemos por su linealidad. Entonces $T_d^d(e_i)=\sqrt[d]{t_i}^d e_i=t_ie_i=T(e_i)$ para $1\leq i\leq n$. Por lo tanto $T_d^d=T$. Más aún, $T_d$ es simétrica y positiva definida: en efecto, la matriz asociada a $T_d$ con respecto a la base ortonormal $\{e_1,\dots, e_d\}$ es diagonal con entradas positivas.

Ahora pobamos que $T_d$ es un polinomio en $T$. Bastará con probar que existe un polinomio $P$ tal que $P(t_i)=\sqrt[d]{t_i}$ para $1\leq i\leq n$, y entonces
$$P(T)(e_i)=P(t_i)e_i=\sqrt[d]{t_i}e_i=T_d(e_i),$$
y por lo tanto $P(T)=T_d$.Para probar la existencia de $P$, supongamos sin pérdidad de generalidad que $\{t_1,\dots,t_k\}$ son lo números distinto que aparecen en la lista $\{t_i,\dots, t_n\}$ para algún $1\leq k\leq n$. Por lo tanto será suficiente construir un polinomio $P$ tal que $P(t_i)=\sqrt[d]{t_i}$ para $1\leq i \leq k$. Simplemente tomamos el polinomio de interpolación de Lagrange asociado a$ (t_1,\dots,t_k)$ y $(\sqrt[d]{t_1},\dots , \sqrt[d]{t_k})$.


Veamos ahora que $T_d$ es único . Sea $S$ una transformación lineal simétrica positiva tal que $S^d=T$. Entonces $S$ conmuta con $T=S^d$, por lo que también conmuta con cualquier polinomio en $T$. Se sigue del teorema párrafo anterior que $S$ conmuta con $T_d$. Como $S$ y $T_d$ son diagonalizables y conmutan, se sigue que existe una base $f_1,\dots,f_n$ de $V$ en el cual las matrices de $S$ y $T_d$ son diagonales, digamos $D_1$ y $D_2$. Notemos que as entradas $a_1,\dots, a_n$ y $b_1,\dots, b_n$ de $D_1$ y $D_2$, respectivamente, son positivas (pues son eigenvalores de $S$ y $T_d$) y satisfacen $a_i^d=b_i^d$ para $1\leq i\leq n$ (pues $S^d=T_d^d=T$). Se sigue que $a_i=b_i$ para $1\leq i\leq n$ y así $D_1=D_2$ y $S=T_d$. Por lo que $T_d$ es única.

Como las matrices simétricas positivamente definadas $A\in M_n(\mathbb{R}^n)$ son transformaciones lineales simétricas positivamente definidas de $\mathbb{R}^n\to\mathbb{R}^n$, entonces el inciso b) es consecuencia del inciso a).

$\square$

Consideremos ahora una matriz $A\in M_n(\mathbb{R})$. Entonces la matriz $^tAA$ es simétrica y positiva. Por el problema anterior, existe una única matriz simétrica positiva $S=\sqrt{^tAA}$ tal que $^tAA=S^2$, Supongamos que $A$ es invertible, entonces $S$ es inveritbles y así podemos definir
$$U=AS^{-1}.$$

Entonces, tomando en cuenta que $S$ es simétrica, obtenemos
$$^tUU=^tS^{-1}\hspace{.5mm}^tAAS^{-1}=S^{-1}S^2S^{-1}=I_n,$$ por lo que $U$ es ortogonal.

Teorema (De descomposición polar, caso invertible). Sea $A\in M_n(\mathbb{R})$ una matriz invertible. Entonces existe una única pareja $(S,U)$ con $S$ una matriz simétrica positiva definida y $U$ una matriz ortogonal tal que $A=US$.

Demostración. Ya probamos que la pareja existe, por lo que sólo nos falta probar la unicidad de $U$ y $S$. Supongamos que $A=US$ con $U$ ortogonal y $S$ simétrica y positiva definida, Entonces
$$^tAA=S^tUUS=S^2$$
y por el problema incial de esta entrada, deducimos que $S=\sqrt{^tAA}$ y entonces $U=AS^{-1}$. Por lo tanto $U$ y $S$ son únicas.

$\square$

Caso general

Es natural preguntarse qué sucede cuando la matriz $A$ no es invertible. Veremos que aún tenemos la descomposición $A=US$ con $U$ ortogonal y $S$ simétrica y positiva (no positiva definida). Sin embargo, la pareja $(S,U)$ ya no es única (si $A=O_n$, entonces $A=UO_n$ para culaquier matriz ortogonal $U$). La existencia de la descomposición en el caso en el que $A$ no es invertible es problemático. Consideraremos las matrices $A_k=A+\frac{1}{k}I_n$. Entonces existe $k_0$ tal que para toda $k>k_0$ la matriz $A_k$ es invertible (pues $A$ tiene solamente una cantidad finita de eigenvalores). Por el teorema anterior aplicado a $A_k$, podemos encontrar una matriz ortogonal $U_k$ y una matriz simétrica positiva definida $S_k$ tales que
$$A_k=U_kS_k.$$
Escribimos $U_k=[u_{ij}^{(k)}]$ y $S_k=[s_{ij}^{(k)}]$. Como $U_k$ es ortogonal, la suma de los cuadrados de los elementos de cada columna de $U_k$ es igual a $1$, por lo que $u_{ij}^(k)\in[-1,1]$ para cualesquiera $i,j\in\{1,\dots, n\}$ y para todo $k>k_0$. Recordemos de nuestras clases de cálculo que toda sucesión definida en un compacto tiene una subsucesión convergente, en particular el intervalo cerrado $[-1,1]$ es compacto, por lo que si aplicamos este resultado $n^2$ veces (una por cada pareja $i,j\in\{1,\dots, n\}$), podemos asegurar que existe una sucesión creciente $(k_n)_{n}$ tal que
$$u_{ij}:=\displaystyle\lim_{l\to\infty}u_{ij}^{k_l}$$
existe para cualesquiera $i,j\in\{1,2,\dots, n\}$. Afirmamos que la matriz $U=[u_{ij}]$ es ortogonal. En efecto, pasando al límite en cada entrada de la igualdad $^tU_{kl}U_{kl}=I_n$ nos da $^tUU=I_n$. Más aún, como
$$S_{kl}=U_{kl}^{-1}A_{kl}=\hspace{.5mm}^tU_{kl}A_{kl},$$
y como cada $(i,j)$-entrada de $^tU_{kl}$ converge (cuando $l\to\infty$) a $u_{ij}$ y cada $(i,j)$-entrada de $A_{kl}$ converge a $a_{ij}$ (cuando $l\to\infty$), podemos deducir que para cualesquiera $i,j\in\{1,2,\dots,n\}$, la sucesión $(S_{ij})_l^{(kl)}$ converge a algún $s_{ij}$, la matriz $S=[s_{ij}]$ es simétrica y
$$S=\hspace{.5mm}^tUA,$$ o bien $$A=US.$$
Sólo nos falta demostrar que $S$ es positiva, pero si tomamos $X\in\mathbb{R}^n$, entonces pasando al límite en la desigualdad $^tXS_{kl}X\geq 0$ obtenemos $^tXSX\geq 0$, por lo que $S$ es positiva.

Gracias a toda la discusión anterior, hemos porbado el teorema principal de esta sección que enunciamos a continuación:

Teorema (De descomposición polar, caso general). Cualquier matriz $A\in M_n(\mathbb{R})$ se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Observación. Si $A=US$, entonces necesariamente
$$^tAA=S^2$$ y así $S=\sqrt{^tAA}$ está determinada de manera única. A los eigenvalores de $S$ los llamamos valores singulares de $A$.

Tarea moral

  • Sean $A,B\in M_n(\mathbb{R})$ matrices tales que $^tAA=^tBB$. Demuestra que existe una matriz ortogonal $U\in M_n(\mathbb{R})$ tal que $B=UA$.
  • Encuentra la descomposición polar de $$\begin{pmatrix}
    11 & -5\\
    -2 & 10 \end{pmatrix}.$$
  • Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.

Álgebra lineal II: Teorema espectral real

Introducción

Hasta ahora ya sabemos, en general, como determinar cuando una matriz arbitraria es diagonalizable. En esta entrada nos dedicaremos a estudiar y demostrar un teorema que nos dice cuándo que cierto tipo de transformaciones siempre son diagnoalizables. Más adelante usaremos este teorema para demostrar la famosa descomposición polar.

Resultados preliminares

Teorema. Sea $A\in M_n({\mathbb{R}})$ una matriz simétrica. Entonces todas las raíces del polinomio característico de $A$ son reales.

Demostración. Sea $t$ una raíz del polinomio caractereístico de $A$. Pensemos a $A$ como un elemento de $M_n(\mathbb{C})$. Como $\det (tI_n-A)=0$, entonces existe $X\in\mathbb{C}^n$ no nulo tal que $AX=tX$. Escribimos $X=Y+iZ$ para dos vectores $X,Y\in \mathbb{R}^n$ y $t=a+ib$ con $a$ y $b$ números reales. Entonces de la igualdad $AX=tX$ se sigue que
$$AY+iAZ=(a+ib)(Y+iZ)=Ay-bZ+i(aZ+bY)$$ y separando las partes imaginarias y las partes reales obtenemos que
\begin{equation}\label{1}
AY=aY-bZ, \hspace{4mm} AZ=aZ+bY.
\end{equation}

Como $A$ es simétrica, tenemos que
\begin{equation}\label{2}
\langle AY,Z \rangle=\langle Y, AZ \rangle.
\end{equation}
Sustituyendo \eqref{1} en el lado izquierdo de \eqref{2} obtenemos que \eqref{2} es igual a $a\langle Y,Z \rangle -b||Z||^2,$ mientras que el lado derecho de \eqref{2} es igual a $a\langle Y,Z \rangle -b||Y||^2$. Se sigue que
$$b(||Y||^2+||Z||^2)=0$$ y como $Y$ o $Z$ es distinto de cero (de lo contrario tendríamos que $X=0$), entonces concluimos que $b=0$ y con ellos que $t$ es un número real.

$\square$

Lema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica sobre $V$. Sea $W$ un subespacio de $V$ estable bajo $T$. Entonces

  1. $W^\bot$ también es estable bajo $T$.
  2. Las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales simétricas sobre estos espacios.

Demostración. 1. Sea $x\in W^\bot$ y $y\in W$. Entonces
$$\langle T(x),y \rangle = \langle x,T(y) \rangle . $$
Ahora $x\in W^\bot$ y $T(y)\in T(W)\subseteq W$, por lo que $\langle x,T(y) \rangle =0$ y así $T(W^\bot)\subseteq W^\bot$, que es lo que queríamos probar.

2. Sea $T_1$ la restricción de $T$ a$W$. Para $x,y\in W$ tenemos que
$$\langle T_1(x),y \rangle=\langle T(x),y \rangle=\langle x,T(y) \rangle =\langle x,T_1(y) \rangle ,$$ por lo tanto $T_1$ es simétrica sobres $W$. Análogamente vemos que el resultado se satisface para $W^\bot$.

$\square$

Teorema principal

Con todo lo visto hasta ahora, ya estamos listos para probar el teorema principal de esta entrada.

Teorema. (Teorema Espectral) Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica. Entonces existe una base ortonormal de $V$ conformada por eigenvectores de $T$.

Demostración. Procederemos a la prueba mediante inducción fuerte sobre $n=\dim V$. Si $n=1$, entonces el polinomio característico de $T$ es de grado $1$ y tiene coeficientes reales, por lo que tiene una raíz real $t$. Si $v$ es un eigenvector de $T$ con eigenvalor $t$, entonces $\frac{v}{||v||}$ también es eigenvector de $T$ y forma una base ortonormal de $V$. Ahora supongamos que el resultado se satisface hasta $n-1$ y demostremoslo para el caso $n$. Sea $B=\{e_1,e_2,\dots e_n\}$ una base ortonormal de $V$. Sea $A$ la matriz asociada a $T$ con respecto a $B$. Como $T$ es simétrica, entonces $A$ también lo es, por lo que tiene un eigenvalor real $t$ por el primer teorema de esta entrada y el teorema fundamental del álgebra.

Sea $W=\ker (tid- T)$ un $t$-eigenespacio de $T$. Si $W=V$, entonces $T=tid$ y así $B$ es una base ortonormal de $V$ compuesta por eigenvectores de $T$. Supongamos que $\dim W<n$. Tenemos que $V=W\oplus W^\bot$ y $W^\bot$ es estable bajo $T$, induciendo una transformación lineal simétrica sobre este subespacio. Aplicando la hipótesis inductiva a $T_{W^\bot}$ podemos encontrar una base ortonormal $C=\{f_1^\bot,f_2^\bot\dots,f_n^\bot\}$ de $W^\bot$ compuesta por eigenvectores de $T$. Escogiendo una base ortonormal $D=\{f_1,f_2,\dots,f_n\}$ de $W$ (que automaticamente está formada por eigenvectores de $T$), podemos obtener una base $\{f_1,\dots ,f_s,f_1^\bot, \dots ,f_k^\bot\}$ de $V=W\oplus W^\bot$ formada por eigenvectores de $T$.

$\square$

Observación. Si $A\in M_n(\mathbb{R})$ es una matriz simétrica, entonces la transformación lineal $T:X\mapsto AX$ sobre $\mathbb{R}^n$ es simétrica. Aplicando el teorema anterior, podemos encontrar una base ortonormal de $V$ con respecto a la cual la matriz asociada a $T$ es diagonal. Como la base canónica de $V$ es ortonormal, y como la matriz de cambio de pase entre dos bases ortonormlaes es ortogonal, obtenemos el siguiente resultado fundamental:

Teorema. Sea $A\in M_n(\mathbb{R})$ una matriz simétrica . Entonces existe una matriz ortogonal $P\in M_n(\mathbb{R})$ tal que $PAP^{-1}$ es diagonal (en particular $A$ es diagonalizable). En otra palabras, existe una base ortonormal de $\mathbb{R}^n$ formada por eigenvectores de $A$.

Caracterizando las matrices simétricas positivas

Teorema Sea $A\in M_n(\mathbb{R})$ una matriz simétrica. Entonces las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B\in M_n(\mathbb{R})$.
  4. $A=\hspace{.5mm}^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. Supongamos que $A$ es positiva y que $t$ es un eigenvalor de $A$ con eigenvector $v$. Como $Av=tv$, obtenemos que
$$t||v||^2=\langle v,Av \rangle= \hspace{.5mm}^tvAv\geq 0,$$
por lo tanto $t\geq 0$ y así hemos probado que 1. implica 2.

Supongamos ahora que 2. se satisface y sean $t_1,\dots, t_n$ todos los eigenvalores de $A$, contados con multiplicidad. Por hipótesis $t_i\geq 0$ para cualquier $i\in[1,n]$. Más aún, gracias al teorema espectral podemos encontrar una matrix $P$ tal que $PAP^{-1}=D$, donde $D$ es una matriz diagonal con entradas $t_1,t_2,\dots,t_n$. Sea $D_1$ la matriz diagonal con entradas $c_i=\sqrt{t_i}$ y sea $B=P^{-1}D_1P$. Entonces $B$ es simétrica, como $P$ s ortogonal y $D_1$ es simétrica:
$$^tB=\hspace{.5mm}^tPD_1P^{-1}=P^{-1}D_1P.$$

Más aún, por construcción $B^2=P^{-1}D_1^2P=P^{-1}DP=A$, lo que muestra 3.

Para probar que 3. implica 4. bastará con tomar $C=B$ y usar que $B$ es simétrica.

Si 4. es cierto, entonces para todo $X\in \mathbb{R}^n$ tenemos que
$$^tXAX=||BX||^2\geq 0$$ y por lo tanto $A$ es positiva.

$\square$

Aplicación

Problema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal simétrica sobre $V$. Sean $t_1,\dots,t_n$ los eigenvalores de $T$. Entonces
$$\displaystyle\sup_{x\in V\backslash \{0\}}\frac{||T(x)||}{||x||}=\max_{1\leq i\leq n}|t_i|.$$

Solución. Consideremos una base ortonormal de $V$ $\{e_1,\dots, e_n\}$ tal que $T(e_i)=t_ie_i$. Dado $x\in V\backslash\{0\}$, podemos escribir
$$x=x_1e_1+x_2e_2+\dots+x_ne_n$$
para algunos números reales $x_i$. Entonces
$$T(x)=\displaystyle\sum_{i=1}^nt_ix_ie_i.$$
Por lo tanto,
$$\frac{||T(x)||}{||x||}=\sqrt{\frac{\displaystyle\sum_{i=1}^n t_i^2x_i^2}{\displaystyle\sum_{i=1}^n x_i^2}}\leq |t_n|,$$
pues $t_i^2x_i^2\leq t_n^2x_i^2$ para $1\leq i\leq n$.
Se sigue que
$$\displaystyle\sup_{x\in V\backslash \{0\}}\frac{||T(x)||}{||x||}\leq |t_n|.$$
Como $\frac{||T(e_n)||}{||e_n||}=|t_n|$, entonces la desigualdad anterior en realidad es una igualdad y con ello concluimos el resultado deseado.

$\square$

Tarea moral

  • Da un ejemplo de una matriz simétrica con coeficientes complejos que no sea diagonalizable.
  • Sea $T$ una transformación lineal sobre un espacio euclidiano $V$, y supón que $V$ tiene una base ortonormal conformada por eigenvectores de $T$. Demuestra que $T$ es simétrica (por lo que el recíproco del teorema espectral se satisface).
  • Considera la matriz $$A=\begin{pmatrix}
    1 & -2 & -2\\
    -2 & 1 & -2\\
    -2 & -2 &1\end{pmatrix}.$$
    Explica por qué $A$ es diagonalizable en $M_n(\mathbb{R})$ y encuentra una matriz $P$ tal que $P^{-1}AP$ es diagonal.

Álgebra lineal II: Isometrías complejas.

Introducción

En esta ocasión, como es de esperarse, haremos un estudio análogo al que hicimos en la entrada de isometrías reales, ahora centrándonos en espacios vectoriales definidos sobre el campo de los números complejos. Continuamos con la analogía entre los números complejos y los operadores lineales recordando que el adjunto de una transformación lineal se comporta de forma parecida al conjugado de un númeroo complejo.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ de dimensión finita y equipado con un producto interior hermitiano $\langle \cdot,\cdot \rangle$ y norma asociada $||\cdot||$. Diremos que una transformación lineal $T:V\to V$ es unitaria o una isometría si
$$\langle T(x),T(y) \rangle=\langle x,y \rangle$$ para cualesquiera $x,y\in V$.
Una matriz $A\in M_n(\mathbb{C})$ se dice unitaria si la transformación lineal asociada
\begin{align*}
\mathbb{C}^n&\to \mathbb{C}^n\\
X &\mapsto AX
\end{align*}
es unitaria (donde $\mathbb{C}^n$ tiene el producto hermitiano usual).

Teorema. Sea $T:V\to V$ una transformación lineal. Las siguientes afirmaciones son equivalentes:

  1. $T$ es unitaria.
  2. Para cualquier $x\in V$ se tiene que $||T(x)||=||x||$.
  3. $T$ manda vectores unitarios (es decir, vectores de norma $1$) en vectores unitarios.

Demostración.

Supongamos que 1. se satisface. Para probar 2. tomamos un $x\in V$ y observamos lo siguiente
$$||T(x)||^2=\langle T(x),T(x) \rangle=\langle x,x \rangle = ||x||^2,$$ y así se satisface 2.

Supongamos que 2. se satisface. Como $T$ preserva la norma, en particular preservará la norma de los vectores unitarios.

Supongamos que 3. se satisface. Como $V$ es de dimensión finita, digamos $\dim V=n$, entonces existe $B=\{e_1,\dots,e_n\}$ base ortonormal de $V$. Consideremos dos vectores $x,y\in V$ y sus descomposiciones con respecto a la base $B$, $x=\displaystyle\sum_{i=1}^nx_ie_i$ y $y=\displaystyle\sum_{i=1}^ny_ie_i$. Entonces
\begin{align*}\langle x,y \rangle&=\left\langle \displaystyle\sum_{i=1}^nx_ie_i, \displaystyle\sum_{i=1}^ny_ie_i \right\rangle\\
= \displaystyle\sum_{i=1}^n \langle x_ie_i,y_ie_i \rangle&=\displaystyle\sum _{i=1}^n x_i\overline{y_i}||e_i||^2=\displaystyle\sum _{i=1}^n x_i\overline{y_i}.\end{align*}

Similarmente se tiene que
\begin{align*}\langle T(x),T(y) \rangle&=\left\langle \displaystyle\sum_{i=1}^nx_iT(e_i), \displaystyle\sum_{i=1}^ny_iT(e_i) \right\rangle\\
= \displaystyle\sum_{i=1}^n \langle x_iT(e_i),y_iT(e_i) \rangle&=\displaystyle\sum _{i=1}^n x_i\overline{y_i}||T(e_i)||^2=\displaystyle\sum _{i=1}^n x_i\overline{y_i}.\end{align*}

Por lo tanto $T$ es unitaria y con ello concluimos la prueba de este teorema.

$\square$

Definición. Diremos que $A\in M_n(\mathbb{C})$ es una matriz unitaria si $A A^*=I_n$, donde $A^*=\overline{A}^t$.

Observación. La condición $AA^*=I_n$ es equivalente a que las filas de $A$ formen una base ortonormal para $\mathbb{C}^n$ porque
$$\delta_{ij}=I_{ij}=(AA^*)_{ij}=\displaystyle\sum_{k=1}^nA_{ik}\overline{A_{jk}},$$
y el último término representa el producto interior del $i$-ésimo y $j$-ésimo renglón de $A$. Una observación similar se puede hacer sobre las columnas y la condición $A^*A=I_n$.

Así, gracias a la observación hemos demostrado el siguiente teorema:

Teorema. Sea $A\in M_n(\mathbb{C})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es unitaria.
  2. Existe una base ortonormal $B=\{X_1,\dots,X_n\}$ de $\mathbb{C}^n$ tal que $AB:=\{AX_1,\dots,AX_n\}$ es una base ortonormal de $\mathbb{C}^n$.
  3. Para cualquier base ortonormal $B=\{X_1,\dots,X_n\}$ de $\mathbb{C}^n$ se tiene que $AB:=\{AX_1,\dots,AX_n\}$ es una base ortonormal de $\mathbb{C}^n$.

Tarea moral

  • Demuestra que si $A$ es una matriz unitaria, entonces $|\det A|=1$.
  • Describe las matrices $A\in M_n(\mathbb{C})$ que son simultaneamente diagonales y unitarias.
  • Demuestra que el producto de dos matrices unitarias es una matriz unitaria y que la inversa de una matriz unitaria es unitaria.
  • Demuestra que si $V$ es un espacio euclidiano de dimensión finita sobre $\mathbb{C}$ y $T:V\to V$ una transformación lineal, $T$ es unitaria si y sólo si la matriz asociada a $T$ con respecto a cualquier base ortonormal de $V$ es unitaria.

Álgebra Lineal II: Más información del grupo ortogonal.

Introducción

En la entrada anterior estudiamos el grupo de transformaciones ortogonales en dimensión $2$.

Ahora estudiaremos el caso $\dim V=3$, para esto haremos uso del teorema de clasificación de la entrada anterior, así como el estudio que hicimos para el caso de dimensión $2$. Siguendo la misma idea que desarrollamos en el teorema de clasificiación, consideramos enteros $p,q,k$ tales que $$p+q+2k=3,$$ por lo que necesariamente $p\neq 0$ o $q\neq 0$. También podemos probar esto de manera máss directa, observando que el polinomio caracterísitico de $T$ es de grado $3$, por lo que debe tener una raíz real, y por ende un eigenvalor real, el cual será igual a $1$ o $-1$, pues tiene módulo $1$.

Intercambiando $T$ con $-T$ se tiene que simplemente se intercambian los papeles de $p$ y $q$. Supongamos que $p\geq 1$, esto significa que $T$ tiene al menos un punto fijo $v$. Entonces $T$ fija la recta $D=span (v)$ e induce una isometría sobre el plano ortogonal a $D$. Esta isometría se puede clasificar con el último teorema de la entrada anterior. Por lor tanto, hemos reducido el caso de dimensión $3$ al caso de dimensión $2$. Podemos ser más explicitos si consideramos los siguientes casos.

  • $id\in\{T,-T\}$.
  • Tenemos que $\dim \ker (T-id)=2$. Si $e_2,e_1$ es una base ortonormal del plano $\ker (T-id)=2$ y completamos a una base ortonormal de $V$ $\{e_1,e_2,e_3\}$, entonces $T$ fija puntualmente al subespacio generado por $e_2,e_3$ y deja invariante a la recta generada por $e_1$. Por lo tanto la matriz asociada a $T$ con respecto a la base ortonormal es
    $$ \begin{pmatrix}
    t & 0 & 0\\
    0 & 1 & 0\\
    0 & 0 & 1
    \end{pmatrix}$$
    para algun número real $t$, el cual forzosamente es $-1$, pues sabemos que debe ser $1$ o $-1$, pero si fuera $1$, entonces $T$ sería la indentidad. Por lo tanto $T$ es una simetría ortogonal con respecto al plano $\ker (T-id)$. Además, $\det T=-1$, por lo que $T$ es una isometría negativa.
  • Tenemos que $\dim\ker (T-id)$ es la recta generado por algún vector $e_1$ de norma $1$. Completamos $e_1$ a una base ortonormal $\{e_1,e_2,e_3\}$ . Entonces la isometría $T$ inducida sobre es subespacio generado por $\{e_2,e_3\}$ no tiene puntos fijos, ya que todos los puntos fijos de $T$ están sobre $span(e_1)$, por lo tanto $T$ es una rotación de ángulo $\theta$, para un único $\theta\in(-\pi,\pi]$. Además, la matriz asociada a $T$ con respecto a la base ortonormal es
    $$ \begin{pmatrix}
    1 & 0 & 0\\
    0 & \cos\theta & -\sin\theta\\
    0 & \sin\theta & \cos\theta
    \end{pmatrix}.$$
    Diremos que $T$ es la rotación de ángulo $\theta$ alrededor del eje $\mathbb{R}e_1$. Notemos que $\det T=1$, por lo que $T$ es una isometría positiva. Además, el ángulo $\theta$ satisface $$1+2\cos\theta=Tr(A),$$,aunque, al ser el coseno una función par, $-\theta$ también satisface la ecuación anterior. Para encontrar a $\theta$ necesitamos hallar a $\sin\theta$. Para ello verificamos que
    $$\det_{(e_1,e_2,e_3)}(e_1,e_2,T(e_2))=\begin{vmatrix}
    1 & 0 & 0\\
    0 & 1 & \cos\theta\\
    0 & 0 & \sin\theta
    \end{vmatrix}=\sin\theta.$$
  • Supongamos que $\ker(T-id)=\{0\}$. Una posibilidad es que $T=-id$. Supongamos que $T\neq id $. Como $T$ o $-T$ tienen un punto fijo y $T$ tiene puntos fijos, entonces necesariamente $-T$ tiene un punto fijo. Sea $e_1$ un vector de norma $1$ fijado por $-T$, por lo tanto $T(e_1)=-e_1$. Completando $e_1$ a una base ortonormal de $V$ dando un argumento similar al del caso anterior, obtenemos que la matriz asociada a $T$ con respecto a la base ortonormal es
    $$\begin{pmatrix}1- & 0 & 0\\
    0 & \cos\theta & -\sin\theta\\
    0 & \sin\theta & \cos\theta
    \end{pmatrix}=R_\theta \cdot \begin{pmatrix}
    1 & 0 & 0\\
    0 & \cos\theta & -\sin\theta\\
    0 & \sin\theta & \cos\theta
    \end{pmatrix}$$
    para algún $\theta \in (-\pi,\pi]$. Por lo tanto $T$ es la composición de una rotación de ángulo $\theta$ y una simetría ortogonal con respecto al eje de rotación. También notemos que $\det T=-1$, por lo que $T$ es una isometría negativa.
    También podemos mirarlo desde el punto de vista de las matrices. Consideremos una matriz ortogonal $A\in M_3(\mathbb{R})$ y la transformación lineal asociada
    \begin{align*}
    T:V&\to V\\
    X&\mapsto AX
    \end{align*}, donde $V=\mathbb{R}^3$ está equipado con el producto interior usual. Excluiremos los casos triviales $A=\pm I_3$. Para estudiar la isometría $T$, primero revisamos si esta es positiva o negativa, calculando el determinante.
    Supongamos que $T$ es positiva. Ahora veremos si $A$ es simétrica. Para ellos consideremos los siguentes dos casos:
  • Si $A$ es simétrica, entonces $A^2=I_3$ (pues $A$ es ortogonal y simétrica) y por lo tanto $T$ es una simetría ortogonal. Afirmamos que $T$ es una simetría ortogonal con respecto a una recta. En efecto, como $A^2=I_3$, todos los eigenvalores de $A$ son $1$ o $-1$. Más aún, los eigenvalores no son iguales, ya que estamos excluendo los casos $A=\pm I_3$, y el producto de ellos es 1, pues $\det A=1$. Por lo tanto, un eigenvalor es igual a $1$ y los otros dos son iguales a $-1$. Se sigue que la matriz asociada a $T$ con respecto a la base ortonormal $\{e_1,e_2,e_3\}$ es
    $$\begin{pmatrix}
    1 & 0 & 0\\
    0 & -1 & 0\\
    0 & 0 & -1
    \end{pmatrix}$$ y $T$ es la simetría ortogonal con respecto a la recta generado por $e_1$. Para encontrar esta recta de manera explícita, necesitamos calcular $\ker(A-I_3)$ resolviendo el sistema $AX=X$.
  • Si $A$ no es simétrica, entonces $A$ es una rotación de ángulo $\theta$ ara un único $\theta\in(-\pi,\pi]$. Podemos encontrar el eje de rotación resolviendo el sistema $AX=X$: si $Ae_1=e_1$ para algún vector $e_1$, entonces el eje de rotación está generado por $e_1$. Para encontrar el ángulo de rotación usamos la siguiente ecuación
    \begin{equation}\label{angulo}
    1+2\cos\theta=Tr(A),
    \end{equation}
    la cual determina a $\theta$ en valor absoluto (pues $\theta$ y $-\theta$ son soluciones por la paridad del coseno). Ahora escogemos un vector $e_2$ ortogonal a $e_1$ y de norma $1$ y definimos $e_3=(u_2v_3-u_3v_2,u_3v_1-u_1v_3,u_1v_2-u_2v_1)$, donde $e_1=(u_1,u_2,u_3)$ y $e_2=(v_1,v_2,v_3)$. Entonces $e_1,e_2,e_3$ es una base ortonormal positiva de $\mathbb{R}^3$ y $\det_{(e_1,e_2,e_3)}(e_1,e_2,Ae_2)$ nos da el valor de $\sin\theta$, con lo cual podremos determinar a $\theta$ de manera única. En la práctica bastará con encontrar el signo de $\det_{(e_1,e_2,e_3)}(e_1,e_2,Ae_2)$, ya que esto nos dará el signo de $\sin\theta$, lo cual determina $\theta$ de manera única gracias a la ecuación \eqref{angulo}.

Finalmente, si se supone que $T$ es negativa, entoces $-T$ es positiva y por lo tanto todo el estudio que acabamos de hacer se puede aplicar a $-T$.

Para finalizar, veremos un ejemplo concreto.

Ejemplo. Demuestra que a matriz
$$A=\frac{1}{3}\begin{pmatrix}
2 & 2 & 1\\
-2 & 1 & 2\\
1 & -2 & 2
\end{pmatrix}$$ es ortogonal y estudia su isometría correspondiente en $\mathbb{R}^3$.

Solución. El cálculo para verificar que $A$ es ortogonal es muy sencillo y se deja como tarea moral. Luego vemos que $\det A=1$, por lo que la isometría asociada es positiva. Como $A$ no es simétrica, se sigue que $T$ es una rotación. Para encontrar el eje necesitamos resolver el sistema $AX=X$, el cual es equivalente a
\begin{align*}
\begin{cases}
2x+2y+z &= 3x\\
-2x+y+2z &=3y\\
x-2y+2z &=3z
\end{cases}
\end{align*} y entonces $x=z$ y $y=0$. Por lo tanto, el eje de rotación está generado por el vector $(1,0,1)$. Normalizandolo obtenemos el vector
$$e_1=\frac{1}{\sqrt{2}}(1,0,1),$$ que genera al eje de $T$.
sea $\theta$ el ángulo de rotación, tal que
$$1+2\cos\theta=Tr(A)=\frac{5}{3},$$ y por lo tanto
$$cos\theta=\frac{1}{3}.$$
Falta determinar el signo de $\sin \theta$. Para ello, escogemos un vector ortogonal a $e_1$, digamos $$e_2=(0,1,0)$$ y calculamos el signo de
$$\det (e_1,e_2,Ae_2)=\frac{1}{3\sqrt{2}}\begin{vmatrix}
1 & 0 & 2\\
0 & 1 & 0\\
1 & 0 & -2
\end{vmatrix}=-\frac{4}{3\sqrt{2}}<0,$$ por lo que $\sin\theta<0$ y finalmente $\theta=-\arccos\frac{1}{3}$.

$\square$

Tarea moral

  • Verifica que la matriz $A$ del ejemplo anterior es ortogonal.
  • Encuentra la matriz asociada a la simetría ortogonal en $\mathbb{R}^3$ con respecto a la recta generada por el vector $(1,2,3)$.
  • Encuentra la matriz asociada a la simetría ortogonal en $\mathbb{R}^3$ con respecto al plano generad por los vectores $(1,1,1)$ y $(0,1,0)$.
  • Sea $V=\mathbb{R}^3$.¿En qué casos una rotación sobre $V$ conmuta con una simetríai ortogonal?