Álgebra lineal II: El teorema de descomposición polar

Introducción

La descomposición polar es el análogo en el espacio de matrices, al resultado que dice que cualquier número complejo puede ser expresado como el producto de un número real no negativo y un número complejo de módulo $1$.

Caso invertible

Problema a) Sea $T$ una transformación lineal simétrica sobre un espacio Euclidiano $V$. Demuestra que para cualquier $d\geq 2$ existe una única transformación lineal simétrica positiva definida $T_d$ tal que $T_d^d=T$. Más aún, demuestra que existe un polinomio $P_d\in\mathbb{R}[X]$ tal que $A_d=P_d(T)$.
b) Sea $A\in M_n(\mathbb{R})$ una matriz simétrica positiva definida. Demuestra que para cualquier $d\geq 2$ existe una única matriz simétrica positiva definida $A_d$ tal que $A_d^d=A$. Más aún, existe un polinomio $P_d\in\mathbb{R}[X]$ tal que $A_d=P_d(A)$.

Solución. Como $T$ es simétrica y positiva definida, existen números reales positivos $t_1\dots,t_n$ y una base ortonormal $B=\{e_1,\dots,e_n\}$ de $V$ tal que $T(e_i)=te_i$ para cada $1\leq i \leq n$. Definimos $T_d:V\to V$ como $T_d(e_i)=\sqrt[d]{t_i}e_i$ para $1\leq i\leq n$ y lo extedemos por su linealidad. Entonces $T_d^d(e_i)=\sqrt[d]{t_i}^d e_i=t_ie_i=T(e_i)$ para $1\leq i\leq n$. Por lo tanto $T_d^d=T$. Más aún, $T_d$ es simétrica y positiva definida: en efecto, la matriz asociada a $T_d$ con respecto a la base ortonormal $\{e_1,\dots, e_d\}$ es diagonal con entradas positivas.

Ahora pobamos que $T_d$ es un polinomio en $T$. Bastará con probar que existe un polinomio $P$ tal que $P(t_i)=\sqrt[d]{t_i}$ para $1\leq i\leq n$, y entonces
$$P(T)(e_i)=P(t_i)e_i=\sqrt[d]{t_i}e_i=T_d(e_i),$$
y por lo tanto $P(T)=T_d$.Para probar la existencia de $P$, supongamos sin pérdidad de generalidad que $\{t_1,\dots,t_k\}$ son lo números distinto que aparecen en la lista $\{t_i,\dots, t_n\}$ para algún $1\leq k\leq n$. Por lo tanto será suficiente construir un polinomio $P$ tal que $P(t_i)=\sqrt[d]{t_i}$ para $1\leq i \leq k$. Simplemente tomamos el polinomio de interpolación de Lagrange asociado a$ (t_1,\dots,t_k)$ y $(\sqrt[d]{t_1},\dots , \sqrt[d]{t_k})$.


Veamos ahora que $T_d$ es único . Sea $S$ una transformación lineal simétrica positiva tal que $S^d=T$. Entonces $S$ conmuta con $T=S^d$, por lo que también conmuta con cualquier polinomio en $T$. Se sigue del teorema párrafo anterior que $S$ conmuta con $T_d$. Como $S$ y $T_d$ son diagonalizables y conmutan, se sigue que existe una base $f_1,\dots,f_n$ de $V$ en el cual las matrices de $S$ y $T_d$ son diagonales, digamos $D_1$ y $D_2$. Notemos que as entradas $a_1,\dots, a_n$ y $b_1,\dots, b_n$ de $D_1$ y $D_2$, respectivamente, son positivas (pues son eigenvalores de $S$ y $T_d$) y satisfacen $a_i^d=b_i^d$ para $1\leq i\leq n$ (pues $S^d=T_d^d=T$). Se sigue que $a_i=b_i$ para $1\leq i\leq n$ y así $D_1=D_2$ y $S=T_d$. Por lo que $T_d$ es única.

Como las matrices simétricas positivamente definadas $A\in M_n(\mathbb{R}^n)$ son transformaciones lineales simétricas positivamente definidas de $\mathbb{R}^n\to\mathbb{R}^n$, entonces el inciso b) es consecuencia del inciso a).

$\square$

Consideremos ahora una matriz $A\in M_n(\mathbb{R})$. Entonces la matriz $^tAA$ es simétrica y positiva. Por el problema anterior, existe una única matriz simétrica positiva $S=\sqrt{^tAA}$ tal que $^tAA=S^2$, Supongamos que $A$ es invertible, entonces $S$ es inveritbles y así podemos definir
$$U=AS^{-1}.$$

Entonces, tomando en cuenta que $S$ es simétrica, obtenemos
$$^tUU=^tS^{-1}\hspace{.5mm}^tAAS^{-1}=S^{-1}S^2S^{-1}=I_n,$$ por lo que $U$ es ortogonal.

Teorema (De descomposición polar, caso invertible). Sea $A\in M_n(\mathbb{R})$ una matriz invertible. Entonces existe una única pareja $(S,U)$ con $S$ una matriz simétrica positiva definida y $U$ una matriz ortogonal tal que $A=US$.

Demostración. Ya probamos que la pareja existe, por lo que sólo nos falta probar la unicidad de $U$ y $S$. Supongamos que $A=US$ con $U$ ortogonal y $S$ simétrica y positiva definida, Entonces
$$^tAA=S^tUUS=S^2$$
y por el problema incial de esta entrada, deducimos que $S=\sqrt{^tAA}$ y entonces $U=AS^{-1}$. Por lo tanto $U$ y $S$ son únicas.

$\square$

Caso general

Es natural preguntarse qué sucede cuando la matriz $A$ no es invertible. Veremos que aún tenemos la descomposición $A=US$ con $U$ ortogonal y $S$ simétrica y positiva (no positiva definida). Sin embargo, la pareja $(S,U)$ ya no es única (si $A=O_n$, entonces $A=UO_n$ para culaquier matriz ortogonal $U$). La existencia de la descomposición en el caso en el que $A$ no es invertible es problemático. Consideraremos las matrices $A_k=A+\frac{1}{k}I_n$. Entonces existe $k_0$ tal que para toda $k>k_0$ la matriz $A_k$ es invertible (pues $A$ tiene solamente una cantidad finita de eigenvalores). Por el teorema anterior aplicado a $A_k$, podemos encontrar una matriz ortogonal $U_k$ y una matriz simétrica positiva definida $S_k$ tales que
$$A_k=U_kS_k.$$
Escribimos $U_k=[u_{ij}^{(k)}]$ y $S_k=[s_{ij}^{(k)}]$. Como $U_k$ es ortogonal, la suma de los cuadrados de los elementos de cada columna de $U_k$ es igual a $1$, por lo que $u_{ij}^(k)\in[-1,1]$ para cualesquiera $i,j\in\{1,\dots, n\}$ y para todo $k>k_0$. Recordemos de nuestras clases de cálculo que toda sucesión definida en un compacto tiene una subsucesión convergente, en particular el intervalo cerrado $[-1,1]$ es compacto, por lo que si aplicamos este resultado $n^2$ veces (una por cada pareja $i,j\in\{1,\dots, n\}$), podemos asegurar que existe una sucesión creciente $(k_n)_{n}$ tal que
$$u_{ij}:=\displaystyle\lim_{l\to\infty}u_{ij}^{k_l}$$
existe para cualesquiera $i,j\in\{1,2,\dots, n\}$. Afirmamos que la matriz $U=[u_{ij}]$ es ortogonal. En efecto, pasando al límite en cada entrada de la igualdad $^tU_{kl}U_{kl}=I_n$ nos da $^tUU=I_n$. Más aún, como
$$S_{kl}=U_{kl}^{-1}A_{kl}=\hspace{.5mm}^tU_{kl}A_{kl},$$
y como cada $(i,j)$-entrada de $^tU_{kl}$ converge (cuando $l\to\infty$) a $u_{ij}$ y cada $(i,j)$-entrada de $A_{kl}$ converge a $a_{ij}$ (cuando $l\to\infty$), podemos deducir que para cualesquiera $i,j\in\{1,2,\dots,n\}$, la sucesión $(S_{ij})_l^{(kl)}$ converge a algún $s_{ij}$, la matriz $S=[s_{ij}]$ es simétrica y
$$S=\hspace{.5mm}^tUA,$$ o bien $$A=US.$$
Sólo nos falta demostrar que $S$ es positiva, pero si tomamos $X\in\mathbb{R}^n$, entonces pasando al límite en la desigualdad $^tXS_{kl}X\geq 0$ obtenemos $^tXSX\geq 0$, por lo que $S$ es positiva.

Gracias a toda la discusión anterior, hemos porbado el teorema principal de esta sección que enunciamos a continuación:

Teorema (De descomposición polar, caso general). Cualquier matriz $A\in M_n(\mathbb{R})$ se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Observación. Si $A=US$, entonces necesariamente
$$^tAA=S^2$$ y así $S=\sqrt{^tAA}$ está determinada de manera única. A los eigenvalores de $S$ los llamamos valores singulares de $A$.

Tarea moral

  • Sean $A,B\in M_n(\mathbb{R})$ matrices tales que $^tAA=^tBB$. Demuestra que existe una matriz ortogonal $U\in M_n(\mathbb{R})$ tal que $B=UA$.
  • Encuentra la descomposición polar de $$\begin{pmatrix}
    11 & -5\\
    -2 & 10 \end{pmatrix}.$$
  • Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.