Introducción
En la entrada anterior enunciamos y demostramos el teorema espectral para matrices simétricas reales. Una de las consecuencias de este teorema es el teorema de descomposición polar. Se puede pensar en el teorema de descomposición polar como al análogo a un resultado muy conocido de números complejos: cualquier número complejo se puede pensar de la forma con real. Geométricamente, el complejo se obtiene «rotando tanto como el argumento y luego alargando de acuerdo a la norma».
Así mismo, veremos que toda matriz tendrá una expresión de la forma donde es una matriz ortogonal (que juega el papel de «la rotación») y es una matriz simétrica positiva (que por el teorema espectral recordemos que es básicamente «alargar en varias direcciones»). Este resultado es increíble: ¡nos dice cómo son todas, todas las matrices reales en términos de matrices muy sencillas: las ortogonales (que conocemos muy bien) y las simétricas (que por el teorema espectral también conocemos muy bien)!
Caso invertible del teorema de descomposición polar
Recordemos un resultado de la entrada anterior, que era una de las partes de nuestro teorema de clasificación de matrices positivas. Nos dice que las matrices simétricas positivas «tienen raíz cuadrada».
Proposición. Sea una matriz simétrica positiva. Entonces existe una matriz simétrica tal que .
Como recordatorio, para obtener a lo que hicimos fue diagonalizar a de la forma con matriz diagonal cuyas entradas eran los eigenvalores de . Como era positiva, sus eigenvalores eran no negativos, así que podíamos construir con entradas . Después, vimos que servía para que . Observa que además es positiva pues sus eigenvalores son no negativos.
Como observación adicional, si fuera positiva definida entonces sus eigenvalores serían positivos, y entonces también tendría eigenvalores positivos. Así, sería positiva definida también. De hecho, se puede demostrar que en este caso la matriz es única (bajo la condición de ser simétrica positiva definida y raíz de ). Probar esto queda como parte de los ejercicios de la entrada.
Estamos listos para enunciar y demostrar el teorema de descomposición polar en el caso de matrices invertibles.
Teorema (De descomposición polar, caso invertible). Sea una matriz invertible. Entonces existe una única pareja con una matriz ortogonal y una matriz simétrica positiva definida para la que se cumple que .
Demostración. Tomemos una matriz invertible. La matriz es simétrica y positiva definida. Por la discusión anterior, existe una única matriz simétrica positiva definida tal que . Como es invertible, también lo es, así que definamos
Afirmamos que cumplen con lo requerido. Ya justificamos que es simétrica positiva definida. Además, de se obtiene inmediatamente . Sólo falta verificar que es ortogonal. Para ello, al multiplicarla con su transpuesta obtenemos lo siguiente:
Veamos ahora la unicidad. Supongamos que con ortogonal y simétrica positiva definida, Entonces
De esta manera, es precisamente la raíz cuadrada de , que por la discusión anterior es única. Deducimos entonces que y por lo tanto .
Caso general del teorema de descomposición polar
Es natural preguntarse qué sucede cuando la matriz no es invertible. Resulta que en ese caso aún podemos encontrar una descomposición, aunque perdemos un poco de las propiedades de las matrices y la unicidad. Por ejemplo, si , entonces para cualquier matriz ortogonal y entonces tenemos muchas posibles descomposiciones.
Teorema (De descomposición polar, caso general). Cualquier matriz se puede escribir de la forma con una matriz ortogonal y una matriz simétrica positiva.
¿Por qué falla nuestra demostración? Todavía tenemos que es positiva, así que podríamos tomar una raíz cuadrada . El problema es que como no es invertible, entonces tampoco lo es. Por ello, no podemos definir como lo hicimos con anterioridad. Sin embargo, podemos ser astutos y «cambiar tantito» a para que sí se vuelva invertible. De hecho, podemos tomar muchas matrices que se acercan a y sí son invertibles. Con ello podemos usar un «argumento al límite». Formalicemos estas ideas.
Demostración. Consideremos las matrices . Recordemos que es un polinomio de grado así que tiene a lo más raíces. Por ello, existe un tal que para toda la matriz es invertible. Al aplicar el teorema de descomposición polar a cada una de dichas , obtenemos una matriz ortogonal y una simétrica positiva definida tales que
Las entradas de cada cumplen que están en el intervalo (pues la suma de las entradas de cada fila es igual a ). Así, es una sucesión de matrices en el compacto de matrices con entradas . En un compacto toda sucesión tiene una subsucesión convergente, así que podemos elegir una subsucesión de estas matrices, digamos que converge a una matriz .
Se puede ver que el producto de matrices es continúo y obtener inversas de matrices también es continuo (por ejemplo, por las fórmulas de inversa por matriz de adjuntos). De este modo, aplicando límite a la igualdad obtenemos que , de modo que es ortogonal.
Del mismo modo, como trasponer es continuo, converge a una matriz simétrica . Finalmente, usando nuevamente la continuidad del producto de matrices obtenemos
Sólo nos falta demostrar que es positiva, pero si tomamos , entonces pasando al límite en la desigualdad obtenemos . Aquí es donde se podría perder que es positiva definida, pero seguimos teniendo que es positiva.
Más adelante…
Tanto el teorema espectral como el teorema de descomposición polar son resultados de caracterización fundamentales en álgebra lineal y finalmente nos dan una respuesta a la pregunta de, geométricamente, cómo son todas las posibles transformaciones lineales. En las siguientes secciones se esbozarán los resultados análogos para el caso complejo.
Después de ello, en la cuarta unidad del curso cubriremos otro teorema que nos permitirá decir «cómo son todas las matrices». Quizás no todas las matrices sean directamente similares a una matriz diagonal. Pero enunciaremos y demostraremos el teorema de Jordan que dirá que cualquier matriz es similar a una «casi diagonal», a la que llamaremos diagonal por bloques.
Tarea moral
- Sean que y son matrices simétricas. Demuestra que y conmutan si y sólo si existe una misma matriz tal que y son diagonales (a esto se le conoce como que y sean «simultáneamente diagonalizables»)
- Usando el ejercicio anterior, demuestra que si es simétrica positiva definida, y se cumple con y matrices simétricas positivas definidas, entonces .
- Sean matrices tales que . Demuestra que existe una matriz ortogonal tal que .
- Encuentra la descomposición polar de
- Sea una matriz cuadrada con descomposición polar . Demuestra que es normal si y sólo si .
Entradas relacionadas
Agradecimientos
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»
Me gusta esto:
Me gusta Cargando...
Hola, qué es una transformación lineal positiva definida?
Hola Carlos,
Decimos que una forma bilineal b es positiva definida si b(x,x)>0 siempre que x sea distinto de 0.
Hola.
Dos cosas:
1.¿Por qué la respuesta a la pregunta «¿Qué es una transformación lineal positiva definida?» fue la definición de forma bilineal positiva definida?
2. En el enunciado del problema uno no se pide que T sea definida positiva, pero en la demostración sí se dice y, además, creo que se usa para obtener que los valores propios de T son positivos.
Gracias.
Tal vez esa fue la respuesta porque posiblemente la definición de que una transformación lineal sea positiva definida es que su matriz asociada sea positiva definida, y esto último nos lleva al concepto de formas bilineales.
Hola Rodrigo,
Gracias por tus observaciones. En efecto, me faltó incluir en el enunciado del primero problema que es positiva definida, ya lo corregí.
Decimos que una transformación lineal es positiva definida si es auto adjunta y
para todo .