Archivo de la etiqueta: teorema espectral

Álgebra Lineal II: El teorema espectral y de descomposición polar complejos

Por Ayax Calderón

Introducción

Ya hablamos de qué son las transformaciones adjuntas en el caso de los espacios hermitianos, que podemos pensar como el equivalente complejo a los espacios euclideanos. A partir de esto, hablamos de quienes son las transformaciones que preservan el producto interior hemitiano (y por lo tanto la norma hermitiana): las transformaciones unitarias.

Lo que haremos ahora es dar el análogo al teorema espectral real, pero para el caso complejo. En el caso real el resultado es para transformaciones o matrices simétricas. En el caso complejo eso no funcionará. Primero, tenemos que introducir a las transformaciones hermitianas, que serán las que sí tendrán un teorema espectral. Ya eligiendo la noción correcta, las demostraciones se parecen mucho a las del caso real, así que solamente las esbozaremos y en caso de ser necesario haremos aclaraciones pertinentes para la versión compleja.

Transformaciones hermitianas

La noción correcta que necesitamos para enunciar y demostrar el teorema espectral es la siguiente.

Definición. Sea V un espacio hermitiano con un producto interior hermitiano ,. Diremos que una transformación lineal T:VV es hermitiana si
T(x),y=x,T(y) para cualesquiera x,yV.

Diremos que una matriz AMn(C) es hermitiana si A=A, donde A=tA.

La conexión entre las transformaciones hermitianas y las matrices hermitianas es la siguiente.

Teorema. Sea V un espacio hermitiano y B={e1,,en} una base ortonormal de V. Las transformación T es hermitiana si y sólo si la matriz A=MatB(T) es hermitiana.

Demostración. Recordemos que si B es una base ortonormal de V, entonces cualquier xV se puede expresar como x=i=1nx,eiei.

Entonces T(ej)=i=1nT(ej),eiei y por lo tanto Aij=T(ej),ei.

Hagamos ahora sí la demostración del si y sólo si. Supongamos primero que T es hermitiana. Tenemos entonces que:

Aji=T(ei),ej=ei,T(ej)=T(ej),ei=Aij.

La tercer igualdad se sigue pues para el producto interior hermitiano al intercambiar las entradas se conjuga. Así A es hermitiana.

Supongamos ahora que A es hermitiana, entonces
T(x),y=i=1nj=1nT(xiei),yjej=i=1nj=1nxiyjAji=i=1nj=1nxiyjAij=i=1nj=1nxiei,T(yj)ej=x,T(y).

Por lo tanto T es hermitiana.

◻

El teorema espectral complejo

En el siguiente teorema resumimos tanto los resultados auxiliares para demostrar el teorema espectral en el caso complejo (1 y 2), como el teorema espectral mismo (3).

Teorema. Sea V un espacio hermitiano y T:VV una transformación lineal hermitiana. Entonces las siguientes afirmaciones son verdaderas:

  1. Todos los eigenvalores de T son reales.
  2. Si W es un subespacio de V estable bajo T, entonces W también es estable bajo T, y las restricciones de T a W y W son transformaciones lineales hermitianas sobre estos subespacios.
  3. Existe una base ortonormal de V formada por eigenvectores de T.

Demostración.

  1. Sea t un eigenvalor de T, entonces T(x)=tx para algún vector no nulo xV. Como T es hermitiana, tenemos lo siguiente. t||x||2=x,tx=x,T(x)=T(x),x=tx,x=t||x||2. Como x0, podemos cancelar ||x|| de ambos lados para obtener t=t y por lo tanto t es real. Compara esta demostración con la del caso real, ¡en esta ocasión es mucho más sencillo!
  2. Sea yW, entonces
    x,T(y)=T(x),y=0xW,
    pues T(x)W ya que W es T-estable. Entonces T(y)W y así T(W)W. Además, TW(x),y=T(x),y=x,T(y)=x,TW(y)x,yW. Por lo tanto TW es hermitiana. La prueba de que TW es hermitiana es análoga.
  3. Por el teorema fundamental de álgebra tenemos que el polinomio característico de T se divide en C. Entonces, por el teorema de Schur existe una base ortonormal B de V tal que A=MatB(T) es una matriz triangular superior. Recordemos que MatB(T)=MatB(T), se sigue que
    A=MatB(T)=MatB(T)=MatB(T)=A.
    Entonces A y A son simultaneamente triangulares superiores y por lo tanto A es diagonal. Por ello, B es una base formada por eigenvectores de T.

◻

Resulta que el recíproco del último inciso del teorema anterior también es cierto:

Teorema. Si V es un espacio hermitiano y T:VV es una transformación lineal hermitiana tal que existe una base B de V formada por eigenvectores de T con eigenvalores reales, entonces T es hermitiana.

Demostración. Sea A=MatB(T). Como los elementos de B={e1,,en} son eigenvectores de T, entonces A es una matriz diagonal. Como por hipótesis todo eigenvector es real, entonces A es de entradas reales, pues aii=ti. Se sigue que A=A y por lo tanto T es hermitiana.

◻

Finalmente, enunciamos la versión del teorema espectral para matrices.

Teorema (teorema espectral complejo). Sea AMn(C) una matriz hermitiana. Existe una matriz unitaria P y una matriz diagonal D con entradas reales tal que A=P1DP.

El teorema de descomposición polar complejo

A partir del teorema espectral complejo se puede demostrar también un teorema de descomposición polar complejo. El resultado es el siguiente.

Teorema (descomposición polar compleja). Sea AMn(C) una matriz invertible. Entonces existen una única matriz unitaria U y una única matriz hermitiana H con eigenvalores positivos tales que A=UH.

También hay una versión para cuando la transformación no es invertible. La discusión y las pruebas son análogas a lo que se platicó en la entrada de descomposición polar.

Más adelante…

Con esta entrada terminamos la tercera unidad de nuestro curso. En esta tercera unidad las transformaciones que estudiamos cumplen propiedades bonitas: ser ortogonales, diagonales, unitarias, etc. A partir de ello hay clasificaciones muy detalladas: la clasificación de matrices ortogonales, el teorema espectral, el teorema de descomposición polar. En la cuarta unidad hablaremos de otra manera en la que podemos «simplificar» cualquier transformación lineal o matriz: mediante formas canónicas. La ventaja es que la cantidad de matrices que podremos simplificar será mucho mayor, aunque la ligera desventaja es que ya no tendremos una forma «diagonal» sino una «casi diagonal».

Tarea moral

  1. Encuentra una diagonalización de (1+i2i2i1i). Encuentra la descomposición polar de (1+i1i2i2i).
  2. Sea U:VV una transformación lineal sobre un espacio hermitiano V. Demuestra o da un contraejemplo de la siguiente afirmación: Si U(x)=x para cualquier xB, donde B es una base ortonormal de V, entonces U es unitaria.
  3. Demuestra que una matriz unitaria y triangular superior necesariamente es diagonal.
  4. Sea A una matriz cuadrada con descomposición polar A=WP. Demuestra que A es normal si y sólo si WP2=P2W.
  5. Bajo las mismas hipótesis del inciso anterior y haciendo uso de éste, demuestra que A es normal si y sólo si WP=PW.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: El teorema de descomposición polar real

Por Ayax Calderón

Introducción

En la entrada anterior enunciamos y demostramos el teorema espectral para matrices simétricas reales. Una de las consecuencias de este teorema es el teorema de descomposición polar. Se puede pensar en el teorema de descomposición polar como al análogo a un resultado muy conocido de números complejos: cualquier número complejo se puede pensar de la forma z=eiθr con r0 real. Geométricamente, el complejo se obtiene «rotando tanto como el argumento y luego alargando de acuerdo a la norma».

Así mismo, veremos que toda matriz A tendrá una expresión de la forma A=US donde U es una matriz ortogonal (que juega el papel de «la rotación») y S es una matriz simétrica positiva (que por el teorema espectral recordemos que es básicamente «alargar en varias direcciones»). Este resultado es increíble: ¡nos dice cómo son todas, todas las matrices reales en términos de matrices muy sencillas: las ortogonales (que conocemos muy bien) y las simétricas (que por el teorema espectral también conocemos muy bien)!

Caso invertible del teorema de descomposición polar

Recordemos un resultado de la entrada anterior, que era una de las partes de nuestro teorema de clasificación de matrices positivas. Nos dice que las matrices simétricas positivas «tienen raíz cuadrada».

Proposición. Sea A una matriz simétrica positiva. Entonces existe una matriz simétrica B tal que B2=A.

Como recordatorio, para obtener a B lo que hicimos fue diagonalizar a A de la forma A=P1DP con D matriz diagonal cuyas entradas eran λ1,,λn los eigenvalores de A. Como A era positiva, sus eigenvalores eran no negativos, así que podíamos construir D con entradas λ1,,λn. Después, vimos que B=P1DP servía para que B2=A. Observa que además B es positiva pues sus eigenvalores son no negativos.

Como observación adicional, si A fuera positiva definida entonces sus eigenvalores serían positivos, y entonces B también tendría eigenvalores positivos. Así, B sería positiva definida también. De hecho, se puede demostrar que en este caso la matriz B es única (bajo la condición de ser simétrica positiva definida y raíz de A). Probar esto queda como parte de los ejercicios de la entrada.

Estamos listos para enunciar y demostrar el teorema de descomposición polar en el caso de matrices invertibles.

Teorema (De descomposición polar, caso invertible). Sea AMn(R) una matriz invertible. Entonces existe una única pareja (U,S) con U una matriz ortogonal y S una matriz simétrica positiva definida para la que se cumple que A=US.

Demostración. Tomemos AMn(R) una matriz invertible. La matriz tAA es simétrica y positiva definida. Por la discusión anterior, existe una única matriz simétrica positiva definida S tal que tAA=S2. Como A es invertible, S también lo es, así que definamos U=AS1.

Afirmamos que (U,S) cumplen con lo requerido. Ya justificamos que S es simétrica positiva definida. Además, de U=AS1 se obtiene inmediatamente US=A. Sólo falta verificar que U es ortogonal. Para ello, al multiplicarla con su transpuesta obtenemos lo siguiente:
tUU=tS1tAAS1=S1S2S1=In.

Veamos ahora la unicidad. Supongamos que A=US con U ortogonal y S simétrica positiva definida, Entonces
tAA=StUUS=S2.

De esta manera, S es precisamente la raíz cuadrada de tAA, que por la discusión anterior es única. Deducimos entonces que S=S y por lo tanto U=AS1=AS1=U.

◻

Caso general del teorema de descomposición polar

Es natural preguntarse qué sucede cuando la matriz A no es invertible. Resulta que en ese caso aún podemos encontrar una descomposición, aunque perdemos un poco de las propiedades de las matrices y la unicidad. Por ejemplo, si A=On, entonces A=UOn para cualquier matriz ortogonal U y entonces tenemos muchas posibles descomposiciones.

Teorema (De descomposición polar, caso general). Cualquier matriz AMn(R) se puede escribir de la forma A=US con U una matriz ortogonal y S una matriz simétrica positiva.

¿Por qué falla nuestra demostración? Todavía tenemos que tAA es positiva, así que podríamos tomar una raíz cuadrada S. El problema es que como A no es invertible, entonces S tampoco lo es. Por ello, no podemos definir U=AS1 como lo hicimos con anterioridad. Sin embargo, podemos ser astutos y «cambiar tantito» a A para que sí se vuelva invertible. De hecho, podemos tomar muchas matrices que se acercan a A y sí son invertibles. Con ello podemos usar un «argumento al límite». Formalicemos estas ideas.

Demostración. Consideremos las matrices Ak=A+1kIn. Recordemos que det(A+λIn) es un polinomio de grado n así que tiene a lo más n raíces. Por ello, existe un k0 tal que para toda k>k0 la matriz Ak es invertible. Al aplicar el teorema de descomposición polar a cada una de dichas Ak, obtenemos una matriz ortogonal Uk y una simétrica positiva definida Sk tales que

Ak=UkSk.

Las entradas de cada Uk cumplen que están en el intervalo [1,1] (pues la suma de las entradas de cada fila es igual a 1). Así, Uk es una sucesión de matrices en el compacto de matrices con entradas [1,1]. En un compacto toda sucesión tiene una subsucesión convergente, así que podemos elegir una subsucesión de estas matrices, digamos Uk1,Uk2, que converge a una matriz U.

Se puede ver que el producto de matrices es continúo y obtener inversas de matrices también es continuo (por ejemplo, por las fórmulas de inversa por matriz de adjuntos). De este modo, aplicando límite j a la igualdad tUkjUkj=In obtenemos que tU=In, de modo que U es ortogonal.

Del mismo modo, como trasponer es continuo, Sk1,Sk2, converge a una matriz simétrica S. Finalmente, usando nuevamente la continuidad del producto de matrices obtenemos

A=limjAkj=limjUkjSkj=US.

Sólo nos falta demostrar que S es positiva, pero si tomamos XRn, entonces pasando al límite j en la desigualdad tXSkjX>0 obtenemos tXSX0. Aquí es donde se podría perder que S es positiva definida, pero seguimos teniendo que S es positiva.

◻

Más adelante…

Tanto el teorema espectral como el teorema de descomposición polar son resultados de caracterización fundamentales en álgebra lineal y finalmente nos dan una respuesta a la pregunta de, geométricamente, cómo son todas las posibles transformaciones lineales. En las siguientes secciones se esbozarán los resultados análogos para el caso complejo.

Después de ello, en la cuarta unidad del curso cubriremos otro teorema que nos permitirá decir «cómo son todas las matrices». Quizás no todas las matrices sean directamente similares a una matriz diagonal. Pero enunciaremos y demostraremos el teorema de Jordan que dirá que cualquier matriz es similar a una «casi diagonal», a la que llamaremos diagonal por bloques.

Tarea moral

  1. Sean que A y B son matrices simétricas. Demuestra que A y B conmutan si y sólo si existe una misma matriz P tal que PAP1 y PBP1 son diagonales (a esto se le conoce como que A y B sean «simultáneamente diagonalizables»)
  2. Usando el ejercicio anterior, demuestra que si A es simétrica positiva definida, y se cumple B2=A=C2 con B y C matrices simétricas positivas definidas, entonces B=C.
  3. Sean A,BMn(R) matrices tales que tAA=tBB. Demuestra que existe una matriz ortogonal UMn(R) tal que B=UA.
  4. Encuentra la descomposición polar de (115210).
  5. Sea A una matriz cuadrada con descomposición polar A=WP. Demuestra que A es normal si y sólo si WP2=P2W.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: El teorema espectral real

Por Ayax Calderón

Introducción

Por lo que estudiamos en la primera parte de este curso, ya sabemos cuándo una matriz arbitraria es diagonalizable. Lo que haremos ahora es enunciar y demostrar el teorema espectral en el caso real. Una de las cosas que nos dice es que las matrices simétricas reales son diagonalizables. Pero nos dice todavía más. También nos garantiza que la manera en la que se diagonalizan es a través de una matriz ortogonal. Esto combina mucho de la teoría que hemos cubierto. Además, gracias al teorema espectral podremos, posteriormente, demostrar el famoso teorema de descomposición polar que nos dice cómo son todas las matrices.

El lema de eigenvalores de matrices simétricas

Comencemos enunciando algunas propiedades que tienen las matrices y transformaciones simétricas. El primero habla de cómo son los eigenvalores de las matrices simétricas.

Lema. Sea AMn(R) una matriz simétrica. Entonces todas las raíces del polinomio característico de A son números reales.

Demostración. Tomemos AMn(R) y sea λ. Su polinomio característico está en R[x], así que por el teorema fundamental del álgebra todas sus raíces están en C. Sea t una raíz del polinomio característico de A.

Pensemos a A como un elemento de Mn(C). Como det(tInA)=0, entonces t es eigenvalor y por lo tanto hay un eigenvector XCn no nulo tal que AX=tX. Como el vector tiene entradas complejas, lo podemos escribir como X=Y+iZ para dos vectores Y,ZRn. Así mismo, podemos escribir a t como t=a+ib con a y b números reales.

Con esta notación, de la igualdad AX=tX se sigue que

AY+iAZ=AX=(a+ib)(Y+iZ)=aYbZ+i(aZ+bY).

Igualando las partes imaginarias y las partes reales obtenemos que

(1)AY=aYbZ,AZ=aZ+bY.

Usemos ahora que A es simétrica. Tenemos que
(2)AY,Z=Y,AZ.

Sustituyendo la primera igualdad de (1) en el lado izquierdo de (2), y la segunda igualdad de (1) en el lado derecho de (2), obtenemos que:

aYbZ,Z=Y,aZ+bY,

y usando la linealidad del producto interior, se obtiene que

aY,ZbZ,Z=aY,Z+bY,Y.

Se sigue que
b(||Y||2+||Z||2)=0 y como Y o Z es distinto de cero (de lo contrario tendríamos que X=0), entonces concluimos que b=0 y con ello que t es un número real.

◻

El lema de estabilidad de transformaciones simétricas

El segundo lema que veremos nos dice qué sucede cuando una transformación lineal es simétrica y tomamos un subespacio estable bajo ella. Recuerda que un subespacio W de un espacio vectorial V es estable bajo una transformación lineal T:VV si T(W)W.

Lema. Sea V un espacio euclidiano y T:VV una transformación lineal simétrica sobre V. Sea W un subespacio de V estable bajo T. Entonces

  1. W también es estable bajo T.
  2. Las restricciones de T a W y W son transformaciones lineales simétricas sobre estos espacios.

Demostración.

1. Tomemos xW. Nos gustaría ver que T(x)W. Para ello, tomemos yW. Como W es estable bajo T, tenemos T(y)W. Como xW, tenemos que x,T(y)=0. Usando esto y la simetría de T, obtenemos entonces
T(x),y=x,T(y)=0,
que es lo que queríamos probar.

2. Sea T|W la restricción de T aW. Para x,yW tenemos que
T|W(x),y=T(x),y=x,T(y)=x,T|W(y), por lo tanto T|W es simétrica sobre W. Análogamente se ve que el resultado se cumple para W.

◻

El teorema espectral real

Con los dos lemas anteriores podemos ahora sí enfocarnos en demostrar el teorema principal de esta entrada.

Teorema (el teorema espectral real). Sea V un espacio euclidiano y T:VV una transformación lineal simétrica. Entonces existe una base ortonormal de V conformada por eigenvectores de T.

Demostración. Procederemos por inducción fuerte sobre n=dimV. Si n=1, entonces el polinomio característico de T es de grado 1 y tiene coeficientes reales, por lo que tiene una raíz real t. Si v es un eigenvector de T con eigenvalor t, entonces v||v|| también es eigenvector de T y forma una base ortonormal de V. Esto termina el caso n=1.

Ahora supongamos que el resultado se satisface hasta dimensión n1 y tomemos V de dimensión n. Sea B={e1,e2,en} una base ortonormal de V. Sea A la matriz asociada a T con respecto a B. Como T es simétrica, entonces A también lo es. Su polinomio característico no es constante, de modo que por el teorema fundamental del álgebra tiene por lo menos una raíz t, y por el primer lema de la sección anterior, se tiene que t es real y por lo tanto es un eigenvalor.

Sea W=ker(tidT) el t-eigenespacio de T. Si W=V, entonces T=tid y así B es una base ortonormal de V compuesta por eigenvectores de T. De otro modo, WV y por lo tanto k:=dimW<n. Tenemos que V=WW y sabemos que los eigenespacios son estables bajo la transformación correspondiente. Así, por el segundo lema de la sección anterior W también es estable bajo T y la restricción de T a W es simétrica.

Podemos entonces aplicar la hipótesis inductiva a T|W para encontrar una base ortonormal C={f1,f2,fnk} de W compuesta por eigenvectores de T. Escogiendo una base ortonormal D={f1,f2,,fk} de W (que automaticamente está formada por eigenvectores de T). La base CD de V es entonces la base de eigenvectores que buscábamos.

◻

El teorema espectral también puede enunciarse en términos de matrices. Hacemos esto a continuación.

Observación. Si AMn(R) es una matriz simétrica, entonces la transformación lineal T:XAX sobre Rn es simétrica. Aplicando el teorema anterior, podemos encontrar una base ortonormal de V con respecto a la cual la matriz asociada a T es diagonal. Como la base canónica de V es ortonormal, y como la matriz de cambio de pase entre dos bases ortonormlaes es ortogonal, obtenemos el siguiente resultado fundamental.

Teorema (el teorema espectral para matrices reales). Sea AMn(R) una matriz simétrica. Entonces A es diagonalizable y, más específicamente, existen una matriz ortogonal PMn(R) y una matriz diagonal DMn(R) tales que A=P1DP.

Así, A es simultáneamente, mediante una misma matriz P, tanto similar como congruente a una matriz diagonal.

Aplicación a caracterizar las matrices simétricas positivas

Ya hemos dado algunas caracterizaciones para las matrices simétricas positivas. Veamos algunas caracterizaciones adicionales.

Teorema. Sea AMn(R) una matriz simétrica. Entonces las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B2 para alguna matriz simétrica BMn(R).
  4. A=tCC para alguna matriz CMn(R).

Demostración. 1) implica 2). Supongamos que A es positiva y que t es un eigenvalor de A con eigenvector v. Como Av=tv, obtenemos que

t||v||2=tv,v=v,tv=v,Av=tvAv0,
por lo tanto t0.

2) implica 3). Sean t1,,tn todas las raíces del polinomio característico de A, escritos con su multiplicidad correspondiente. Por el primer lema de la sección anterior, todos ellos son reales, y estamos suponiendo que son no negativos. Por el teorema espectral podemos encontrar una matriz P y una diagonal D tal que A=P1DP, y por lo que vimos de teoría de diagonalización, D precisamente tiene como entradas en su diagonal a t1,t2,,tn. Sea D la matriz diagonal con entradas ci=ti y sea B=P1DP. Como P es ortogonal, B es simétrica

Y además, por construcción, B2=P1D2P=P1DP=A, como queríamos.

3) implica 4). Basta con tomar la matriz B de (3) y tomar C=B. Como B es simétrica, A=B2=tBB.

4) implica 1). Esto ya lo habíamos demostrado en un resultado anterior de caracterización de matrices simétricas.

◻

Más adelante…

Hemos enunciado y demostrado el teorema espectral. Lo que nos dice es muy interesante: una matriz simétrica básicamente consiste en cambiar de base a una base muy sencilla e1,,en (ortonormal) a traves de la matriz P. Luego, en esa base pasa algo muy simple: en la dirección de ei, simplemente alargamos de acuerdo al eigenvalor λi.

Como consecuencia, veremos en la siguiente entrada que esto nos permite entender no sólo a las matrices simétricas, sino a todas, todas las matrices. Al teorema que veremos a continuación se le conoce como el teorema de descomposición polar.

Tarea moral

  1. La matriz (sinθcosθcosθsinθ) es real y simétrica, de modo que es diagonalizable. ¿Cuál es su diagonalización?
  2. Da un ejemplo de una matriz simétrica con coeficientes complejos que no sea diagonalizable.
  3. Sea T una transformación lineal sobre un espacio euclidiano V, y supón que V tiene una base ortonormal conformada por eigenvectores de T. Demuestra que T es simétrica (por lo que el recíproco del teorema espectral se satisface).
  4. Considera la matriz A=(122212221).
    Explica por qué A es diagonalizable en Mn(R) y encuentra una matriz P tal que P1AP es diagonal.
  5. Adapta el teorema de caracterización de matrices positivas visto en esta entrada a una versión para matrices positivas definidas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si A es una matriz de m×n, su transpuesta tA es la matriz de n×m que se obtiene de reflejar a las entradas de A en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos A=[aij], entonces tA=[aji]. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y tA=A1. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si A es una matriz de n×n con entradas reales y simétrica, entonces:

  • Sus eigenvalores λ1,,λn (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal P de n×n y con entradas reales tal que si tomamos a D la matriz diagonal de n×n cuyas entradas en la diagonal principal son λ1,,λn, entonces A=P1DP.

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si A=P1DP como en el teorema anterior, entonces
A2=(P1DP)(P1DP)=P1DDP=P1D2P,

y de manera inductiva se puede probar que Ak=P1DkP. Elevar la matriz D a la k-ésima potencia es sencillo, pues como es una matriz diagonal, su k-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la k.

Problema. Sea A una matriz de n×n simétrica y de entradas reales. Muestra que si Ak=On para algún entero positivo k, entonces A=On.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de A. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como A es simétrica y de entradas reales, entonces sus eigenvalores λ1,,λn son reales y es diagonalizable. Digamos que su diagonalización es P1DP. Tenemos que On=Ak=P1DkP. Multiplicando por la matriz P a la izquierda, y la matriz P1 a la derecha, tenemos que Dk=On. Las entradas de Dk son λ1k,,λnk, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo, λ1==λn=0.

Concluimos que D=On, y que por lo tanto A=P1OnP=On.

◻

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz A=(0111). Calcula las primeras potencias de A a mano. Conjetura y muestra cómo es An en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el n-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz A obtenemos:

A=(0111),A2=(1112),A3=(1223),A4=(2335),A5=(3558).

Al parecer, en las entradas de A van apareciendo los números de Fibonacci. Seamos más concretos. Definimos F0=0, F1=1 y para n0 definimos Fn+2=Fn+Fn+1. La conjetura es que para todo entero n1, se tiene que An=(Fn1FnFnFn+1).

Esto se puede probar por inducción. Arriba ya hicimos el caso n=1. Supongamos la conjetura cierta hasta un entero n dado, y consideremos la matriz An+1. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

An+1=AAn=(0111)(Fn1FnFnFn+1)=(FnFn+1Fn1+FnFn+Fn+1)=(FnFn+1Fn+1Fn+2).

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz A es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de A. Su polinomio característico es |λ11λ1|=λ2λ1.

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de A) son 1±52. Por el momento, para simplificar la notación, llamemos α a la de signo más y β a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible P de 2×2 tal que A=P1(α00β)P.

De esta forma, An=P1(αn00βn)P.

Aquí no es tan importante determinar concretamente P ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de αn y βn y de que los coeficientes de esta combinación lineal ya no dependen de n, sino sólo de las entradas de P. En particular, la entrada superior derecha de An por un lado es Fn, y por otro lado es rαn+sβn.

¿Cómo obtenemos los valores de α y β? Basta substituir n=1 y n=2 para obtener un sistema de ecuaciones en α y β. Aquí abajo usamos que como α y β son raíces de x2x1, entonces α2=α+1, β2=β+1 y α+β=1.

{1=F1=rα+sβ1=F2=rα2+sβ2=r+s+1.

De aquí, obtenemos la solución
r=1αβ=15s=r=15.

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es Fn=(1+52)n(152)n5.

◻

Matrices positivas y positivas definidas

Por definición, una matriz simétrica A de n×n con entradas reales es positiva si para cualquier vector (columna) v en Rn se tiene que tvAv0. Aquí tv es la transposición de v, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector v=0, entonces decimos que A es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz A=(1111), pues para cualquier vector v=(x,y) se tiene que tvAv=x22xy+y2=(xy)20. Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como (1,1). Como puedes verificar, un ejemplo de matriz positiva definida es B=(3004).

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en Rn. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B2 para alguna matriz simétrica B en Mn(R).
  4. A=tCC para alguna matriz C en Mn(R).

Hay un resultado análogo para cuando se quiere determinar si una matriz A es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos 3 y 4 se necesita además que B y C sean invertibles.

Problema. Sea A una matriz de n×n con entradas reales, simétrica y positiva. Muestra que si tr(A)=ndet(A)n, entonces A conmuta con cualquier matriz de n×n.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que A se puede diagonalizar con matrices A=P1DP, donde D es la matriz diagonal que tiene en su diagonal principal a los eigenvalores λ1,,λn de A, y P1 es una matriz invertible. Como A y D son similares, se tiene que
tr(A)=tr(D)=λ1++λndet(A)=det(D)=λ1λn.

Como A es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

λ1++λnnλ1λnn.

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor λ, y entonces D=λIn. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de n×n, tendríamos entonces que

A=P1DP=P1(λIn)P=(λIn)(P1P)=λIn.

Con esto probamos que A es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de n×n.

◻

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Teorema espectral para matrices simétricas reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada demostramos el teorema espectral para matrices simétricas reales en sus dos formas. Como recordatorio, lo que probaremos es lo siguiente.

Teorema. Sea V un espacio euclideano y T:VV una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Teorema. Sea A una matriz simétrica en Rn. Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en Rn, tales que A=P1DP.

Para ello, usaremos los tres resultados auxiliares que demostramos en la entrada de eigenvalores de matrices simétricas reales. Los enunciados precisos están en ese enlace. Los resumimos aquí de manera un poco informal.

  • Los eigenvalores complejos de matrices simétricas reales son números reales.
  • Si una transformación T es simétrica y W es un subespacio estable bajo T, entonces W también lo es. Además, T restringida a W o a W también es simétrica.
  • Es lo mismo que una matriz sea diagonalizable, a que exista una base formada eigenvectores de la matriz.

Además de demostrar el teorema espectral, al final de la entrada probaremos una de sus consecuencias más importantes. Veremos una clasificación de las matrices que inducen formas bilineales positivas.

Demostración de la primera versión del teorema espectral

Comenzamos mostrando la siguiente versión del teorema espectral.

Teorema. Sea V un espacio euclideano y T:VV una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Demostración. Como V es espacio Euclideano, entonces tiene cierta dimensión finita n. Haremos inducción fuerte sobre n. Si n=1, el polinomio característico de T es de grado 1 y con coeficientes reales, así que tiene una raíz λ real. Si v es un eigenvector de T para λ, entonces vv también es eigenvector de T y conforma una base ortonormal para V.

Supongamos que el resultado es cierto para todo espacio Euclideano de dimensión menor a n y tomemos V espacio Euclideano de dimensión n. Por el teorema fundamental del álgebra, el polinomio característico de T tiene por lo menos una raíz λ en C. Como T es simétrica, cualquier matriz A que represente a T también, y λ sería una raíz del polinomio característico de A. Por el resultado que vimos en la entrada anterior, λ es real.

Consideremos el kernel W de la transformación λidT. Si W es de dimensión n, entonces W=V, y por lo tanto T(v)=λv para todo vector v en V, es decir, todo vector no cero de V es eigenvector de T. De esta forma, cualquier base ortonormal de V satisface la conclusión. De esta forma, podemos suponer que WV y que por lo tanto 1dimWn1, y como V=WW, se obtiene que 1dimWn1. Sea B una base ortonormal de W, que por lo tanto está formada por eigenvectores de T con eigenvalor λ.

Como la restricción T1 de T a W es una transformación simétrica, podemos aplicar la hipótesis inductiva y encontrar una base ortonormal B de eigenvectores de T1 (y por lo tanto de T) para W.

Usando de nuevo que V=WW, tenemos que BB es una base de V formada por eigenvectores de T.

El producto interior de dos elementos distintos de B, o de dos elementos distintos de B es cero, pues individualmente son bases ortonormales. El producto de un elemento de B y uno de B es cero pues un elemento está en W y el otro en W. Además, todos los elementos de BB tiene norma 1, pues vienen de bases ortogonales. Esto muestra que BB es una base ortonormal de V que consiste de eigenvectores de T.

◻

Demostración de la segunda versión del teorema espectral

Veamos ahora la demostración del teorema espectral en su enunciado con matrices.

Teorema. Sea A una matriz simétrica en Mn(R). Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en Mn(R), tales que A=P1DP.

Demostración. Como A es una matriz simétrica, la transformación T:FnFn dada por T(X)=AX es simétrica. Aplicando la primer versión del teorema espectral, existe una base ortonormal de Fn que consiste de eigenvectores de T. Digamos que estos eigenvectores son C1,,Cn. Por definición de T, estos eigenvectores de T son exactamente eigenvectores de A.

Anteriormente demostramos que si construimos a una matriz B usando a C1,,Cn como columnas y tomamos la matriz diagonal D cuyas entradas son los eigenvalores correspondientes λ1,,λn, entonces A=BDB1.

Afirmamos que la matriz B es ortogonal. En efecto, la fila j de la matriz tB es precisamente Cj. De esta forma, la entrada (i,j) del producto tBB es precisamente el producto punto de Ci con Cj. Como la familia C1,,Cn es ortonormal, tenemos que dicho producto punto es uno si i=j y cero en otro caso. De aquí, se concluye que tBB=In.

Si una matriz es ortogonal, entonces su inversa también. Esto es sencillo de demostrar y queda como tarea moral. Así, definiendo P=B1, tenemos la igualdad A=P1DP, con D diagonal y P ortogonal, justo como lo afirma el teorema.

◻

Matrices positivas y positivas definidas

Una matriz A simétrica en Mn(R) induce una forma bilineal simétrica en Rn mediante la asignación (x,y)txAy, con forma cuadrática correspondiente xtxAx.

Definición. Una matriz A en Mn(R) es positiva o positiva definida si su forma bilineal asociada es positiva o positiva definida respectivamente.

Una de las aplicaciones del teorema espectral es que nos permite dar una clasificación de las matrices simétricas positivas.

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B2 para alguna matriz simétrica B en Mn(R).
  4. A=tCC para alguna matriz C en Mn(R).

Demostración. (1) implica (2). Supongamos que A es positiva y tomemos λ un eigenvalor de A. Tomemos v un eigenvector de eigenvalor λ. Tenemos que:
λv2=λtvv=tv(λv)=tvAv0.

Como v20, debemos tener λ0.

(2) implica (3). Como A es matriz simétrica, por el teorema espectral tiene una diagonalización A=P1DP con P una matriz invertible y D una matriz diagonal cuyas entradas son los eigenvalores λ1,,λn de A. Como los eigenvalores son no negativos, podemos considerar la matriz diagonal E cuyas entradas son los reales λ1,,λn. Notemos que E2=D, así que si definimos a la matriz B=P1EP, tenemos que B2=P1E2P=P1DP=A.

Además, B es simétrica pues como E es diagonal y P es ortogonal, tenemos que
tB=tPtEt(P1)=P1EP=B.

(3) implica (4). Es inmediato, tomando C=B y usando que B es simétrica.

(4) implica (1). Si A=tCC y tomamos un vector v en Rn, tenemos que

tvAv=tvtCCv=t(Cv)(Cv)=Cv20,

lo cual muestra que A es positiva.

◻

También hay una versión de este teorema para matrices simétricas positivas definidas. Enunciarlo y demostrarlo queda como tarea moral.

En una entrada final, se verá otra consecuencia linda del teorema espectral: el teorema de descomposición polar. Dice que cualquier matriz con entradas reales se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Más allá del teorema espectral

Durante el curso introdujimos varias de las nociones fundamentales de álgebra lineal. Con ellas logramos llegar a uno de los teoremas más bellos: el teorema espectral. Sin embargo, la teoría de álgebra lineal no termina aquí. Si en tu formación matemática profundizas en el área, verás otros temas y resultados fundamentales como los siguientes:

  • El teorema de Cayley-Hamiltón: toda matriz se anula en su polinomio característico.
  • La clasificación de matrices diagonalizables: una matriz es diagonalizable si y sólo si su polinomio característico se factoriza en el campo de la matriz, y la multiplicidad algebraica de sus eigenvalores corresponde con la multiplicidad geométrica.
  • El teorema de la forma canónica de Jordan: aunque una matriz no se pueda diagonalizar, siempre puede ser llevada a una forma estándar «bonita».
  • Productos interiores con imágenes en C, a los que también se les conoce como formas hermitianas.
  • Los polinomios mínimos de matrices y transformaciones, que comparten varias propiedades con el polinomio característico, pero dan información un poco más detallada.

Más adelante…

En esta entrada discutimos dos demostraciones del teorema espectral. Sólo nos falta discutir cómo podemos aplicarlo. En la siguiente entrada trabajaremos con algunos problemas, por ejemplo, ver cómo se usa para demostrar que una matriz simétrica no es diagonalizable.

Finalmente, discutiremos cómo podemos pensar en las nociones de continuidad y acotamiento en el álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que la inversa de una matriz ortogonal es ortogonal.
  • Encuentra una base ortonormal de R3 conformada por eigenvectores de la matriz (10070307010).
  • Determina si la matriz anterior es positiva y/o positiva definida.
  • Enuncia y demuestra un teorema de clasificación de matrices simétricas positivas definidas.
  • Muestra que la matriz (51711077718) es positiva.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»