Archivo de la etiqueta: matriz simétrica

Álgebra Lineal II: El teorema espectral real

Por Ayax Calderón

Introducción

Por lo que estudiamos en la primera parte de este curso, ya sabemos cuándo una matriz arbitraria es diagonalizable. Lo que haremos ahora es enunciar y demostrar el teorema espectral en el caso real. Una de las cosas que nos dice es que las matrices simétricas reales son diagonalizables. Pero nos dice todavía más. También nos garantiza que la manera en la que se diagonalizan es a través de una matriz ortogonal. Esto combina mucho de la teoría que hemos cubierto. Además, gracias al teorema espectral podremos, posteriormente, demostrar el famoso teorema de descomposición polar que nos dice cómo son todas las matrices.

El lema de eigenvalores de matrices simétricas

Comencemos enunciando algunas propiedades que tienen las matrices y transformaciones simétricas. El primero habla de cómo son los eigenvalores de las matrices simétricas.

Lema. Sea AMn(R) una matriz simétrica. Entonces todas las raíces del polinomio característico de A son números reales.

Demostración. Tomemos AMn(R) y sea λ. Su polinomio característico está en R[x], así que por el teorema fundamental del álgebra todas sus raíces están en C. Sea t una raíz del polinomio característico de A.

Pensemos a A como un elemento de Mn(C). Como det(tInA)=0, entonces t es eigenvalor y por lo tanto hay un eigenvector XCn no nulo tal que AX=tX. Como el vector tiene entradas complejas, lo podemos escribir como X=Y+iZ para dos vectores Y,ZRn. Así mismo, podemos escribir a t como t=a+ib con a y b números reales.

Con esta notación, de la igualdad AX=tX se sigue que

AY+iAZ=AX=(a+ib)(Y+iZ)=aYbZ+i(aZ+bY).

Igualando las partes imaginarias y las partes reales obtenemos que

(1)AY=aYbZ,AZ=aZ+bY.

Usemos ahora que A es simétrica. Tenemos que
(2)AY,Z=Y,AZ.

Sustituyendo la primera igualdad de (1) en el lado izquierdo de (2), y la segunda igualdad de (1) en el lado derecho de (2), obtenemos que:

aYbZ,Z=Y,aZ+bY,

y usando la linealidad del producto interior, se obtiene que

aY,ZbZ,Z=aY,Z+bY,Y.

Se sigue que
b(||Y||2+||Z||2)=0 y como Y o Z es distinto de cero (de lo contrario tendríamos que X=0), entonces concluimos que b=0 y con ello que t es un número real.

◻

El lema de estabilidad de transformaciones simétricas

El segundo lema que veremos nos dice qué sucede cuando una transformación lineal es simétrica y tomamos un subespacio estable bajo ella. Recuerda que un subespacio W de un espacio vectorial V es estable bajo una transformación lineal T:VV si T(W)W.

Lema. Sea V un espacio euclidiano y T:VV una transformación lineal simétrica sobre V. Sea W un subespacio de V estable bajo T. Entonces

  1. W también es estable bajo T.
  2. Las restricciones de T a W y W son transformaciones lineales simétricas sobre estos espacios.

Demostración.

1. Tomemos xW. Nos gustaría ver que T(x)W. Para ello, tomemos yW. Como W es estable bajo T, tenemos T(y)W. Como xW, tenemos que x,T(y)=0. Usando esto y la simetría de T, obtenemos entonces
T(x),y=x,T(y)=0,
que es lo que queríamos probar.

2. Sea T|W la restricción de T aW. Para x,yW tenemos que
T|W(x),y=T(x),y=x,T(y)=x,T|W(y), por lo tanto T|W es simétrica sobre W. Análogamente se ve que el resultado se cumple para W.

◻

El teorema espectral real

Con los dos lemas anteriores podemos ahora sí enfocarnos en demostrar el teorema principal de esta entrada.

Teorema (el teorema espectral real). Sea V un espacio euclidiano y T:VV una transformación lineal simétrica. Entonces existe una base ortonormal de V conformada por eigenvectores de T.

Demostración. Procederemos por inducción fuerte sobre n=dimV. Si n=1, entonces el polinomio característico de T es de grado 1 y tiene coeficientes reales, por lo que tiene una raíz real t. Si v es un eigenvector de T con eigenvalor t, entonces v||v|| también es eigenvector de T y forma una base ortonormal de V. Esto termina el caso n=1.

Ahora supongamos que el resultado se satisface hasta dimensión n1 y tomemos V de dimensión n. Sea B={e1,e2,en} una base ortonormal de V. Sea A la matriz asociada a T con respecto a B. Como T es simétrica, entonces A también lo es. Su polinomio característico no es constante, de modo que por el teorema fundamental del álgebra tiene por lo menos una raíz t, y por el primer lema de la sección anterior, se tiene que t es real y por lo tanto es un eigenvalor.

Sea W=ker(tidT) el t-eigenespacio de T. Si W=V, entonces T=tid y así B es una base ortonormal de V compuesta por eigenvectores de T. De otro modo, WV y por lo tanto k:=dimW<n. Tenemos que V=WW y sabemos que los eigenespacios son estables bajo la transformación correspondiente. Así, por el segundo lema de la sección anterior W también es estable bajo T y la restricción de T a W es simétrica.

Podemos entonces aplicar la hipótesis inductiva a T|W para encontrar una base ortonormal C={f1,f2,fnk} de W compuesta por eigenvectores de T. Escogiendo una base ortonormal D={f1,f2,,fk} de W (que automaticamente está formada por eigenvectores de T). La base CD de V es entonces la base de eigenvectores que buscábamos.

◻

El teorema espectral también puede enunciarse en términos de matrices. Hacemos esto a continuación.

Observación. Si AMn(R) es una matriz simétrica, entonces la transformación lineal T:XAX sobre Rn es simétrica. Aplicando el teorema anterior, podemos encontrar una base ortonormal de V con respecto a la cual la matriz asociada a T es diagonal. Como la base canónica de V es ortonormal, y como la matriz de cambio de pase entre dos bases ortonormlaes es ortogonal, obtenemos el siguiente resultado fundamental.

Teorema (el teorema espectral para matrices reales). Sea AMn(R) una matriz simétrica. Entonces A es diagonalizable y, más específicamente, existen una matriz ortogonal PMn(R) y una matriz diagonal DMn(R) tales que A=P1DP.

Así, A es simultáneamente, mediante una misma matriz P, tanto similar como congruente a una matriz diagonal.

Aplicación a caracterizar las matrices simétricas positivas

Ya hemos dado algunas caracterizaciones para las matrices simétricas positivas. Veamos algunas caracterizaciones adicionales.

Teorema. Sea AMn(R) una matriz simétrica. Entonces las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B2 para alguna matriz simétrica BMn(R).
  4. A=tCC para alguna matriz CMn(R).

Demostración. 1) implica 2). Supongamos que A es positiva y que t es un eigenvalor de A con eigenvector v. Como Av=tv, obtenemos que

t||v||2=tv,v=v,tv=v,Av=tvAv0,
por lo tanto t0.

2) implica 3). Sean t1,,tn todas las raíces del polinomio característico de A, escritos con su multiplicidad correspondiente. Por el primer lema de la sección anterior, todos ellos son reales, y estamos suponiendo que son no negativos. Por el teorema espectral podemos encontrar una matriz P y una diagonal D tal que A=P1DP, y por lo que vimos de teoría de diagonalización, D precisamente tiene como entradas en su diagonal a t1,t2,,tn. Sea D la matriz diagonal con entradas ci=ti y sea B=P1DP. Como P es ortogonal, B es simétrica

Y además, por construcción, B2=P1D2P=P1DP=A, como queríamos.

3) implica 4). Basta con tomar la matriz B de (3) y tomar C=B. Como B es simétrica, A=B2=tBB.

4) implica 1). Esto ya lo habíamos demostrado en un resultado anterior de caracterización de matrices simétricas.

◻

Más adelante…

Hemos enunciado y demostrado el teorema espectral. Lo que nos dice es muy interesante: una matriz simétrica básicamente consiste en cambiar de base a una base muy sencilla e1,,en (ortonormal) a traves de la matriz P. Luego, en esa base pasa algo muy simple: en la dirección de ei, simplemente alargamos de acuerdo al eigenvalor λi.

Como consecuencia, veremos en la siguiente entrada que esto nos permite entender no sólo a las matrices simétricas, sino a todas, todas las matrices. Al teorema que veremos a continuación se le conoce como el teorema de descomposición polar.

Tarea moral

  1. La matriz (sinθcosθcosθsinθ) es real y simétrica, de modo que es diagonalizable. ¿Cuál es su diagonalización?
  2. Da un ejemplo de una matriz simétrica con coeficientes complejos que no sea diagonalizable.
  3. Sea T una transformación lineal sobre un espacio euclidiano V, y supón que V tiene una base ortonormal conformada por eigenvectores de T. Demuestra que T es simétrica (por lo que el recíproco del teorema espectral se satisface).
  4. Considera la matriz A=(122212221).
    Explica por qué A es diagonalizable en Mn(R) y encuentra una matriz P tal que P1AP es diagonal.
  5. Adapta el teorema de caracterización de matrices positivas visto en esta entrada a una versión para matrices positivas definidas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Por Blanca Radillo

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en Mn(R) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en Mn(F) también lo sean.

Problema 1. Demuestra que la matriz simétrica con coeficientes complejos

A=(1ii1)

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P1DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos λC tal que det(λIA)=0,

det(λIA)=|λ1iiλ+1|=(λ1)(λ+1)i2=λ21+1=λ2=0.

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es λ=0. Si D es de la forma

D=(a00b),

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P1DP=0, contradiciendo la definición de A.

◻

Problema 2. Sea A una matriz simétrica con entradas reales y supongamos que Ak=I para algún entero positivo k. Prueba que A2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser ±1. Esto implica que todos los eigenvalores de A2 son iguales a 1. Dado que A2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A2=I.

◻

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

T=supxV0T(x)x.

Por ende, decimos que una transformación es acotada si su norma es acotada, T<.

Problema 1. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean λ1,,λn los eigenvalores de T. Prueba que

supxV0T(x)x=max1in|λi|.

Solución. Renumerando a los eigenvalores, podemos decir que maxi|λi|=|λn|. Sea e1,,en una base ortonormal de V tal que T(ei)=λiei para todo i. Si xV0, podemos escribirlo como x=x1e1++xnen para algunos reales xi. Entonces, por linealidad de T,

T(x)=i=1nλixiei.

Dado que |λi||λn| para toda i, tenemos que

T(x)x=i=1nλi2xi2i=1nxi2|λn|,

por lo tanto

max1in|λi|=|λn|=T(en)ensupxV0T(x)x|λn|=max1in|λi|.

Obteniendo lo que queremos.

◻

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema 2. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=17(263632326).

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

0=det(λIA)=|λ+2/76/73/76/7λ3/72/73/72/7λ6/7|=λ3λ2λ+1=(λ1)(λ21),

entonces los eigenvalores de A son 1,1, (λ=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=λv, para todo eigenvalor λ.

Si λ=1,

(λIA)v=17(56361023213)v=0,

reduciendo, obtenemos que v=(3α,2α,α) para todo αR.

Si λ=1, resolviendo de la misma manera (λIA)v=(IA)v=0, tenemos que v=(β,γ,3β+2γ) para todo β,γ. Entonces el conjunto de eigenvectores es

B={v1=(3,2,1),v2=(1,0,3),v3=(0,1,2)}.

Es fácil ver que el conjunto B es linealmente independiente, más aún dim(R3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»