Archivo de la etiqueta: subespacios estables

Álgebra Lineal I: Matrices simétricas reales y sus eigenvalores

Por Leonardo Ignacio Martínez Sandoval

Introducción

Hemos llegado a la cima del curso. En estas últimas entradas probaremos uno de los teoremas más bellos en álgebra lineal: el teorema espectral para matrices simétricas reales. También hablaremos de varias de las consecuencias que tiene.

Hay dos formas equivalentes de enunciar el teorema.

Teorema. Sea V un espacio euclideano y T:VV una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Teorema. Sea A una matriz simétrica en Rn. Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en Rn, tales que A=P1DP.

Para hablar de la demostración y de las consecuencias del teorema espectral para matrices simétricas reales, necesitaremos usar teoría de todas las unidades del curso. En particular, usaremos las siguientes definiciones:

  • Una matriz A en Mn(F) es simétrica si es igual a su transpuesta.
  • Una matriz A en Mn(F) es ortogonal si es invertible y A1=tA.
  • Si T:VV es una transformación lineal de un espacio vectorial V a sí mismo y W es un subespacio de V, entonces decimos que W es estable bajo T si T(W)W.
  • Un producto interior es una forma bilineal simétrica y positiva definida.
  • Un espacio Euclideano es un espacio vectorial de dimensión finita con un producto interior.
  • Si W es un subespacio de un espacio Euclideano V, entonces W es el conjunto de todos los vectores que de V que son ortogonales a todos los vectores de W.
  • Una matriz A en Mn(F) es diagonalizable si existen matrices P y D en Mn(F) con P invertible, D diagonal y tales que A=P1DP.

Y los siguientes resultados principales:

En esta entrada enunciaremos tres resultados auxiliares de interés propio. A partir de estos resultados, la demostración del teorema espectral para matrices simétricas reales y la equivalencia entre ambas versiones será mucho más limpia.

Los eigenvalores de matrices simétricas reales

El polinomio característico de una matriz A en Mn(R) tiene coeficientes reales. Por el teorema fundamental del álgebra, debe tener exactamente n raíces en C, contando multiplicidades. Si alguna de estas raíces r no es real, entonces A no puede ser diagonalizable en Mn(R). La razón es que A sería similar a una matriz diagonal D, y los eigenvalores de las matrices diagonales (incluso triangulares) son las entradas de la diagonal principal. Como A y D comparten eigenvalores (por ser similares), entonces r tendría que ser una entrada de D, pero entonces D ya no sería una matriz de entradas reales.

Lo primero que veremos es que las matrices simétricas reales «superan esta dificultad para poder diagonalizarse». Esta va a ser nuestra primer herramienta para demostrar el teorema espectral.

Teorema. Sea A una matriz simétrica en Mn(R) y λ una raíz del polinomio característico de A. Entonces, λ es un número real.

Demostración. El polinomio característico de A es un polinomio con coeficientes reales, así que por el teorema fundamental del álgebra se tiene que λ debe ser un número en C. Así, podemos escribirlo de la forma λ=a+ib, con a y b números reales. Lo que mostraremos es que b=0.

Se tiene que λ es un eigenvalor de A vista como matriz en Mn(C), y por lo tanto le corresponde un eigenvector U en Cn, es decir, un U0 tal que AU=λU. Este vector U lo podemos separar en partes reales e imaginarias con vectores V y W en Rn tales que U=V+iW.

En estos términos,
AU=A(V+iW)=AV+iAWyλU=(a+ib)(V+iW)=(aVbW)+i(aW+bV),

de modo que igualando partes reales e imaginarias en la expresión AU=λU tenemos que
AV=aVbWyAW=aW+bV.

Como A es simétrica, tenemos que

(1)AV,W=tAV,W=V,AW.

Estudiemos las expresiones en los extremos, reemplazando los valores de AV y AW que encontramos arriba y usando la bilinealidad del producto interior. Se tiene que

AV,W=aVbW,W=aV,WbW,W=aV,WbW2,

y que

V,AW=V,aW+bV=aV,W+bV,V=aV,W+bV2.

Substituyendo estos valores en la expresión (1), obtenemos la igualdad

aV,WbW2=aV,W+bV2,

que se simplifica a b(V2+W2)=0.

Estamos listos para dar el argumento final. Como U=V+iW es un eigenvector, entonces no es nulo, de modo que no es posible que V y W sean ambos el vector 0 de Rn. Como el producto interior es positivo definido, entonces alguna de las normas V o W no es cero, de modo que V2+W20.

Concluimos que b=0, y por lo tanto que λ es un número real.

◻

La demostración anterior es ejemplo de un truco que se usa mucho en las matemáticas. Aunque un problema o un teorema no hablen de los números complejos en su enunciado, se puede introducir a C para usar sus propiedades y trabajar ahí. Luego, se regresa lo obtenido al contexto real. Aquí en el blog hay otra entrada en donde damos más ejemplos de «brincar a los complejos».

Un resultado auxiliar de transformaciones simétricas

A continuación damos la segunda herramienta que necesitaremos para probar el teorema espectral. Recuerda que si V es un espacio Euclideano y T:VV es una transformación lineal, entonces decimos que T es simétrica si para todo par de vectores u y v en V se tiene que T(u),v=u,T(v). Enunciamos el resultado en términos de transformaciones, pero también es válido para las matrices simétricas asociadas.

Teorema. Sea V un espacio Eucideano y T:VV una transformación lineal simétrica. Sea W un subespacio de V estable bajo T. Entonces:

  • W también es estable bajo T y
  • Las restricciones de T a W y a W son transformaciones lineales simétricas en esos espacios.

Demostración. Para el primer punto, lo que tenemos que mostrar es que si w pertenece a W, entonces T(w) también, es decir, que T(w) es ortogonal a todo vector v en W.

Tomemos entonces un vector v en W. Como W es estable bajo T, tenemos que T(v) está en W, de modo que w,T(v)=0. Como T es simétrica, tenemos entonces que T(w),v=w,T(v)=0. Esto es lo que queríamos probar.

Para la segunda parte, si T1 es la restricción de T1 a W y tomamos vectores u y v en W, tenemos que
T1(u),v=T(u),v=u,T(v)=u,T1(v),

lo cual muestra que T1 es simétrica. La prueba para W es análoga y queda como tarea moral.

◻

Matrices diagonalizables y bases ortonormales de eigenvectores

El tercer y último resultado enuncia una equivalencia entre que una matriz en Mn(F) sea diagonalizable, y que exista una base especial para Fn. Es lo que usaremos para probar la equivalencia entre ambas formulaciones del teorema espectral para matrices simétricas reales.

Teorema. Sea A una matriz en Mn(F). Las siguientes dos afirmaciones son equivalentes:

  • A es diagonalizable, es decir, existen matrices P y D en Mn(F), con P invertible y D diagonal tales que A=P1DP.
  • Existe una base para Fn que consiste de eigenvectores de A.

Demostración. Antes de comenzar la demostración, recordemos que si tenemos una matriz B en Mn(F) de vectores columna C1,,Cn, entonces los vectores columna del producto AB son AC1,ACn. Además, si D es una matriz diagonal en Mn(F) con entradas en la diagonal d1,,dn, entonces los vectores columna de BD son d1C1,,dnCn.

Comencemos la prueba del teorema. Supongamos que A es diagonalizable y tomemos matrices P y D en Mn(F) con P invertible y D diagonal de entradas d1,,dn, tales que A=P1DP. Afirmamos que los vectores columna C1,,Cn de P1 forman una base de Fn que consiste de eigenvectores de A.

Por un lado, como son los vectores columna de una matriz invertible, entonces son linealmente independientes. En total son n, como la dimensión de Fn. Esto prueba que son una base.

De A=P1DP obtenemos la igualdad AP1=P1D. Por las observaciones al inicio de la prueba, tenemos al igualar columnas que para cada j=1,,n se cumple ACj=djCj. Como Cj forma parte de un conjunto linealmente independiente, no es el vector 0. Así, Cj es un eigenvector de A con eigenvalor dj. Con esto terminamos una de las implicaciones.

Supongamos ahora que existe una base de Fn que consiste de eigenvectores C1,,Cn de A. Para cada j=1,,n, llamemos λj al eigenvalor correspondiente a Cj, y llamemos D a la matriz diagonal con entradas λ1,,λn.

Como C1,,Cn son vectores linealmente independientes, la matriz B cuyas columnas son C1,,Cn es invertible. Además, por las observaciones al inicio de la prueba, se tiene que la columna j de la matrizAB es ACj y la columna j de la matriz BD es λjCj. Entonces, por construcción, estas matrices son iguales columna a columna, y por lo tanto lo son iguales. De esta forma, tenemos que AB=BD, o bien, reescribiendo esta igualdad, que A=BDB1. Así, la matriz invertible P=B1 y la matriz diagonal D diagonalizan a A.

◻

Las matrices simétricas reales serán todavía más especiales que simplemente las matrices diagonalizables. Lo que asegura el teorema espectral es que podremos encontrar no sólo una base de eigenvectores, sino que además podemos garantizar que esta base sea ortonormal. En términos de diagonalización, la matriz P no sólo será invertible, sino que además será ortogonal.

Más adelante…

En esta entrada enunciamos dos formas del teorema espectral y hablamos de algunas consecuencias que tiene. Además, repasamos un poco de la teoría que hemos visto a lo largo del curso y vimos cómo nos ayuda a entender mejor este teorema.

En la siguiente entrada, que es la última del curso, demostraremos las dos formas del teorema espectral que enunciamos en esta entrada y haremos un pequeño comentario sobre qué hay más allá del teorema espectral en el álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Encuentra un ejemplo de una matriz simétrica en Mn(C) cuyos eigenvalores no sean reales.
  • En el contexto del segundo teorema, muestra que la restricción de T a W es simétrica.
  • Realiza la demostración de que si A y B son matrices en Mn(F) y los vectores columna de B son C1,,Cn, entonces los vectores columna de AB son AC1,,ACn. También, prueba que si D es diagonal de entradas d1,,dn, entonces las columnas de BD son d1C1,,dnCn.
  • Encuentra una matriz A con entradas reales similar a la matriz (100050003), tal que ninguna de sus entradas sea igual a 0. Encuentra una base ortogonal de eigenvectores de A para R3.
  • Diagonaliza la matriz (2000020019730765724767207487237).

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Proyecciones, simetrías y subespacios estables

Por Blanca Radillo

Introducción

Anteriormente introdujimos el concepto de transformaciones lineales entre dos espacios vectoriales. Vimos diversas propiedades que toda transformación lineal debe satisfacer. Finalmente, se presentaron las definiciones de kernel e imagen. Lo que haremos ahora es hablar de algunos tipos especiales de transformaciones lineales: las proyecciones y las simetrías. Para ello, aprovecharemos lo que ya estudiamos de suma y suma directas de subespacios.

Además, hablaremos del concepto de subespacios estables. Intuitivamente, un subespacio es estable para una transformación lineal si al aplicarla en elementos del subespacio, «no nos salimos del subespacio».

Proyecciones

Hablemos de una clase fundamental de transformaciones lineales: las proyecciones sobre subespacios. Para ellas, se comienza expresando a un espacio vectorial como una suma directa V=W1W2. Recuerda que, a grandes rasgos, esto quiere decir que cada vector v de V se puede expresar de manera única como v=w1+w2, donde w1 está en W1 y w2 está en W2.

Definición. Sea V un espacio vectorial y sean W1 y W2 dos subespacios de V tales que V=W1W2. La proyección sobre W1 es la función π1:VW1 definido como: para cada vV, se tiene que π1(v) es el único vector en W1 tal que vπ1(v) está en W2.

De manera similar podemos definir la proyección sobre W2, llamada π2:VW2.

Hay otra forma de decir esto. Dado que V=W1W2, para todo vV existen únicos vectores v1W1 y v2W2 tales que v=v1+v2. Entonces π1(v)=v1 y π2(v)=v2.

Ejemplo. Sea V=R2, y sean W1={(a,0):aR} y W2={(0,b):bR}. Sabemos que W1 y W2 son subespacios y que V=W1W2. Entonces, si (a,b)V, se tiene que π1((a,b))=(a,0) y π2((a,b))=(0,b).

Cuando hablamos de una proyección π de un espacio vectorial V, sin indicar el subespacio, de manera implícita nos referimos a una función para la cual existe una descomposición V=W1W2 tal que π es la proyección sobre W1.

Problema. Muestra que la transformación lineal π:M2(R)M2(R) tal que π(abcd)=(a+b0c0) es una proyección.

Solución. Para resolver el problema, tenemos que mostrar que se puede escribir M2(R)=W1W2, de modo que π sea una proyección sobre W1.

Proponemos W1={(r0s0):r,s,R} y W2 como W2={(rr0s):r,s,R}.

Si una matriz está simultánteamente en W1 y W2, es sencillo mostrar que únicamente puede ser la matriz cero, es decir O2. Esto lo puedes verificar por tu cuenta. Además, cualquier matriz en M2(R) se puede escribir como suma de elementos en W1 y W2 como sigue: (abcd)=(a+b0c0)+(bb0d).

Justo π es la primer matriz. Esto muestra que π es una proyección, pues es la proyección sobre W1 en la descomposición V=W1W2.

◻

Aún no hemos mostrado que las proyecciones son transformaciones lineales. Hacemos esto a continuación.

Proposición. Sean V un espacio vectorial, W1 un subespacio vectorial de V y π:VW1 una proyección de V sobre W1. Entonces π es una transformación lineal.

Demostración. Si v,vV entonces v+vV y por definición de proyección tenemos que π(v+v) es el único vector en W1 tal que:

(v+v)π(v+v)W2, por otra parte como π(v) es el únco vector en W1 tal que vπ(v)W2 y π(v) es el único vector en W1 tal que vπ(v)W2 entonces vπ(v)+vπ(v)W2 ya que W2 es subespacio de V, es decir que (v+v)(π(v)+π(v))W2 y debido a que π(v)+π(v)W1, entonces tenemos la situación en la que existe un vector π(v)+π(v)W1 tal que (v+v)(π(v)+π(v))W2, pero π(v+v) es el único vector en W1 tal que (v+v)π(v+v)W2, esto implica que π(v+v)=π(v)+π(v). Así concluimos que π abre sumas.

Para comprobar que π saca escalares consideremos cualquier vV y cualquier cF, tenemos que cvV (pues V es espacio vectorial), por definición de proyección tenemos que π(cv) es el único vector en W1 tal que cvπ(cv)W2, por otra parte π(v) es el único vector de W1 tal que vπ(v)W2 entonces c(vπ(v))=cvcπ(v)W2. Como cπ(v)W1 tal que cvcπ(v)W2 entonces π(cv)=cπ(v) debido a la unicidad de π(cv), por lo que π saca escalares. Como π abre sumas y saca escalares concluimos que π es una transformación lineal.

◻

Finalmente, notemos que π(v)=v para todo vW1 pero π(v)=0 si vW2.

Simetrías

Una segunda clase importante de trasnformaciones lineales son las simetrías.

Definición. Sea una descomposición V=W1W2, con W1,W2 dos subespacios de V. Decimos que s:VV es una simetría con respecto a W1 a lo largo de W2 si para todo vV, escrito como v=v1+v2 con v1W1 y v2W2, tenemos que s(v)=v1v2.

Al igual que con las proyecciones, no es dificil ver que las simetrías son transformaciones lineales.

Proposición. Sea s:VV una simetría con respecto a W1 a lo largo de W2. Entonces, s es una transformación lineal.

Demostración. Sean v,vV. Sean v1,v1W1 y v2,v2W2 tales que v=v1+v2 y v=v1+v2. Eso implica que v+v=(v1+v1)+(v2+v2) con v1+v1W1 y v2+v2W2. Entonces
s(v)+s(v)=(v1v2)+(v1v2)=(v1+v1)(v2+v2)=s(v+v).
Ahora sea aF, entonces as(v)=a(v1v2)=av1av2=s(av1+av2)=s(av). Por lo tanto, s es una transformación lineal.

◻

Notemos que si vW1, entonces s(v)=v0=v, y si vW2, entonces s(v)=0v=v.

Subespacios estables

Observemos que las proyecciones y las simetrías satisfacen que π(W1)=W1 y s(W1)=W1. Esta es una propiedad muy linda, pero en general, si T:VV es una transformación lineal cualquiera y W un subespacio de V, no siempre tenemos que T(W)=W, o ni siquiera que T(W)W. Es decir, aunque tomemos un vector w en W, puede pasar que T(w) ya «esté fuera» de W.

Los subespacios W que sí satisfacen esta última propiedad son cruciales en el estudio de este curso, y por ello, merecen un nombre especial.

Definición. Sea V un espacio vectorial y T:VV una transformación lineal. Si W es un subespacio de V tal que T(W)W, decimos que W es un subespacio estable bajo T.

En otras palabras, W es estable bajo T si para todo v en W se tiene que T(v) también está en W. Un ejemplo trivial es la transformación identidad con cualquier subespacio W. Otro ejemplo trivial es que V y {0} son dos subespacios estables bajo cualquier transformación lineal T:VV. Otros ejemplos son los ya mencionados: las proyecciones y las simetrías.

En el siguiente ejemplo encontraremos todos los subespacios estables para una cierta transformación.

Ejemplo. Consideremos el mapeo T:R2R2 con T(x,y)=(y,x). Claramente T es lineal. Sea W un subespacio estable de R2 bajo T. Supongamos que W no es ni R2, ni el subespacio trivial {(0,0)}.

Veremos que no hay ningún otro subespacio estable. Procedamos por contradicción. Suponiendo que hay otro subespacio estable W, su dimensión tendría que ser exactamente 1. Eso implica que W está generado por un vector no cero, digamos v=(x,y). Es decir, cada wW lo podemos escribir como w=av donde a es un escalar. En particular vW.

Como W es estable bajo T, entonces T(v)W, esto es T(v)=cv para algún c. Así,
(y,x)=T((x,y))=T(v)=cv=c(x,y)=(cx,cy). Igualando ambos extremos, obtenemos quey=cx y x=cy, lo cual implica que (c2+1)x=0. Como c es real, esto implica x=0 y por lo tanto y=0. Concluimos que v=(0,0), lo cual es una contradicción.

Esto demuestra que los únicos subespacios estables bajo T son R2 y {(0,0)}.

◻

El siguiente problema estudia un problema inverso. En ella se encuentran todas las transformaciones lineales que dejan fijas «todas las rectas por el vector 0».

Problema. Sea V un espacio vectorial y T:VV una transformación lineal tal que, para todo vV, se tiene que span(v) es un subespacio estable bajo T. Entonces existe un escalar cF tal que T(x)=cx para todo xV.

Demostración. Sea xV un vector distinto de 0. Si L=span(x), tenemos que T(L)L por hipótesis. En particular T(x)L y por lo tanto existe cx tal que T(x)=cxx. Queremos probar que esa constante realmente no depende de x.

Sea yV. Hay dos opciones: x,y son linealmente independientes o no. Supongamos primero que x,y son linealmente independientes. Entonces x+y0 y la igualdad T(x+y)=T(x)+T(y) puede ser escrita como cx+y(x+y)=cxx+cyy, esto es equivalente a (cx+ycx)x+(cx+ycy)y=0. Por independencia lineal, cx+ycx=cx+ycy=0 y por lo tanto. cx=cx+y=cy.

Ahora si x,y no son linealmente independientes, es porque y=0 (en cuyo caso cualquier cy funciona, en particular cx) o bien porque y=ax para algún escalar a no cero. Entonces la igualdad T(y)=T(ax)=aT(x) puede ser escrita como cyy=acxx=cxy, y esto implica que cy=cx.

En cualquier caso, hemos mostrado que para todo yV, se tiene que cx=cy. Definiendo c=cx, se satisface la afirmación de la proposición.

◻

Las imágenes y kernels son estables

Otros ejemplos importantes de subespacios estables son las imágenes y los kernels. Esto únicamente funciona para cuando tenemos una transformación lineal de un espacio vectorial a sí mismo.

Proposición. Sea T:VV una transformación lineal. Entonces ker(T) e Im(T) son subespacios estables bajo T.

Demostración. En la entrada anterior ya vimos que ker(T) e Im(T) son subespacios de V. Veamos que son estables bajo T.

Tomemos vker(T). Tenemos que mostrar que T(v)ker(T). Pero esto es cierto pues T(T(v))=T(0)=0. Así T(ker(T))ker(T) y por lo tanto ker(T) es estable bajo T.

Ahora tomemos vIm(T). De manera inmediata, T(v)Im(T). Así, Im(T) es estable bajo T.

◻

Más adelante…

Las proyecciones y simetrías son dos ejemplos de transformaciones lineales que tienen propiedades específicas. Más adelante, cuando hablemos de geometría de espacios vectoriales y del proceso de Gram-Schmidt, veremos que las proyecciones satisfacen propiedades interesantes en términos de ciertas distancias.

La teoría de subespacios estables es muy útil a la hora de construir bases de subespacios vectoriales de manera inductiva. De hecho, los resultados en esta dirección son uno de los ingredientes que usaremos en la demostración del teorema estelar del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea Y es el subespacio Y={(0,r,0):rR} de R3. Argumenta por qué la transformación π:R3Y dada por π(x,y,z)=(0,y,0) es una proyección sobre Y. Para ello tendrás que encontrar un subespacio W de R3 tal que R3=YW y con el cual π(x,y,z) satisface la definición.
  • Sea X el subespacio X={(r,0,0):rR}. ¿Es posible ver a la transformación T:R3X dada por T(x,y,z)=(x+y+z,0,0) como una proyección sobre X? Si tu respuesta es sí, tendrás que dar un espacio W bajo el cual se satisfaga la definición. Si tu respuesta es no, tendrás que mostrar que ningún subespacio W funciona.
  • En el ejemplo de la sección de subespacios estables, ¿qué sucede si trabajamos en C2 en vez de en R2? ¿Quienes serían todos los subespacios estables?
  • Sea B={v1,v2,,vn} una base para un espacio vectorial V sobre un campo F. Sea Vi el espacio vectorial generado por vi, es decir, el conjunto de vectores de la forma cvi con cF. Como B es base, cada vector vV puede escribirse de la forma a1v1+a2v2++anvn de manera única. Muestra que para toda i{1,2,,n} la función πi(v)=aivi es una proyección sobre Vi.
  • Para cada entero n, muestra que Rn[x] es un subespacio de R[x] que es estable bajo la transformación lineal T que manda a cada polinomio p(x) a su derivada T(p(x))=p(x).

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»