Archivo de la etiqueta: números complejos

Álgebra Lineal II: Espacios hermitianos y bases ortogonales complejas

Por Diego Ligani Rodríguez Trejo

En la entrada anterior nos dedicamos a revisar una serie de resultados relacionados con bases ortogonales, ortonormales y el proceso de Gram-Schmidt, como ya habrás notado la forma de operar de este curso indica que terminemos revisando estos conceptos aplicados a espacios vectoriales complejos, veremos rápidamente las demostraciones que sean idénticas al caso real para enfocarnos un poco más a las que tengan cambios importantes.

Como es de esperarse de la entrada final, juntaremos la gran parte de los conceptos vistos en esta unidad y los resultados vistos en las últimas dos entradas, pero ahora enfocándonos en espacios hermitianos, de los que daremos también su definición.

Bases ortonormales complejas

Definición

Sea V un espacio vectorial complejo, diremos que V es un espacio hermitiano si V es de dimensión finita y con un producto interno hermitiano ,, es decir, una forma sesquilineal hermitiana ,:V×VC tal que x,x>0 para cualquier vector x no cero.

Con esto diremos que dos vectores son ortogonales en V si x,y=0-

Las definiciones de familia y base ortogonal/ortonormal son análogas al caso real.

En adelante consideremos a V un espacio hermitiano.

Ejemplo

Si V=Cn su base canónica {e1,,en} es una base ortonormal y {2e1,,2en} es una base ortogonal. Además, con el producto interno canónico
x,y=i=1nxiyi
V es un espacio hermitiano.

Como en la entrada anterior, nuestra primera proposición será:

Proposición

Sea V, cualquier familia ortogonal (vi)iIV de vectores no cero es linealmente independiente.

Demostración

Sean {v1,,vn} y {α1,,αn} tal que
0=v=i=1nαnvn
Tomando j tal que 1jn, calculando v,vj tenemos que esto es 0 ya que v=0 además utilizando la linealidad conjugada en la primera entrada
tenemos que
0=v,vj=i=1nαivi,vj
Notemos que por la ortogonalidad vi,vj=0 excepto cuando i=j, utilizando esto
0=v,vj=αjvj,vj
Además, sabemos que vj,vj>0 por como definimos el producto interno, en particular esto implica que vj,vj0 por lo que
αj=0
Lo que implica a su vez que αj=0, repitiendo este proceso para cada αi obtendremos la independencia lineal.

◻

Más aún, si n=dim(V) y tenemos β una familia ortonormal de n vectores no nulos contenida en V esta es linealmente independiente, lo que a su vez implica que es una base de V, incluso más, como β ya era ortonormal tenemos que β es una base ortonormal.

Un par de detalles que es importante notar, este resultado no nos asegura la existencia de una base ortonormal en algún espacio, simplemente nos brinda un camino para encontrarla (encontrar un conjunto de vectores ortonormales con dim(V) elementos).

Proposición

Sea V, β={u1,,un} una base ortonormal y x=i=1nuixi, y=i=1nuiyi dos vectores en V, prueba que
x,y=i=1nxiyi.
Demostración
Calculemos directamente x,y,
x,y=i=1nxiui,y
Utilizando que , es lineal conjugada en la primera entrada
x,y=i=1nxiui,y
Haciendo un proceso análogo en la segunda entrada
x,y=i,j=1nxiyjui,uj
Ahora, utilizando la ortogonalidad, el producto ui,uj será cero excepto cuando i=j por lo que
x,y=i=1nxiyiui,ui
Finalmente, utilizando la normalidad, tenemos que ui,ui=||ui||2=1 por lo tanto
x,y=i=1nxiyi.

◻

Este último resultado es una motivación más para encontrar bases ortonormales, así enfoquémonos en esa búsqueda, siguiendo el camino del caso real, demos un análogo al teorema de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sean v1,v2,,vd vectores linealmente independientes en V un espacio vectorial complejo (no necesariamente de dimensión finita), con producto interior ,. Existe una única familia de vectores ortonormales e1,e2,,ed en V tales que para todo k=1,2,,d
span(e1,e2,,ek)=span(v1,v2,,vk).
La demostración detallada la puedes encontrar aquí (Proceso de Gram-Schmidt) por lo que no la revisaremos, algo que si vale la pena observar es que el teorema tiene dos diferencias con la versión anterior.

Primero, nuestra versión está escrita para un espacio vectorial complejo, pero para nuestra suerte la demostración anterior no requiere ninguna propiedad de los números reales que no posean los complejos, también una gran diferencia es que nuestra versión puede parecer un tanto más débil al remover que ek,vk>0 para cualquier k{1,,d}, esto sucede debido a que no podemos traspasar el mismo orden que teníamos en los reales al conjunto de los complejos que recordemos es el contradominio de ,.

Mencionando esto vale la pena preguntar, ¿Por qué cuando se definió espacio hermitiano hablamos de orden entonces? ¿Podrías dar una versión de este teorema únicamente para espacios hermitianos donde aún tengamos que ek,vk>0 para cualquier k{1,,d}?

Concluyamos esta sección con uno de los resultados más importantes y que curiosamente será nada más que un corolario.

Proposición

Todo espacio hermitiano tiene una base ortonormal.

Bases ortonormales y ortogonalidad

Empecemos revisando que si tomamos un conjunto ortonormal podemos obtener una base ortonormal a partir de este.

Proposición

Sea β una familia ortonormal del V esta puede ser completada a una base ortonormal de V.

Demostración

Ya que β es una familia ortonormal, en particular es ortogonal, esto nos asegura por la primer proposición de esta entrada que es linealmente independiente, sabemos que span(β)V (si fueran iguales entonces β ya sería una base ortonormal por lo que no sería necesario completarla) de esta manera sabemos que existe xV tal que xVspan(β) a su vez esto sucede si y solo si β1={x}β es linealmente independiente.

Nuevamente, si Vβ1= tenemos entonces que β1 ya es una base, finalmente el proceso de Gram-Schmidt nos arroja una base ortonormal β1y eligiendo a x como el último vector a ortonormalizar nos asegura que el proceso no afectará a los vectores de β ya que estos ya eran ortonormales desde el principio, con esto β1 es la completación que buscábamos.

Si en cambio tenemos que existe yVβ1 ortonormalicemos como arriba y repitamos el proceso, nombrando β2={y}β1.

Notemos que este proceso es finito, ya que lo tendremos que repetir a lo más dim(V)|β| veces, ya que al hacerlo terminaríamos encontrando un conjunto ortonormal con dim(V) vectores, lo que sabemos que es una base de V.

De esta manera, repitiendo este proceso la cantidad necesaria de veces, tenemos que βk es la completación buscada (con k=dim(V)|β|).

◻

Cabe observar que, con un par de argumentos extra (como garantizar la existencia de algún conjunto ortonormal), esta proposición sirve para probar el corolario previo.

Finalicemos con un resultado acerca de ortogonalidad.

Proposición

Sea W un subespacio de V y {w1,,wk} una base ortonormal de este entonces
WW=V.
Demostración

Comencemos tomando a {w1,,wk} que sabemos es un conjunto ortonormal, por la proposición anterior tenemos que este puede ser completado a una base ortonormal de V sea esta {w1,,wk,wn} y dada esta tenemos que para cualquier vV
v=i=1nviwi.
Por otro lado, definamos la siguiente función P:VV como sigue
P(v)=j=1kv,wjwj
Primero probemos que P(v)W para todo vV, para esto fijemos a j y veamos que pasa con v,wjwj. Por lo discutido en el párrafo anterior sabemos que v=i=1nviwi así
v,wjwj=i=1nviwi,wjwj
Utilizando la linealidad en la primer entrada tenemos que
v,wjwj=i=1nviwi,wjwj
Más aún recordar que {w1,,wk,wn} es ortonormal nos arroja que wi,wj=0 si ij y wi,wj=1 en caso contrario, por lo que
v,wjwj=vjwj
Con esto, sustituyendo en P(v)
P(v)=j=1kvjwj
Que notemos es una combinación lineal de {w1,,wk} por lo que es un elemento de W-

Continuando un poco aparte, veamos que sucede con wj,vP(v) para cualquier wj{w1,,wk} y cualquier vV
wj,vP(v)=wj,vwj,P(v)
Utilizando lo hecho arriba, tenemos que
wj,vP(v)=wj,i=1nwiviwj,j=1kwjvj
De nuevo utilizando la ortonormalidad en ambos productos concluimos que
wj,vP(v)=vjvj=0.
Por lo que vP(v) es ortogonal a cada wj{w1,,wk} lo que a su vez nos arroja que vP(v)W ya que al ser ortogonal a toto wj{w1,,wk}, entonces vP(v) es ortogonal a todo elemento de W.
Finalmente, tenemos que para cualquier vV
v=P(v)+(vP(v))
Con P(v)W y vP(v)W de donde se sigue que
V=W+W.
Más aún en entradas anteriores hemos mostrado que WW={0}.

Por lo tanto
V=WW.

◻

Más adelante

Finalmente con esta entrada concluimos la segunda unidad de nuestro curso, podemos ver que el análisis de formas bilineales y cuadráticas y sus análogos complejos, formas sesquilineales y hermitianas dio paso a una gran cantidad de teoría bastante interesante y en particular da origen a un tema sumamente importante que es el producto interno y esto a su vez nos permitió generalizar propiedades que ya teníamos esta vez a espacios vectoriales complejos.

Sin embargo, algo en lo que no abundamos fue el comportamiento de matrices adjuntas ( transpuestas conjugadas ) ni en el comportamiento de sus matrices asociadas, de esto nos encargaremos en la siguiente entrada, que a su vez es el inicio de la siguiente unidad en este curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Con la notación de la segunda proposición, demuestra que
    ||x||2=i=1n|xi|2.
  2. Por que al definir espacio hermitiano mencionamos x,x>0 si aunque x,xC.
  3. Escribe con todo detalle la prueba del teorema de Gram-Schmidt y el algoritmo para espacios vectoriales complejos.
  4. Sea C3 un espacio vectorial sobre C con el producto interno canónico, prueba que es un espacio hermitiano y aplica el proceso de Gram-Schmidt al conjunto {(i,0,1),(1,i,1),(0,1,i+1)}.
  5. En otra literatura podrías encontrar forma sesquilineal definida de manera que la primera entrada es lineal y la segunda debe ser lineal conjugada, ¿Esto afecta los resultados obtenidos en esta unidad? ¿Podrías desarrollar la misma teoría utilizando esta definición alterna?

Entradas relacionadas

Álgebra Lineal II: Matrices de formas sesquilineales

Por Diego Ligani Rodríguez Trejo

Introducción

En la entrada anterior dimos una relación entre matrices y formas bilineales. Como hemos hecho anteriormente, extenderemos este conocimiento para el caso de espacios vectoriales complejos. En esta entrada daremos una relación entre formas sesquilineales, formas cuadráticas hermitianas y matrices. Daremos la definición y veremos sus propiedades.

Gran parte de la relación que había para el caso real se mantiene al pasar a los complejos. Las demostraciones en la mayoría de los casos son análogas, así que la mayoría de ellas quedarán como tarea moral. Sin embargo, haremos énfasis en las partes que hacen que el caso real y el complejo sean distintos. Te recomendamos tener a la mano las entradas sobre formas bilineales y matrices y formas sesquilineales.

Matriz asociada a una forma sesquilineal y una forma cuadrática hermitiana

A partir de aquí, en esta entrada, asumiremos que V es un espacio vectorial sobre C de dimensión finita. Recordemos que S(V) se definió como el espacio de formas sesquilineales de V.

Definición. Sea u1,,un una base de V y φ:V×VC una forma sesquilineal de V. La matriz de φ con respecto a la base u1,,un es la matriz
A=[aij]conaij=φ(ui,uj),
para todo i,j tal que 1i,jn.

Veamos primero como escribir φ(x,y) en su forma matricial. Así como en el caso real, también podemos definir la matriz de una forma cuadrática usando su forma polar.

Definición. Sea u1,,un una base de V y q una forma cuadrática hermitiana de V, la matriz de q con respecto a la base u1,,un es la matriz de su forma polar en esa misma base.

Hasta ahora todo es muy parecido al caso real.

Evaluar la forma sesquilineal con su matriz

Como en el caso real, podemos la matriz de una forma sesquilineal para evaluarla. Sin embargo, hay que ser cuidadosos pues por la sesquilinealidad debemos conjugar el vector de coordenadas de la primer entrada de la forma sesquilineal.

Proposición. Sea φ una forma sesquilineal de V y B una base de V. Sea A la matriz de φ en la base B. Sean X y Y los vectores de coordenadas de vectores x y y de V en la base B, respectivamente. Entonces: φ(x,y)=XAY.

Aquí X es la matriz transpuesta conjugada, es decir, la que se obtiene al conjugar todas las entradas de tX. La demostración es análoga al caso real, cuidando en que en la primer entrada de una forma sesquilineal los escalares salen conjugados. Por ello, queda como ejercicio.

Tenemos dos consecuencias importantes de la proposición anterior:

  • La matriz A que hace φ(x,y)=XAY para cualesquiera x,y, es única.
  • Se tiene que φ es hermitiana si y sólo si su matriz A cumple A=A.

En el caso real no vimos las demostraciones de las afirmaciones análogas, así que ahora sí veremos las demostraciones de estas.

Proposición. Con la notación de arriba, A es la unica matriz que cumple
φ(x,y)=XAY.

Demostración. Supongamos que tenemos otra matriz A=[aij] tal que φ(x,y)=XAY. Tomando elementos ui y uj de la base B, obtenemos que el vector de coordenadas Ui (resp. Uj) de ui (resp. uj) es el vector con 1 en la entrada i (resp. j) y cero en las demás. De este modo:

aij=UiAUj=b(ui,uj)=aij.

Esto muestra que las matrices A y A son iguales entrada a entrada, de modo que A es única.

◻

Proposición. Con la notación de arriba, φ es hermitiana si y sólo si A=A.

Demostración. Supongamos primero que φ es hermitiana. En particular, para ui y uj elementos de la base obtenemos que φ(ui,uj)=φ(uj,ui). En términos de las entradas de la matriz A obtenemos entonces que:

aij=φ(ui,uj)=φ(uj,ui)=aji.

Esto nos dice que A=A.

Ahora, suponiendo que A=A se tiene directamente que φ(ui,uj)=φ(uj,ui) para cualquier par de elementos ui y uj de la base. De este modo, la forma sesquilineal es hermitiana en parejas de elementos de la base. Si tenemos ahora cualesquiera dos vectores x y y en V, basta con escribirlos en términos de la base x=i=1nxiui, y=j=1nyjuj y usar la proposición de la entrada de formas sesquilineales para obtener

φ(x,y)=i=1nj=1nxiyjφ(ui,uj)=i=1nj=1nxiyjφ(uj,ui)=φ(y,x),

tal y como queríamos.

◻

Esta última equivalencia da pie a definir una matriz hermitiana.

Definición. Sea AMn(C). Diremos que A es conjugada simétrica o hermitiana si A=A.

Cambios de base

En el caso real, dos matrices que representan a una misma matriz difieren en un producto dado por una matriz de cambio de base y su transpuesta. En el caso complejo sucede algo parecido, pero debemos usar una matriz de cambio de base y su transpuesta conjugada.

Proposición. Supongamos que una forma sesquilineal φ tiene asociada una matriz A con respecto a una base B y una matriz A con respecto a otra base B . Sea P la matriz de cambio de base de B a B . Entonces

A=PAP.

La demostración es análoga al caso real, cuidando la conjugación de los escalares que salen de la primera entrada de una forma sesquilineal.

Más adelante…

Hasta ahora ya hemos hablado de formas bilineales, sesquilineales y sus formas matriciales. También platicamos de algunos conceptos que surgen de estas ideas, como las formas cuadráticas y las cuadráticas hermitianas. La importancia de estos conceptos es que nos permiten hacer geometría en espacios vectoriales reales o complejos.

En la siguiente entrada explicaremos esto más a detalle. Un poco más adelante veremos cómo en espacios «con geometría» podemos definir conceptos de dualidad y ortogonalidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Considera la matriz (1+i051+2i). ¿Con cuál forma sesquilineal de C2 está asociada bajo la base canónica? y ¿Con qué forma sesquilineal de C2 está asociada bajo la base (1+i,1), (1,2+i)?
  2. Prueba la proposición que dice cómo evaluar una forma sesquilineal usando su forma matricial y los vectores coordenada de vectores en cierta base dada.
  3. Prueba la proposición de cambios de base para la forma matricial de una forma sesquilineal.
  4. Demuestra que para cualesquiera dos matrices A,BMn(C) se tiene que
    (AB)=BA.
  5. Demuestra que para cualquier matriz BMn(C) se tiene que las matrices BB y BB son hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Formas cuadráticas hermitianas

Por Diego Ligani Rodríguez Trejo

Introducción

El análogo complejo a las formas cuadráticas son las formas cuadráticas hermitianas. En esta entrada las definiremos, enfatizaremos algunas diferencias con el caso real y veremos algunas de sus propiedades.

Al final enunciaremos una versión compleja del teorema de Gauss.

Formas cuadráticas hermitianas

Definición Sea V un espacio vectorial sobre C y φ una forma sesquilineal hermitiana de V. La forma cuadrática hermitiana correspondiente a φ es la función Φ:VC tal que para cualquier x en V se tiene que

Φ(x)=φ(x,x)

Observa que aquí, de entrada, estamos pidiendo que φ sea sesquilineal. Esto entra en contraste con el caso real, en donde no nos importaba si la forma bilineal que tomábamos inicialmente era simétrica o no. Como veremos un poco más abajo, dada la forma cuadrática hermitiana Φ, hay una única forma sesquilineal hermitiana de la que viene. Por esta razón, llamaremos a la función φ la forma polar de Φ.

Problema 1. Sea V=Cn y Φ:VC definida por
Φ(x1,,xn)=|x1|2++|xn|2. Muestra que Φ es una forma cuadrática.

Solución. Recordemos que para cualquier zC se tiene |z|2=zz. Así propongamos φ como sigue:

φ(x,y):=(x1)(y1)++(xn)(yn).

Es sencillo mostrar que φ así definida es una forma sesquilineal hermitiana, y queda como ejercicio.

◻

Problema 2. Sea V el espacio de funciones continuas del intervalo [0,1] a C y Φ:VC definida por
Φ(f)=01|f(t)|2dt. Muestra que Φ es una forma cuadrática.

Solución. La solución es muy parecida. Proponemos φ como sigue:

φ(f1,f2)=01f1(t)f2(t)dt

Es sencillo mostrar que φ(f,f)=Φ(f) y que φ es forma sesquilineal hermitiana. Ambas cosas quedan como ejercicio.

◻

Propiedades básicas de formas cuadráticas hermitianas

Veamos algunas propiedades de las formas cuadráticas hermitianas.

Proposición. Sea V un espacio vectorial sobre C, φ una forma sesquilinear hermitiana y Φ(x) su forma cuadrática asociada.

  1. Para todo xV, se tiene que Φ(x)=φ(x,x) siempre es un número real.
  2. Para todo xV y aC se tiene que Φ(ax)=|a|Φ(x).
  3. Para cualesquiera x,y en V se tiene que Φ(x+y)=Φ(x)+Φ(y)+2Re(φ(x,y)).

Demostración. Los incisos 1) y 2) son consecuencia inmediata de los ejercicios de la entrada anterior. Para el inciso 3) usamos que la suma de un número con su conjugado es el doble de su parte real para obtener la siguiente cadena de igualdades:

Φ(x+y)=φ(x+y,x+y)=φ(x,x)+φ(y,y)+φ(x,y)+φ(y,x)=φ(x,x)+φ(y,y)+φ(x,y)+φ(x,y)=Φ(x)+Φ(y)+2Re(φ(x,y)).

◻

Identidad de polarización compleja

Para demostrar que una función es una forma cuadrática hermitiana, usualmente necesitamos a una función que sea la candidata a ser la forma sesquilineal hermitiana que la induzca. Es decir, necesitamos un método para proponer la forma polar. Podemos hacer esto mediante la identidad de polarización compleja.

Proposición (Identidad de polarización). Sea Φ:VC una forma cuadrática hermitiana. Existe una única forma sesquilineal hermitiana φ:V×VC tal que Φ(x)=φ(x,x) para todo xV.

Más aún, ésta se puede encontrar de la siguiente manera:

φ(x,y)=14k=04ikΦ(y+ikx)

Aquí i es el complejo tal que i2=1. Esta suma tiene cuatro sumandos, correspondientes a las cuatro potencias de i: 1,i,1,i.

Demostración. Por definición, como Φ es una forma cuadrática hermitiana, existe s:V×VC una forma sesquilineal hermitiana tal que Φ(x)=s(x,x). Veamos que la fórmula propuesta en el enunciado coincide con s. La definición en el enunciado es la siguiente:

φ(x,y)=14k=04ikΦ(y+ikx)

Como Φ(x)=s(x,x) podemos calcular φ como sigue
φ(x,y)=14k=04iks(y+ikx,y+ikx)

Desarrollando los sumandos correspondientes a k=0 y k=2, y simplificando, se obtiene

2s(y,x)+2s(x,y).

Del mismo modo, los sumandos para k=1 y k=3 quedan como

2s(x,y)2s(y,x)

Sustituyendo esto en la definición original de φ tenemos que

φ(x,y)=2s(y,x)+2s(x,y)+2s(x,y)2s(y,x)4=s(x,y).

De esta igualdad podemos concluir que φ=s, por lo que 1) φ es forma sesquilineal hermitiana y 2) la forma cuadrática hermitiana de φ es Φ. Esta forma debe ser única pues si hubiera otra forma sesquilineal hermitiana tal que s(x,x)=Φ(x), los pasos anteriores darían s(x,x)=φ(x,y) nuevamente.

◻

En particular, esta identidad nos dice que formas sesquilineales hermitianas distintas van a formas cuadráticas hermitianas distintas. Es por ello que podemos llamar a la función φ dada por la fórmula en el enunciado la forma polar de Φ.

Teorema de Gauss complejo

Enunciamos a continuación la versión compleja del teorema de Gauss.

Teorema. Sea Φ una función cuadrática hermitiana Cn. Existen α1,,αr números complejos y formas lineales l1,lr linealmente independiente de Cn tales que para todo x en Cn se tiene:

Φ(x1,,xn)=i=1rαi|li(x)|2.

Observa que en la expresión de la derecha no tenemos directamente a las formas lineales, sino a las normas de éstas.

Más adelante…

Ya hablamos de formas bilineales y de formas sesquilineales. ¿Habrá una forma alternativa de representarlas? Cuando teníamos transformaciones lineales entre espacios vectoriales, podíamos representarlas por matrices. Resulta que a las formas bilineales también podemos representarlas por matrices. Veremos cómo hacer esto (y cuáles son las ventajas de hacer eso) en las siguientes dos entradas. En una veremos los resultados correspondientes a formas bilineales y en la otra los resultados correspondientes a formas sesquilineales.

Un poco más adelante aprovecharemos esta representación matricial para retomar el estudio de los productos interiores.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea V=Cn y definamos φ:V×VC como sigue:
    φ(x,y)=x1y1++xnyn,
    para cualquier par x,yV con x=(x1,xn) y y=(y1,yn). Demuestra que φ es una forma sesquilineal hermitiana.
  2. Sea V el espacio de funciones continuas del intevalo [0,1] a C y φ:V×VC definida como sigue:
    φ(f1,f2)=01f1(t)f2(t)dt,
    para cualquier par f1,f2V. Demuestra que φ es una forma sesquilineal hermitiana.
  3. Sea V un espacio vectorial sobre C y Φ una forma cuadrática hermitiana. Prueba la siguiente identidad (identidad del paralelogramo)
    Φ(x+y)+Φ(xy)=2(Φ(x)+Φ(y)). ¿Cómo se compara con la identidad del paralelogramo real?
  4. Compara la identidad de polarización real con la identidad de polarización compleja. ¿Por qué son tan distintas entre sí?
  5. Demuestra el Teorema de Gauss para formas cuadráticas hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Matrices simétricas reales y sus eigenvalores

Por Leonardo Ignacio Martínez Sandoval

Introducción

Hemos llegado a la cima del curso. En estas últimas entradas probaremos uno de los teoremas más bellos en álgebra lineal: el teorema espectral para matrices simétricas reales. También hablaremos de varias de las consecuencias que tiene.

Hay dos formas equivalentes de enunciar el teorema.

Teorema. Sea V un espacio euclideano y T:VV una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Teorema. Sea A una matriz simétrica en Rn. Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en Rn, tales que A=P1DP.

Para hablar de la demostración y de las consecuencias del teorema espectral para matrices simétricas reales, necesitaremos usar teoría de todas las unidades del curso. En particular, usaremos las siguientes definiciones:

  • Una matriz A en Mn(F) es simétrica si es igual a su transpuesta.
  • Una matriz A en Mn(F) es ortogonal si es invertible y A1=tA.
  • Si T:VV es una transformación lineal de un espacio vectorial V a sí mismo y W es un subespacio de V, entonces decimos que W es estable bajo T si T(W)W.
  • Un producto interior es una forma bilineal simétrica y positiva definida.
  • Un espacio Euclideano es un espacio vectorial de dimensión finita con un producto interior.
  • Si W es un subespacio de un espacio Euclideano V, entonces W es el conjunto de todos los vectores que de V que son ortogonales a todos los vectores de W.
  • Una matriz A en Mn(F) es diagonalizable si existen matrices P y D en Mn(F) con P invertible, D diagonal y tales que A=P1DP.

Y los siguientes resultados principales:

En esta entrada enunciaremos tres resultados auxiliares de interés propio. A partir de estos resultados, la demostración del teorema espectral para matrices simétricas reales y la equivalencia entre ambas versiones será mucho más limpia.

Los eigenvalores de matrices simétricas reales

El polinomio característico de una matriz A en Mn(R) tiene coeficientes reales. Por el teorema fundamental del álgebra, debe tener exactamente n raíces en C, contando multiplicidades. Si alguna de estas raíces r no es real, entonces A no puede ser diagonalizable en Mn(R). La razón es que A sería similar a una matriz diagonal D, y los eigenvalores de las matrices diagonales (incluso triangulares) son las entradas de la diagonal principal. Como A y D comparten eigenvalores (por ser similares), entonces r tendría que ser una entrada de D, pero entonces D ya no sería una matriz de entradas reales.

Lo primero que veremos es que las matrices simétricas reales «superan esta dificultad para poder diagonalizarse». Esta va a ser nuestra primer herramienta para demostrar el teorema espectral.

Teorema. Sea A una matriz simétrica en Mn(R) y λ una raíz del polinomio característico de A. Entonces, λ es un número real.

Demostración. El polinomio característico de A es un polinomio con coeficientes reales, así que por el teorema fundamental del álgebra se tiene que λ debe ser un número en C. Así, podemos escribirlo de la forma λ=a+ib, con a y b números reales. Lo que mostraremos es que b=0.

Se tiene que λ es un eigenvalor de A vista como matriz en Mn(C), y por lo tanto le corresponde un eigenvector U en Cn, es decir, un U0 tal que AU=λU. Este vector U lo podemos separar en partes reales e imaginarias con vectores V y W en Rn tales que U=V+iW.

En estos términos,
AU=A(V+iW)=AV+iAWyλU=(a+ib)(V+iW)=(aVbW)+i(aW+bV),

de modo que igualando partes reales e imaginarias en la expresión AU=λU tenemos que
AV=aVbWyAW=aW+bV.

Como A es simétrica, tenemos que

(1)AV,W=tAV,W=V,AW.

Estudiemos las expresiones en los extremos, reemplazando los valores de AV y AW que encontramos arriba y usando la bilinealidad del producto interior. Se tiene que

AV,W=aVbW,W=aV,WbW,W=aV,WbW2,

y que

V,AW=V,aW+bV=aV,W+bV,V=aV,W+bV2.

Substituyendo estos valores en la expresión (1), obtenemos la igualdad

aV,WbW2=aV,W+bV2,

que se simplifica a b(V2+W2)=0.

Estamos listos para dar el argumento final. Como U=V+iW es un eigenvector, entonces no es nulo, de modo que no es posible que V y W sean ambos el vector 0 de Rn. Como el producto interior es positivo definido, entonces alguna de las normas V o W no es cero, de modo que V2+W20.

Concluimos que b=0, y por lo tanto que λ es un número real.

◻

La demostración anterior es ejemplo de un truco que se usa mucho en las matemáticas. Aunque un problema o un teorema no hablen de los números complejos en su enunciado, se puede introducir a C para usar sus propiedades y trabajar ahí. Luego, se regresa lo obtenido al contexto real. Aquí en el blog hay otra entrada en donde damos más ejemplos de «brincar a los complejos».

Un resultado auxiliar de transformaciones simétricas

A continuación damos la segunda herramienta que necesitaremos para probar el teorema espectral. Recuerda que si V es un espacio Euclideano y T:VV es una transformación lineal, entonces decimos que T es simétrica si para todo par de vectores u y v en V se tiene que T(u),v=u,T(v). Enunciamos el resultado en términos de transformaciones, pero también es válido para las matrices simétricas asociadas.

Teorema. Sea V un espacio Eucideano y T:VV una transformación lineal simétrica. Sea W un subespacio de V estable bajo T. Entonces:

  • W también es estable bajo T y
  • Las restricciones de T a W y a W son transformaciones lineales simétricas en esos espacios.

Demostración. Para el primer punto, lo que tenemos que mostrar es que si w pertenece a W, entonces T(w) también, es decir, que T(w) es ortogonal a todo vector v en W.

Tomemos entonces un vector v en W. Como W es estable bajo T, tenemos que T(v) está en W, de modo que w,T(v)=0. Como T es simétrica, tenemos entonces que T(w),v=w,T(v)=0. Esto es lo que queríamos probar.

Para la segunda parte, si T1 es la restricción de T1 a W y tomamos vectores u y v en W, tenemos que
T1(u),v=T(u),v=u,T(v)=u,T1(v),

lo cual muestra que T1 es simétrica. La prueba para W es análoga y queda como tarea moral.

◻

Matrices diagonalizables y bases ortonormales de eigenvectores

El tercer y último resultado enuncia una equivalencia entre que una matriz en Mn(F) sea diagonalizable, y que exista una base especial para Fn. Es lo que usaremos para probar la equivalencia entre ambas formulaciones del teorema espectral para matrices simétricas reales.

Teorema. Sea A una matriz en Mn(F). Las siguientes dos afirmaciones son equivalentes:

  • A es diagonalizable, es decir, existen matrices P y D en Mn(F), con P invertible y D diagonal tales que A=P1DP.
  • Existe una base para Fn que consiste de eigenvectores de A.

Demostración. Antes de comenzar la demostración, recordemos que si tenemos una matriz B en Mn(F) de vectores columna C1,,Cn, entonces los vectores columna del producto AB son AC1,ACn. Además, si D es una matriz diagonal en Mn(F) con entradas en la diagonal d1,,dn, entonces los vectores columna de BD son d1C1,,dnCn.

Comencemos la prueba del teorema. Supongamos que A es diagonalizable y tomemos matrices P y D en Mn(F) con P invertible y D diagonal de entradas d1,,dn, tales que A=P1DP. Afirmamos que los vectores columna C1,,Cn de P1 forman una base de Fn que consiste de eigenvectores de A.

Por un lado, como son los vectores columna de una matriz invertible, entonces son linealmente independientes. En total son n, como la dimensión de Fn. Esto prueba que son una base.

De A=P1DP obtenemos la igualdad AP1=P1D. Por las observaciones al inicio de la prueba, tenemos al igualar columnas que para cada j=1,,n se cumple ACj=djCj. Como Cj forma parte de un conjunto linealmente independiente, no es el vector 0. Así, Cj es un eigenvector de A con eigenvalor dj. Con esto terminamos una de las implicaciones.

Supongamos ahora que existe una base de Fn que consiste de eigenvectores C1,,Cn de A. Para cada j=1,,n, llamemos λj al eigenvalor correspondiente a Cj, y llamemos D a la matriz diagonal con entradas λ1,,λn.

Como C1,,Cn son vectores linealmente independientes, la matriz B cuyas columnas son C1,,Cn es invertible. Además, por las observaciones al inicio de la prueba, se tiene que la columna j de la matrizAB es ACj y la columna j de la matriz BD es λjCj. Entonces, por construcción, estas matrices son iguales columna a columna, y por lo tanto lo son iguales. De esta forma, tenemos que AB=BD, o bien, reescribiendo esta igualdad, que A=BDB1. Así, la matriz invertible P=B1 y la matriz diagonal D diagonalizan a A.

◻

Las matrices simétricas reales serán todavía más especiales que simplemente las matrices diagonalizables. Lo que asegura el teorema espectral es que podremos encontrar no sólo una base de eigenvectores, sino que además podemos garantizar que esta base sea ortonormal. En términos de diagonalización, la matriz P no sólo será invertible, sino que además será ortogonal.

Más adelante…

En esta entrada enunciamos dos formas del teorema espectral y hablamos de algunas consecuencias que tiene. Además, repasamos un poco de la teoría que hemos visto a lo largo del curso y vimos cómo nos ayuda a entender mejor este teorema.

En la siguiente entrada, que es la última del curso, demostraremos las dos formas del teorema espectral que enunciamos en esta entrada y haremos un pequeño comentario sobre qué hay más allá del teorema espectral en el álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Encuentra un ejemplo de una matriz simétrica en Mn(C) cuyos eigenvalores no sean reales.
  • En el contexto del segundo teorema, muestra que la restricción de T a W es simétrica.
  • Realiza la demostración de que si A y B son matrices en Mn(F) y los vectores columna de B son C1,,Cn, entonces los vectores columna de AB son AC1,,ACn. También, prueba que si D es diagonal de entradas d1,,dn, entonces las columnas de BD son d1C1,,dnCn.
  • Encuentra una matriz A con entradas reales similar a la matriz (100050003), tal que ninguna de sus entradas sea igual a 0. Encuentra una base ortogonal de eigenvectores de A para R3.
  • Diagonaliza la matriz (2000020019730765724767207487237).

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Ejercicios de conjugados complejos

Por Claudia Silva

Introducción

Aquí van los vídeos de hoy, en donde vemos ejemplos resueltos de conjugación compleja. Expliqué con un poco más de detalle el ejemplo 132 del libro de Bravo, Rincón y Rincón. Resolví el ejercicio 325 completo, así como otros 3 ejercicios de conjugados complejos del libro Álgebra Superior II de Antonio Lascurain. Más adelante les pondré en foto para los que no tengan facilidad para ver los vídeos de YouTube.

Ejemplos y ejercicios de conjugados complejos del Bravo, Rincón, Rincón

Primero, resolvemos el ejemplo 132 del libro:

Problema. Calcular z si iz+(2i)z=10+6i.

Ejemplo 132 detallado

Inciso 1 del ejercicio 325:

Problema. Resuelve (1+i)z+(1i)z=4.

Inciso 1 del ejercicio 325

Inciso 2 del ejercicio 325:

Problema. Resuelve zz+3(z+z)=7

Inciso 2 del ejercicio 325

Inciso 3 del ejercicio 325. Nota importante de este ejercicio: Alrededor del 7:09 me equivoqué en un signo, el término 6d de la parte imaginaria debería ser negativo. Eso puede que cambie el resultado final, pero esa es la idea de la resolución del problema.

Problema. Resuelve el sistema iz+(1+i)=3+i(1+i)z(6+i)w=4

Ejercicios del libro de Lascurain

Los siguientes ejercicios fueron tomados del libro de Álgebra Superior II de Antonio Lascurain.

Problema. Realiza la siguiente operación de números complejos: (24i55i).

Una división con conjugados complejos

Problema. Encuentra las parejas u,v de números complejos para las cuales sucede que uvu=v.

Problema 1 de conjugación compleja

Problema. Encuentra las parejas u,v de números complejos para las cuales sucede que v+iu=v+iu.

Problema 2 de conjugación compleja

Más adelante…

Tarea moral

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»