Archivo de la etiqueta: bases ortogonales

Álgebra Lineal II: Espacios hermitianos y bases ortogonales complejas

Por Diego Ligani Rodríguez Trejo

En la entrada anterior nos dedicamos a revisar una serie de resultados relacionados con bases ortogonales, ortonormales y el proceso de Gram-Schmidt, como ya habrás notado la forma de operar de este curso indica que terminemos revisando estos conceptos aplicados a espacios vectoriales complejos, veremos rápidamente las demostraciones que sean idénticas al caso real para enfocarnos un poco más a las que tengan cambios importantes.

Como es de esperarse de la entrada final, juntaremos la gran parte de los conceptos vistos en esta unidad y los resultados vistos en las últimas dos entradas, pero ahora enfocándonos en espacios hermitianos, de los que daremos también su definición.

Bases ortonormales complejas

Definición

Sea V un espacio vectorial complejo, diremos que V es un espacio hermitiano si V es de dimensión finita y con un producto interno hermitiano ,, es decir, una forma sesquilineal hermitiana ,:V×VC tal que x,x>0 para cualquier vector x no cero.

Con esto diremos que dos vectores son ortogonales en V si x,y=0-

Las definiciones de familia y base ortogonal/ortonormal son análogas al caso real.

En adelante consideremos a V un espacio hermitiano.

Ejemplo

Si V=Cn su base canónica {e1,,en} es una base ortonormal y {2e1,,2en} es una base ortogonal. Además, con el producto interno canónico
x,y=i=1nxiyi
V es un espacio hermitiano.

Como en la entrada anterior, nuestra primera proposición será:

Proposición

Sea V, cualquier familia ortogonal (vi)iIV de vectores no cero es linealmente independiente.

Demostración

Sean {v1,,vn} y {α1,,αn} tal que
0=v=i=1nαnvn
Tomando j tal que 1jn, calculando v,vj tenemos que esto es 0 ya que v=0 además utilizando la linealidad conjugada en la primera entrada
tenemos que
0=v,vj=i=1nαivi,vj
Notemos que por la ortogonalidad vi,vj=0 excepto cuando i=j, utilizando esto
0=v,vj=αjvj,vj
Además, sabemos que vj,vj>0 por como definimos el producto interno, en particular esto implica que vj,vj0 por lo que
αj=0
Lo que implica a su vez que αj=0, repitiendo este proceso para cada αi obtendremos la independencia lineal.

◻

Más aún, si n=dim(V) y tenemos β una familia ortonormal de n vectores no nulos contenida en V esta es linealmente independiente, lo que a su vez implica que es una base de V, incluso más, como β ya era ortonormal tenemos que β es una base ortonormal.

Un par de detalles que es importante notar, este resultado no nos asegura la existencia de una base ortonormal en algún espacio, simplemente nos brinda un camino para encontrarla (encontrar un conjunto de vectores ortonormales con dim(V) elementos).

Proposición

Sea V, β={u1,,un} una base ortonormal y x=i=1nuixi, y=i=1nuiyi dos vectores en V, prueba que
x,y=i=1nxiyi.
Demostración
Calculemos directamente x,y,
x,y=i=1nxiui,y
Utilizando que , es lineal conjugada en la primera entrada
x,y=i=1nxiui,y
Haciendo un proceso análogo en la segunda entrada
x,y=i,j=1nxiyjui,uj
Ahora, utilizando la ortogonalidad, el producto ui,uj será cero excepto cuando i=j por lo que
x,y=i=1nxiyiui,ui
Finalmente, utilizando la normalidad, tenemos que ui,ui=||ui||2=1 por lo tanto
x,y=i=1nxiyi.

◻

Este último resultado es una motivación más para encontrar bases ortonormales, así enfoquémonos en esa búsqueda, siguiendo el camino del caso real, demos un análogo al teorema de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sean v1,v2,,vd vectores linealmente independientes en V un espacio vectorial complejo (no necesariamente de dimensión finita), con producto interior ,. Existe una única familia de vectores ortonormales e1,e2,,ed en V tales que para todo k=1,2,,d
span(e1,e2,,ek)=span(v1,v2,,vk).
La demostración detallada la puedes encontrar aquí (Proceso de Gram-Schmidt) por lo que no la revisaremos, algo que si vale la pena observar es que el teorema tiene dos diferencias con la versión anterior.

Primero, nuestra versión está escrita para un espacio vectorial complejo, pero para nuestra suerte la demostración anterior no requiere ninguna propiedad de los números reales que no posean los complejos, también una gran diferencia es que nuestra versión puede parecer un tanto más débil al remover que ek,vk>0 para cualquier k{1,,d}, esto sucede debido a que no podemos traspasar el mismo orden que teníamos en los reales al conjunto de los complejos que recordemos es el contradominio de ,.

Mencionando esto vale la pena preguntar, ¿Por qué cuando se definió espacio hermitiano hablamos de orden entonces? ¿Podrías dar una versión de este teorema únicamente para espacios hermitianos donde aún tengamos que ek,vk>0 para cualquier k{1,,d}?

Concluyamos esta sección con uno de los resultados más importantes y que curiosamente será nada más que un corolario.

Proposición

Todo espacio hermitiano tiene una base ortonormal.

Bases ortonormales y ortogonalidad

Empecemos revisando que si tomamos un conjunto ortonormal podemos obtener una base ortonormal a partir de este.

Proposición

Sea β una familia ortonormal del V esta puede ser completada a una base ortonormal de V.

Demostración

Ya que β es una familia ortonormal, en particular es ortogonal, esto nos asegura por la primer proposición de esta entrada que es linealmente independiente, sabemos que span(β)V (si fueran iguales entonces β ya sería una base ortonormal por lo que no sería necesario completarla) de esta manera sabemos que existe xV tal que xVspan(β) a su vez esto sucede si y solo si β1={x}β es linealmente independiente.

Nuevamente, si Vβ1= tenemos entonces que β1 ya es una base, finalmente el proceso de Gram-Schmidt nos arroja una base ortonormal β1y eligiendo a x como el último vector a ortonormalizar nos asegura que el proceso no afectará a los vectores de β ya que estos ya eran ortonormales desde el principio, con esto β1 es la completación que buscábamos.

Si en cambio tenemos que existe yVβ1 ortonormalicemos como arriba y repitamos el proceso, nombrando β2={y}β1.

Notemos que este proceso es finito, ya que lo tendremos que repetir a lo más dim(V)|β| veces, ya que al hacerlo terminaríamos encontrando un conjunto ortonormal con dim(V) vectores, lo que sabemos que es una base de V.

De esta manera, repitiendo este proceso la cantidad necesaria de veces, tenemos que βk es la completación buscada (con k=dim(V)|β|).

◻

Cabe observar que, con un par de argumentos extra (como garantizar la existencia de algún conjunto ortonormal), esta proposición sirve para probar el corolario previo.

Finalicemos con un resultado acerca de ortogonalidad.

Proposición

Sea W un subespacio de V y {w1,,wk} una base ortonormal de este entonces
WW=V.
Demostración

Comencemos tomando a {w1,,wk} que sabemos es un conjunto ortonormal, por la proposición anterior tenemos que este puede ser completado a una base ortonormal de V sea esta {w1,,wk,wn} y dada esta tenemos que para cualquier vV
v=i=1nviwi.
Por otro lado, definamos la siguiente función P:VV como sigue
P(v)=j=1kv,wjwj
Primero probemos que P(v)W para todo vV, para esto fijemos a j y veamos que pasa con v,wjwj. Por lo discutido en el párrafo anterior sabemos que v=i=1nviwi así
v,wjwj=i=1nviwi,wjwj
Utilizando la linealidad en la primer entrada tenemos que
v,wjwj=i=1nviwi,wjwj
Más aún recordar que {w1,,wk,wn} es ortonormal nos arroja que wi,wj=0 si ij y wi,wj=1 en caso contrario, por lo que
v,wjwj=vjwj
Con esto, sustituyendo en P(v)
P(v)=j=1kvjwj
Que notemos es una combinación lineal de {w1,,wk} por lo que es un elemento de W-

Continuando un poco aparte, veamos que sucede con wj,vP(v) para cualquier wj{w1,,wk} y cualquier vV
wj,vP(v)=wj,vwj,P(v)
Utilizando lo hecho arriba, tenemos que
wj,vP(v)=wj,i=1nwiviwj,j=1kwjvj
De nuevo utilizando la ortonormalidad en ambos productos concluimos que
wj,vP(v)=vjvj=0.
Por lo que vP(v) es ortogonal a cada wj{w1,,wk} lo que a su vez nos arroja que vP(v)W ya que al ser ortogonal a toto wj{w1,,wk}, entonces vP(v) es ortogonal a todo elemento de W.
Finalmente, tenemos que para cualquier vV
v=P(v)+(vP(v))
Con P(v)W y vP(v)W de donde se sigue que
V=W+W.
Más aún en entradas anteriores hemos mostrado que WW={0}.

Por lo tanto
V=WW.

◻

Más adelante

Finalmente con esta entrada concluimos la segunda unidad de nuestro curso, podemos ver que el análisis de formas bilineales y cuadráticas y sus análogos complejos, formas sesquilineales y hermitianas dio paso a una gran cantidad de teoría bastante interesante y en particular da origen a un tema sumamente importante que es el producto interno y esto a su vez nos permitió generalizar propiedades que ya teníamos esta vez a espacios vectoriales complejos.

Sin embargo, algo en lo que no abundamos fue el comportamiento de matrices adjuntas ( transpuestas conjugadas ) ni en el comportamiento de sus matrices asociadas, de esto nos encargaremos en la siguiente entrada, que a su vez es el inicio de la siguiente unidad en este curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Con la notación de la segunda proposición, demuestra que
    ||x||2=i=1n|xi|2.
  2. Por que al definir espacio hermitiano mencionamos x,x>0 si aunque x,xC.
  3. Escribe con todo detalle la prueba del teorema de Gram-Schmidt y el algoritmo para espacios vectoriales complejos.
  4. Sea C3 un espacio vectorial sobre C con el producto interno canónico, prueba que es un espacio hermitiano y aplica el proceso de Gram-Schmidt al conjunto {(i,0,1),(1,i,1),(0,1,i+1)}.
  5. En otra literatura podrías encontrar forma sesquilineal definida de manera que la primera entrada es lineal y la segunda debe ser lineal conjugada, ¿Esto afecta los resultados obtenidos en esta unidad? ¿Podrías desarrollar la misma teoría utilizando esta definición alterna?

Entradas relacionadas

Álgebra Lineal II: Aplicaciones de bases ortogonales en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

Cerraremos la tercera unidad con dos entradas relacionadas con tener bases ortogonales y cómo encontrar estas bases. En realidad estos temas ya se vieron en el primer curso de Álgebra Lineal, así que estas entradas más bien estarán escritas como recordatorios de esa teoría.

Las entradas correspondientes en el primer curso de Álgebra Lineal son las siguientes: Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt.

Familias ortogonales y ortonormales

En esta entrada V es un espacio vectorial real con producto interior , y norma asociada .

Definición. Una familia de vectores (vi)iIV es ortogonal si
para cualesquiera i,j en I se tiene que vi,vj=0. Aquí I es un conjunto de índices cualquiera.

Definición. Diremos que una (vi)iI es ortonormal si es ortogonal y además cada vector tiene norma 1.

Definición. Una base ortogonal (resp. base ortonormal) es una base del espacio vectorial que además sea ortogonal (resp. ortonormal).

A partir de una familia de vectores (vi)iI cualquiera podemos obtener una familia en donde todos los vectores tienen norma 1. Basta con reemplazar vi por $\frac{v_i}{\norm{v_i})paratodoi\in I$. Además, es fácil verificar que esto preserva el espacio generado por la familia.

Lo que no es tan sencillo, y recordaremos más adelante, es ver que a partir de cualquier familia de vectores podemos encontrar otra que sea ortogonal y que genere el mismo espacio. Esto está relacionado con el proceso de Gram-Schmidt, que repasaremos en la siguiente entrada. Por el momento, nos enfocaremos a recordar algunas de las ventajas de contar con familias o bases ortogonales/ortonormales.

Independencia lineal de familias ortogonales

La siguiente proposición está demostrada a detalle en la entrada de Bases ortogonales.

Proposición. Sea V un espacio euclideano con producto interior ,. Cualquier familia ortogonal (vi)iIV con respecto a , y sin vectores cero es linealmente independiente.

La idea de la demostración es sencilla. Si tenemos una combinación lineal iIαivi=0, entonces hacemos producto interior por cada vi. Tras esto, como la familia es ortogonal, el único elemento que queda es αivi,vi y está igualado a cero. Por ser producto interior, vi,vi0, así que αi=0.

Como consecuencia, obtenemos de manera inmediata lo siguiente.

Corolario. Sea V un espacio euclideano de dimensión n con producto interior ,. Cualquier familia ortogonal (vi)iIV con respecto a , y sin vectores cero tiene a lo más n elementos.

Esto es una consecuencia directa de que la dimensión de un espacio vectorial de dimensión finita limita la cantidad de elementos en un conjunto linealmente independiente, lo cual a su vez era consecuencia del lema de Steinitz.

Leer las coordenadas en una base ortonormal

Cuando tenemos una base ortogonal (u ortonormal), es muy sencillo saber quiénes son las coordenadas de un vector dada una base.

Proposición. Sea V un espacio euclidiano de dimensión n y β={u1,,un} una base ortogonal. Para todo v en V tenemos que

v=i=1nv,uiui,uiui=i=1nv,uiui2ui.

En otras palabras, «la coordenada correspondiente a ui se obtiene haciendo producto interior con ui y dividiendo entre el cuadrado de la norma de ui». La demostración completa la puedes encontrar en la entrada de Aplicaciones de bases ortogonales y descomposición de Fourier, pero puedes redescubrirla fácilmente. Basta escribir a v como combinación lineal de los elementos de β y aplicar producto punto por cada uno de ellos. De ahí casi todos los términos se eliminan y del que no se puede obtener la coordenada correspondiente.

Cuando la base es ortonormal, las normas de cada ui son 1 y entonces obtenemos lo siguiente.

Corolario. Sea V un espacio euclidiano de dimensión n y β={u1,,un} una base ortonormal. Para todo v en V tenemos que

v=i=1nv,uiui.

Tenemos ahora un poco más de vocabulario para decir esto mismo. La proposición anterior es equivalente a decir que:

  • La base dual de una base ortonormal u1,,un son las formas lineales ,u1,,,un.
  • Cada elemento de una base ortonormal es la representación de Riesz de su elemento respectivo en la base dual.

Esta forma de determinar las coordenadas es tan importante que a veces tiene sentido obtenerla aunque el espacio vectorial que tengamos sea de dimensión infinita.

Descomposición y series de Fourier

Dada una base u1,,un de un espacio euclideano, la expresión

v=i=1nv,uiui.

es muy importante, y se le conoce como la descomposición de Fourier de v con respecto a β. En los espacios euclideanos tenemos la igualdad entre ambos lados. Sin embargo, esta expresión también aparece en muchos otros contextos en donde no necesariamente tenemos dimensión finita, y en donde el vector v al que le buscamos su «descomposición» no necesariamente está en el espacio que queremos.

En la entrada Aplicaciones de bases ortogonales y descomposición de Fourier vemos un ejemplo de esto, en donde discutimos cómo se pueden usar los polinomios trigonométricos para aproximar una función.

Descomposición de Fourier, norma y proyecciones

Como consecuencia de la expresión v=i=1nv,uiui se obtiene de manera inmediata la norma de un vector.

Proposición. Si v=i=1nv,uiui para una base ortonormal u1,,un, entonces x2=i=1nv,ui2.

También, es muy sencillo encontrar la proyección ortogonal de un vector conociendo una base ortonormal del subespacio a donde proyectamos ortogonalmente.

Proposición. Sea V un espacio euclideano y W un subespacio. Sea u1,,ur una base ortonormal de W. Entonces para todo vector vV se tiene que pW(v)=i=1rv,uiui.

Desigualdad de Bessel

Las aplicaciones de las bases ortogonales pueden extenderse bastante. Como ejemplo final, enunciamos la desigualdad de Bessel.

Proposición (desigualdad de Bessel). Sea V un espacio euclideano y u1,,ur un conjunto ortonormal de vectores. Entonces i=1rv,vi2v2 para todo v en V.

La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt. La idea clave es considerar a W el espacio generado por u1,,ur y calcular d(v,W) usando la fórmula de proyección de la sección anterior, y el resultado de distancia de la entrada anterior.

Más adelante…

En esta entrada repasamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales de un espacio vectorial V con producto interior. En la siguiente entrada recordaremos un resultado crucial: si V es de dimensión finita entonce siempre tiene una base ortonormal.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Intenta reconstruir todas las demostraciones completas de cada uno de los resultados aquí vistos. En caso de tener dificultades, revisa las demostraciones en las entradas correspondientes.
  2. Las matrices en Mn(R) tienen un producto interior dado por A,B=traza( tAB). Encuentra una base ortogonal para este producto interior. Da la descomposición de Fourier con respecto a esta base. Encuentra una base ortogonal para el subespacio de matrices simétricas. ¿Qué diría la desigualdad de Bessen en este caso?
  3. Encuentra en términos del producto punto de Rn cómo es la matriz de cambio de base de una base ortogonal β de Rn a otra base ortogonal β.
  4. Sea V=R2[x] el espacio de polinomios reales de grado a lo más 2. Definimos la función ,:V×VR como sigue: p,q=p(1)q(1)+p(0)q(0)+p(1)q(1). Demuestra que , así definida es un producto interior. Encuentra una base ortonormal para este producto interior.
  5. En espacios hermitianos también tiene sentido definir conjuntos de vectores (o bases) ortogonales y ortonormales. Demuestra los análogos a todos los resultados de esta entrada para el caso complejo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Por Blanca Radillo

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en Mn(R) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en Mn(F) también lo sean.

Problema 1. Demuestra que la matriz simétrica con coeficientes complejos

A=(1ii1)

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P1DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos λC tal que det(λIA)=0,

det(λIA)=|λ1iiλ+1|=(λ1)(λ+1)i2=λ21+1=λ2=0.

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es λ=0. Si D es de la forma

D=(a00b),

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P1DP=0, contradiciendo la definición de A.

◻

Problema 2. Sea A una matriz simétrica con entradas reales y supongamos que Ak=I para algún entero positivo k. Prueba que A2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser ±1. Esto implica que todos los eigenvalores de A2 son iguales a 1. Dado que A2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A2=I.

◻

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

T=supxV0T(x)x.

Por ende, decimos que una transformación es acotada si su norma es acotada, T<.

Problema 1. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean λ1,,λn los eigenvalores de T. Prueba que

supxV0T(x)x=max1in|λi|.

Solución. Renumerando a los eigenvalores, podemos decir que maxi|λi|=|λn|. Sea e1,,en una base ortonormal de V tal que T(ei)=λiei para todo i. Si xV0, podemos escribirlo como x=x1e1++xnen para algunos reales xi. Entonces, por linealidad de T,

T(x)=i=1nλixiei.

Dado que |λi||λn| para toda i, tenemos que

T(x)x=i=1nλi2xi2i=1nxi2|λn|,

por lo tanto

max1in|λi|=|λn|=T(en)ensupxV0T(x)x|λn|=max1in|λi|.

Obteniendo lo que queremos.

◻

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema 2. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=17(263632326).

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

0=det(λIA)=|λ+2/76/73/76/7λ3/72/73/72/7λ6/7|=λ3λ2λ+1=(λ1)(λ21),

entonces los eigenvalores de A son 1,1, (λ=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=λv, para todo eigenvalor λ.

Si λ=1,

(λIA)v=17(56361023213)v=0,

reduciendo, obtenemos que v=(3α,2α,α) para todo αR.

Si λ=1, resolviendo de la misma manera (λIA)v=(IA)v=0, tenemos que v=(β,γ,3β+2γ) para todo β,γ. Entonces el conjunto de eigenvectores es

B={v1=(3,2,1),v2=(1,0,3),v3=(0,1,2)}.

Es fácil ver que el conjunto B es linealmente independiente, más aún dim(R3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt

Por Blanca Radillo

Introducción

Durante las últimas clases hemos visto problemas y teoremas que nos demuestran que las bases ortogonales son extremadamente útiles en la práctica, ya que podemos calcular fácilmente varias propiedades una vez que tengamos a nuestra disposición una base ortogonal del espacio que nos interesa. Veamos más problemas de bases ortogonales y otros resultados que nos permitirán reforzar estas ideas.

Problemas resueltos de bases ortogonales y proyecciones

Para continuar con este tema, veremos que las bases ortogonales nos permiten encontrar de manera sencilla la proyección de un vector sobre un subespacio. Primero, recordemos que si V=WW2, para todo vV podemos definir su proyección en W, que denotamos πW(v), como el único elemento en W tal que vπW(v)W2.

Debido a las discusiones sobre bases ortogonales, no es difícil ver que si w,u=0 para todo wW, entonces uW2. Como consecuencia de esto, tenemos el siguiente resultado:

Teorema. Sea V un espacio vectorial sobre R con producto interior ,, y sea W un subespacio de V de dimensión finita. Sea v1,,vn una base ortogonal de W. Entonces para todo vV tenemos que

πW(v)=i=1nv,vivi2vi.

Demostración. Escribimos v como v=πW(v)+u con uW2. Por la observación previa al teorema, u,vi=0 para todo i. Además existen a1,,an tales que πW(v)=a1v1++anvn. Entonces

0=u,vi=v,viπW(v),vi=v,vij=1najvj,vi=v,viaivi,vi,

porque v1,,vn es una base ortogonal. Por lo tanto, para todo i, obtenemos

ai=v,vivi2.

◻

Distancia de un vector a un subespacio y desigualdad de Bessel

En la clase de ayer, vimos la definición de distancia entre dos vectores. También se puede definir la distancia entre un vector y un subconjunto como la distancia entre el vector y el vector «más cercano» del subconjunto, en símbolos:

d(v,W)=minxWxv.

Dado que xW, xπW(v)W, y por definición de proyección vπW(v)W2, entonces

xv2=(xπW(v))+(πW(v)v)2=xπW(v)2+2xπW(v),πW(v)v+πW(v)v2=xπW(v)2+πW(v)v2πW(v)v2.

Y dado que la proyección pertenece a W, la desigualdad anterior muestra que la proyección es precisamente el vector en W con el que v alcanza la distancia a W. En conclusión, d(v,W)=πW(v)v.

Teorema. Sea V un espacio vectorial sobre R con producto interior ,, y sea W un subespacio de V de dimensión finita. Sea v1,,vn una base ortonormal de W. Entonces para todo vV tenemos que

πW(v)=i=1nv,vivi,

y

d(v,W)2=vi=1nv,vivi2=v2i=1nv,vi2.

En particular

i=1nv,vi2v2.

A esta última desigualdad se le conoce como desigualdad de Bessel.

Demostración. Por el teorema anterior y dado que v1,,vn es una base ortonormal, obtenemos la primera ecuación. Ahora, por Pitágoras,

d(v,W)2=vπW(v)2=v2πW(v)2.

Por otro lado, tenemos que

πW(v)2=i=1nv,vivi2=i,j=1nv,vivi,v,vjvj=i,j=1nv,viv,vjvi,vj=i=1nv,vi2.

Por lo tanto, se cumple la igualdad de la distancia. Finalmente como d(v,W)20, inmediatamente tenemos la desigualdad de Bessel.

◻

Veamos ahora dos problemas más en los que usamos la teoría de bases ortonormales.

Aplicación del proceso de Gram-Schmidt

Primero, veremos un ejemplo más del uso del proceso de Gram-Schmidt.

Problema. Consideremos V como el espacio vectorial de polinomios en [0,1] de grado a lo más 2, con producto interior definido por p,q=01xp(x)q(x)dx.

Aplica el algoritmo de Gram-Schmidt a los vectores 1,x,x2.

Solución. Es fácil ver que ese sí es un producto interior en V (tarea moral). Nombremos v1=1,v2=x,v3=x2. Entonces

e1=v1v1=2v1=2,

ya que v12=01xdx=12.

Sea z2=v2v2,e1e1. Calculando, v2,e1=012x2dx=23. Entonces z2=x232=x23. Esto implica que

e2=z2z2=6(x23)=6x4.

Finalmente, sea z3=v3v3,e1e1v3,e2e2. Haciendo los cálculos obtenemos que

z3=x2(24)2(15)(6x4)

z3=x265x+310.

Por lo tanto

e3=z3z3=106(x265x+310).

El teorema de Plancherel y una fórmula con π

Finalmente, en este ejemplo, usaremos técnicas de la descomposición de Fourier para solucionar un problema bonito de series.

Problema. Consideremos la función 2πperiódica f:RR definida como f(0)=f(π)=0, f(x)=1xπ en el intervalo (π,0), y f(x)=1xπ en el intervalo (0,π).

Problemas de bases ortogonales: Aplicando el teorema de Plancherel para una fórmula que involucra a pi.
Gráfica de la función f.

Usa el teorema de Plancherel para deducir las identidades de Euler

n=11n2=π26,n=01(2n+1)2=π28.

Solución. Notemos que no sólo es 2πperiódica, también es una función impar, es decir, f(x)=f(x). Por lo visto en la clase del miércoles pasado tenemos que calcular

a0(f)=1πππf(x)dx,

ak(f)=1πππf(x)cos(kx)dx,

bk(f)=1πππf(x)sen(kx)dx.

Para no hacer más larga esta entrada, la obtención de los coeficientes de Fourier se los dejaremos como un buen ejercicio de cálculo. Para hacer las integrales hay que separar la integral en cada uno de los intervalos [π,0] y [0,π] y en cada uno de ellos usar integración por partes.

El resultado es que para todo k1, a0=0,ak=0,bk=2kπ.

Entonces por el teorema de Plancherel,

k=14k2π2=1πππf2(x)dx=1π(π0(1+xπ)2dx+0π(1xπ)2dx)=23,

teniendo que k=11k2=23π24=π26.

Ahora para obtener la otra identidad de Euler, notemos que

n=01(2n+1)2=n=11n2n=11(2n)2=π26π246=π28.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»