Archivo de la etiqueta: bases ortonormales

Álgebra Lineal II: Aplicaciones de bases ortogonales en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

Cerraremos la tercera unidad con dos entradas relacionadas con tener bases ortogonales y cómo encontrar estas bases. En realidad estos temas ya se vieron en el primer curso de Álgebra Lineal, así que estas entradas más bien estarán escritas como recordatorios de esa teoría.

Las entradas correspondientes en el primer curso de Álgebra Lineal son las siguientes: Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt.

Familias ortogonales y ortonormales

En esta entrada V es un espacio vectorial real con producto interior , y norma asociada .

Definición. Una familia de vectores (vi)iIV es ortogonal si
para cualesquiera i,j en I se tiene que vi,vj=0. Aquí I es un conjunto de índices cualquiera.

Definición. Diremos que una (vi)iI es ortonormal si es ortogonal y además cada vector tiene norma 1.

Definición. Una base ortogonal (resp. base ortonormal) es una base del espacio vectorial que además sea ortogonal (resp. ortonormal).

A partir de una familia de vectores (vi)iI cualquiera podemos obtener una familia en donde todos los vectores tienen norma 1. Basta con reemplazar vi por $\frac{v_i}{\norm{v_i})paratodoi\in I$. Además, es fácil verificar que esto preserva el espacio generado por la familia.

Lo que no es tan sencillo, y recordaremos más adelante, es ver que a partir de cualquier familia de vectores podemos encontrar otra que sea ortogonal y que genere el mismo espacio. Esto está relacionado con el proceso de Gram-Schmidt, que repasaremos en la siguiente entrada. Por el momento, nos enfocaremos a recordar algunas de las ventajas de contar con familias o bases ortogonales/ortonormales.

Independencia lineal de familias ortogonales

La siguiente proposición está demostrada a detalle en la entrada de Bases ortogonales.

Proposición. Sea V un espacio euclideano con producto interior ,. Cualquier familia ortogonal (vi)iIV con respecto a , y sin vectores cero es linealmente independiente.

La idea de la demostración es sencilla. Si tenemos una combinación lineal iIαivi=0, entonces hacemos producto interior por cada vi. Tras esto, como la familia es ortogonal, el único elemento que queda es αivi,vi y está igualado a cero. Por ser producto interior, vi,vi0, así que αi=0.

Como consecuencia, obtenemos de manera inmediata lo siguiente.

Corolario. Sea V un espacio euclideano de dimensión n con producto interior ,. Cualquier familia ortogonal (vi)iIV con respecto a , y sin vectores cero tiene a lo más n elementos.

Esto es una consecuencia directa de que la dimensión de un espacio vectorial de dimensión finita limita la cantidad de elementos en un conjunto linealmente independiente, lo cual a su vez era consecuencia del lema de Steinitz.

Leer las coordenadas en una base ortonormal

Cuando tenemos una base ortogonal (u ortonormal), es muy sencillo saber quiénes son las coordenadas de un vector dada una base.

Proposición. Sea V un espacio euclidiano de dimensión n y β={u1,,un} una base ortogonal. Para todo v en V tenemos que

v=i=1nv,uiui,uiui=i=1nv,uiui2ui.

En otras palabras, «la coordenada correspondiente a ui se obtiene haciendo producto interior con ui y dividiendo entre el cuadrado de la norma de ui». La demostración completa la puedes encontrar en la entrada de Aplicaciones de bases ortogonales y descomposición de Fourier, pero puedes redescubrirla fácilmente. Basta escribir a v como combinación lineal de los elementos de β y aplicar producto punto por cada uno de ellos. De ahí casi todos los términos se eliminan y del que no se puede obtener la coordenada correspondiente.

Cuando la base es ortonormal, las normas de cada ui son 1 y entonces obtenemos lo siguiente.

Corolario. Sea V un espacio euclidiano de dimensión n y β={u1,,un} una base ortonormal. Para todo v en V tenemos que

v=i=1nv,uiui.

Tenemos ahora un poco más de vocabulario para decir esto mismo. La proposición anterior es equivalente a decir que:

  • La base dual de una base ortonormal u1,,un son las formas lineales ,u1,,,un.
  • Cada elemento de una base ortonormal es la representación de Riesz de su elemento respectivo en la base dual.

Esta forma de determinar las coordenadas es tan importante que a veces tiene sentido obtenerla aunque el espacio vectorial que tengamos sea de dimensión infinita.

Descomposición y series de Fourier

Dada una base u1,,un de un espacio euclideano, la expresión

v=i=1nv,uiui.

es muy importante, y se le conoce como la descomposición de Fourier de v con respecto a β. En los espacios euclideanos tenemos la igualdad entre ambos lados. Sin embargo, esta expresión también aparece en muchos otros contextos en donde no necesariamente tenemos dimensión finita, y en donde el vector v al que le buscamos su «descomposición» no necesariamente está en el espacio que queremos.

En la entrada Aplicaciones de bases ortogonales y descomposición de Fourier vemos un ejemplo de esto, en donde discutimos cómo se pueden usar los polinomios trigonométricos para aproximar una función.

Descomposición de Fourier, norma y proyecciones

Como consecuencia de la expresión v=i=1nv,uiui se obtiene de manera inmediata la norma de un vector.

Proposición. Si v=i=1nv,uiui para una base ortonormal u1,,un, entonces x2=i=1nv,ui2.

También, es muy sencillo encontrar la proyección ortogonal de un vector conociendo una base ortonormal del subespacio a donde proyectamos ortogonalmente.

Proposición. Sea V un espacio euclideano y W un subespacio. Sea u1,,ur una base ortonormal de W. Entonces para todo vector vV se tiene que pW(v)=i=1rv,uiui.

Desigualdad de Bessel

Las aplicaciones de las bases ortogonales pueden extenderse bastante. Como ejemplo final, enunciamos la desigualdad de Bessel.

Proposición (desigualdad de Bessel). Sea V un espacio euclideano y u1,,ur un conjunto ortonormal de vectores. Entonces i=1rv,vi2v2 para todo v en V.

La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt. La idea clave es considerar a W el espacio generado por u1,,ur y calcular d(v,W) usando la fórmula de proyección de la sección anterior, y el resultado de distancia de la entrada anterior.

Más adelante…

En esta entrada repasamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales de un espacio vectorial V con producto interior. En la siguiente entrada recordaremos un resultado crucial: si V es de dimensión finita entonce siempre tiene una base ortonormal.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Intenta reconstruir todas las demostraciones completas de cada uno de los resultados aquí vistos. En caso de tener dificultades, revisa las demostraciones en las entradas correspondientes.
  2. Las matrices en Mn(R) tienen un producto interior dado por A,B=traza( tAB). Encuentra una base ortogonal para este producto interior. Da la descomposición de Fourier con respecto a esta base. Encuentra una base ortogonal para el subespacio de matrices simétricas. ¿Qué diría la desigualdad de Bessen en este caso?
  3. Encuentra en términos del producto punto de Rn cómo es la matriz de cambio de base de una base ortogonal β de Rn a otra base ortogonal β.
  4. Sea V=R2[x] el espacio de polinomios reales de grado a lo más 2. Definimos la función ,:V×VR como sigue: p,q=p(1)q(1)+p(0)q(0)+p(1)q(1). Demuestra que , así definida es un producto interior. Encuentra una base ortonormal para este producto interior.
  5. En espacios hermitianos también tiene sentido definir conjuntos de vectores (o bases) ortogonales y ortonormales. Demuestra los análogos a todos los resultados de esta entrada para el caso complejo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Transformaciones normales, simétricas y antisimétricas

Por Ayax Calderón

Introducción

A partir de la noción de adjunción que definimos en la entrada anterior, es posible definir ciertos tipos especiales de transformaciones lineales: las transformaciones normales, las simétricas y las antisimétricas.

Primero veremos las transformaciones lineales simétricas y antisimétricas. Estos nombres quizás te recuerden a las matrices simétricas y antisimétricas. Existe una relación importante entre ambos conceptos, aunque no es tan directo enunciarla. Veremos esto con calma.

Después, hablaremos de las transformaciones normales. Este tipo de transformaciones están motivadas por la pregunta de qué sucede cuando una transformación conmuta con su adjunta. Definiremos esto de manera adecuada y demostraremos algunas propiedades que cumplen las transformaciones normales.

En esta entrada V es un espacio euclidiano. En particular, estaremos trabajando únicamente en espacios vectoriales sobre los reales. Más adelante discutiremos los análogos complejos de los resultados que veremos.

Transformaciones simétricas y antisimétricas

Comencemos con las siguientes dos definiciones.

Definición. Sea V un espacio euclideano con producto interior ,. Sea T:VV una transformación lineal. Diremos que T es:

  • Simétrica o auto-adjunta si T=T.
  • Antisimétrica o alternante si T=T.

Tal vez estos nombres te parezcan familiares. El siguiente problema nos ayudará a explicar la relación entre las transformaciones simétricas y las matrices que llevan el mismo nombre.

Problema. Sea V un espacio euclideano con producto interior ,. Sea T:VV una transformación lineal simétrica. Sea A la forma matricial de T en alguna base ortonormal de T. Demuestra que A es una matriz simétrica.

Solución. Por una proposición de la entrada anterior, por elegir una base ortonormal se tiene que la matriz correspondiente a T es tA. Pero como T es una matriz simétrica, se tiene que T=T. De este modo, tA=A, y por lo tanto A es una matriz simétrica.

◻

Sucede algo análogo con las matrices antisimétricas, lo cual queda como tarea moral.

Transformaciones normales

Introduzcamos una definición más.

Definición. Sea V un espacio euclidiano y T:VV una transformación lineal. Diremos que T es normal si T conmuta con su transformación adjunta, es decir, si TT=TT.

Similarmente, diremos que una matriz AMn(R) es normal si AtA=tAA.

Ejemplo. La matriz (1331) es normal. En efecto, puedes verificar que:

(1331)(1331)=(100010)=(1331)(1331).

Las definiciones de transformaciones y matrices normales están conectadas mediante el siguiente resultado sencillo de demostrar.

Proposición. Si T:VV es una transformación es normal con V espacio euclideano y tomamos una base ortonormal β de V, entonces Matβ(T) es normal.

Caracterización geométrica de transformaciones normales

Las matrices normales tienen algunas propiedades geométricas que las caracterizan. El siguiente enunciado formaliza esto.

Problema. Sea T una transformación lineal sobre un espacio euclidiano V. Demuestra que los siguientes incisos son equivalentes:

  1. ||T(x)||=||T(x)|| para todo xV.
  2. T(x),T(y)=T(x),T(y).
  3. T es normal.

Solución. (1)(2). Supongamos (1). Usando la identidad de polarización dos veces y la linealidad de T y T obtenemos
T(x),T(y)=||T(x+y)||2||T(x)||2||T(y)||22=||T(x+y)||2||T(x)||2||T(y)||22=T(x),T(y). lo cual prueba (2).

(2)(3). Supongamos ahora (2). Entonces para cualesquiera x,yV se tiene que
(TTTT)(x),y=T(T(x)),yT(T(x)),y=T(x),T(y)y,T(T(x))=T(x),T(y)T(y),T(x)=0.
Como la igualdad anterior se da para todo y, en particular se cumple, por ejemplo, para los y de una base. Así, (TTTT)(x)=0 para cualquier xV, lo que precisamente significa que TT=TT, es decir, que T es normal.

(3)(1). Finalmente, supongamos (3). Entonces
||T(x)||2=T(x),T(x)=x,T(T(x))=T(T(x)),x=T(x),T(x)=||T(x)||2,
y por lo tanto ||T(x)||=||T(x)|| para todo xV, lo que prueba (1).

◻

Más adelante…

Por la proposición que enunciamos para transformaciones normales, tenemos que si T es de este tipo, entonces ||T(x)||=||T(x)||. Esto es una propiedad geométrica, pues está relacionando dos normas. Sin embargo, una cosa que nos interesa mucho estudiar es cuándo sucede algo parecido: ||T(x)||=||x||. Esto lo que nos estaría diciendo es que «T preserva las normas». En la siguiente entrada motivaremos y exploraremos este tipo de transformaciones lineales, a las que llamaremos ortogonales.

Tarea moral

  1. Demuestra que la forma matricial de una transformación antisimétrica, bajo una base ortonormal, es una matriz antisimétrica.
  2. Demuestra que cualquier transformación lineal T en un espacio euclideano puede ser escrita de la forma T=S+A, donde S es transformación lineal simétrica y A es transformación lineal antisimétrica. Demuestra que esta manera de escribir a T es única.
  3. Hemos platicado mucho de qué sucede cuando representamos transformaciones lineales en un espacio euclideano V mediante bases ortonormales. Pero, ¿qué pasa si no hacemos esto? Determina si lo siguiente es verdadero o falso cuando elegimos una base β de V que no sea ortonormal.
    • Si A es la matriz de una transformación T en la base β, entonces tA es la matriz de T en la base β.
    • Si T es simétrica, entonces su matriz A en la base β es simétrica.
    • Si T es normal, entonces su matriz A en la base β es normal.
  4. Sea T:R2R2 un rotación de ángulo θ(0,π). La representación matricial de T en la base canónica está dada por
    (cosθsinθsinθcosθ).
    Verifica que T es normal.
  5. Sea V un espacio euclidiano y T:VV una transformación lineal normal. Prueba que Tcid es normal para todo real c.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt

Por Blanca Radillo

Introducción

Durante las últimas clases hemos visto problemas y teoremas que nos demuestran que las bases ortogonales son extremadamente útiles en la práctica, ya que podemos calcular fácilmente varias propiedades una vez que tengamos a nuestra disposición una base ortogonal del espacio que nos interesa. Veamos más problemas de bases ortogonales y otros resultados que nos permitirán reforzar estas ideas.

Problemas resueltos de bases ortogonales y proyecciones

Para continuar con este tema, veremos que las bases ortogonales nos permiten encontrar de manera sencilla la proyección de un vector sobre un subespacio. Primero, recordemos que si V=WW2, para todo vV podemos definir su proyección en W, que denotamos πW(v), como el único elemento en W tal que vπW(v)W2.

Debido a las discusiones sobre bases ortogonales, no es difícil ver que si w,u=0 para todo wW, entonces uW2. Como consecuencia de esto, tenemos el siguiente resultado:

Teorema. Sea V un espacio vectorial sobre R con producto interior ,, y sea W un subespacio de V de dimensión finita. Sea v1,,vn una base ortogonal de W. Entonces para todo vV tenemos que

πW(v)=i=1nv,vivi2vi.

Demostración. Escribimos v como v=πW(v)+u con uW2. Por la observación previa al teorema, u,vi=0 para todo i. Además existen a1,,an tales que πW(v)=a1v1++anvn. Entonces

0=u,vi=v,viπW(v),vi=v,vij=1najvj,vi=v,viaivi,vi,

porque v1,,vn es una base ortogonal. Por lo tanto, para todo i, obtenemos

ai=v,vivi2.

◻

Distancia de un vector a un subespacio y desigualdad de Bessel

En la clase de ayer, vimos la definición de distancia entre dos vectores. También se puede definir la distancia entre un vector y un subconjunto como la distancia entre el vector y el vector «más cercano» del subconjunto, en símbolos:

d(v,W)=minxWxv.

Dado que xW, xπW(v)W, y por definición de proyección vπW(v)W2, entonces

xv2=(xπW(v))+(πW(v)v)2=xπW(v)2+2xπW(v),πW(v)v+πW(v)v2=xπW(v)2+πW(v)v2πW(v)v2.

Y dado que la proyección pertenece a W, la desigualdad anterior muestra que la proyección es precisamente el vector en W con el que v alcanza la distancia a W. En conclusión, d(v,W)=πW(v)v.

Teorema. Sea V un espacio vectorial sobre R con producto interior ,, y sea W un subespacio de V de dimensión finita. Sea v1,,vn una base ortonormal de W. Entonces para todo vV tenemos que

πW(v)=i=1nv,vivi,

y

d(v,W)2=vi=1nv,vivi2=v2i=1nv,vi2.

En particular

i=1nv,vi2v2.

A esta última desigualdad se le conoce como desigualdad de Bessel.

Demostración. Por el teorema anterior y dado que v1,,vn es una base ortonormal, obtenemos la primera ecuación. Ahora, por Pitágoras,

d(v,W)2=vπW(v)2=v2πW(v)2.

Por otro lado, tenemos que

πW(v)2=i=1nv,vivi2=i,j=1nv,vivi,v,vjvj=i,j=1nv,viv,vjvi,vj=i=1nv,vi2.

Por lo tanto, se cumple la igualdad de la distancia. Finalmente como d(v,W)20, inmediatamente tenemos la desigualdad de Bessel.

◻

Veamos ahora dos problemas más en los que usamos la teoría de bases ortonormales.

Aplicación del proceso de Gram-Schmidt

Primero, veremos un ejemplo más del uso del proceso de Gram-Schmidt.

Problema. Consideremos V como el espacio vectorial de polinomios en [0,1] de grado a lo más 2, con producto interior definido por p,q=01xp(x)q(x)dx.

Aplica el algoritmo de Gram-Schmidt a los vectores 1,x,x2.

Solución. Es fácil ver que ese sí es un producto interior en V (tarea moral). Nombremos v1=1,v2=x,v3=x2. Entonces

e1=v1v1=2v1=2,

ya que v12=01xdx=12.

Sea z2=v2v2,e1e1. Calculando, v2,e1=012x2dx=23. Entonces z2=x232=x23. Esto implica que

e2=z2z2=6(x23)=6x4.

Finalmente, sea z3=v3v3,e1e1v3,e2e2. Haciendo los cálculos obtenemos que

z3=x2(24)2(15)(6x4)

z3=x265x+310.

Por lo tanto

e3=z3z3=106(x265x+310).

El teorema de Plancherel y una fórmula con π

Finalmente, en este ejemplo, usaremos técnicas de la descomposición de Fourier para solucionar un problema bonito de series.

Problema. Consideremos la función 2πperiódica f:RR definida como f(0)=f(π)=0, f(x)=1xπ en el intervalo (π,0), y f(x)=1xπ en el intervalo (0,π).

Problemas de bases ortogonales: Aplicando el teorema de Plancherel para una fórmula que involucra a pi.
Gráfica de la función f.

Usa el teorema de Plancherel para deducir las identidades de Euler

n=11n2=π26,n=01(2n+1)2=π28.

Solución. Notemos que no sólo es 2πperiódica, también es una función impar, es decir, f(x)=f(x). Por lo visto en la clase del miércoles pasado tenemos que calcular

a0(f)=1πππf(x)dx,

ak(f)=1πππf(x)cos(kx)dx,

bk(f)=1πππf(x)sen(kx)dx.

Para no hacer más larga esta entrada, la obtención de los coeficientes de Fourier se los dejaremos como un buen ejercicio de cálculo. Para hacer las integrales hay que separar la integral en cada uno de los intervalos [π,0] y [0,π] y en cada uno de ellos usar integración por partes.

El resultado es que para todo k1, a0=0,ak=0,bk=2kπ.

Entonces por el teorema de Plancherel,

k=14k2π2=1πππf2(x)dx=1π(π0(1+xπ)2dx+0π(1xπ)2dx)=23,

teniendo que k=11k2=23π24=π26.

Ahora para obtener la otra identidad de Euler, notemos que

n=01(2n+1)2=n=11n2n=11(2n)2=π26π246=π28.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Proceso de Gram-Schmidt

Por Blanca Radillo

Introducción

Durante esta semana hemos introducido el concepto de bases ortogonales y ortonormales, así como algunas propiedades especiales. Para poder aplicar los resultados que hemos visto, es necesario insistir en que las bases sean de este tipo (ortonormales). Ahora veremos cómo encontrar bases ortonormales usando algo llamado el proceso de Gram-Schmidt.

Recordando todos los problemas anteriores de este curso, decíamos que una base es un conjunto de vectores linealmente independientes y que el número de vectores coincide con la dimensión del espacio. Pero hasta este momento no nos interesó determinar si las bases eran ortonormales o no. Si nos pusiéramos a ver si lo eran, es probable que muy pocas lo sean. Entonces surgen dos preguntas, ¿será difícil encontrar una base ortonormal de un espacio vectorial? y ¿habrá alguna manera de construir una base ortonormal?

Proceso de Gram-Schmidt

La respuesta a la primera pregunta es «no, no es difícil», y justo la respuesta de la segunda pregunta es la justificación. Dada una base cualquiera del espacio vectorial, podemos construir una base ortonormal de ese mismo espacio gracias al siguiente teorema.

Teorema (Gram-Schmidt). Sean v1,v2,,vd vectores linealmente independientes en un espacio vectorial V sobre R (no necesariamente de dimensión finita), con producto interior ,. Entonces existe una única familia de vectores ortonormales e1,e2,,ed en V con la propiedad de que para todo k=1,2,,d, tenemos que

span(e1,e2,,ek)=span(v1,v2,,vk),yek,vk>0.

Demostración. Lo haremos por inducción sobre d, la cantidad de vectores con la que empezamos.

La base inductiva es cuando d=1. Tomamos un vector e1span(v1), entonces podemos escribirlo como e1=λv1 para cierta λ. Si queremos que 0<e1,v1=λv12, entonces λ>0. Además queremos que e1 tenga norma igual a 1, entonces 1=e12=e1,e1=λ2v12, lo cual es posible si λ=1v1. Como e1 es un múltiplo escalar de v1, se tiene que span(e1)=span(v1). Además, la construcción forzó a que e1=1v1v1 sea el único vector que satisface las condiciones del teorema.

Hagamos ahora el paso inductivo. Tomemos un entero d2, y supongamos que el teorema es cierto para d1. Sean v1,v2,,vd vectores en V linelmente independientes. Por hipótesis, sabemos que existe una única familia de vectores ortonormales e1,,ed1 que satisfacen las condiciones del teorema respecto a la familia v1,,vd1. Es suficiente con probar que existe un único vector ed tal que e1,,ed satisface el teorema con respecto a v1,,vd, esto es
ed=1,ed,ei=01id1,ed,vd>0,

y

span(e1,,ed)=span(v1,,vd),

ya que, por hipótesis, los casos de k<d se cumplen.

La idea para construir ed es tomarlo de span(v1,,vd), expresarlo como combinación lineal de estos y encontrar condiciones necesarias y suficientes sobre los coeficientes de ed para que satisfaga las conclusiones del teorema. Hagamos esto.

Sea ed un vector tal que edspan(v1,,vd). Por ser linealmente independientes y por hipótesis span(v1,,vd)=span(e1,,ed1)+span(vd), entonces podemos escribir ed como

ed=λvd+i=1d1aiei

para algunos λ,a1,,ad1. Si resulta que λ0, esto también implicará que span(e1,,ed)=span(v1,,vd).

Ahora, dado que ed debe formar una familia ortonormal con el resto de los vectores, para todo j=1,,d1, tenemos que


0=ed,ej=λvd,ej+i=1d1aiei,ej=λvd,ej+aj,

entonces aj=λvd,ej. Si logramos mostrar que hay un único λ con el que se pueda satisfacer la conclusión del teorema, el argumento anterior muestra que también hay únicos a1,,ad1 y por lo tanto que hay un único vector ed que satisface el teorema.

Sustituyendo los coeficientes anteriores, obtenemos que

ed=λ(vdi=1d1vd,eiei).

Notemos que si z:=vdi=1d1vd,eiei es cero, vd estaría en span(e1,,ed1)=span(v1,,vd1), contradiciendo que los vectores vi’s son linealmente independientes, entonces z0.

Ahora como queremos que 1=ed=|λ|z, esto implica que |λ|=1z.

Como además queremos que ed,vd>0 y

ed,vd=ed,edλ+i=1d1vd,eiei=1λ,

se deduce que λ es único y está determinado por λ=1z. Por lo tanto existe (y es único) el vector ed que satisface el teorema.

◻

Este proceso de construcción es mejor conocido como el proceso de Gram-Schmidt. La demostración da a la vez un algoritmo que nos permite encontrar bases ortogonales (y de hecho ortonormales). Veremos ejemplos de esto en la siguiente sección. Antes de eso, enunciaremos formalmente una de las conclusiones más importantes del teorema anterior.

Recuerda que un espacio Euclideano es un espacio vectorial de dimensión finita sobre R y con un producto interior. Podemos aplicar el proceso de Gram-Schmidt a cualquier base v1,,vd de un espacio Euclideano V y al final obtendremos una familia e1,,ed de vectores ortonormales. Como sabemos que las familias de vectores ortonormales son linealmente independientes, y tenemos d vectores, concluimos que e1,,ed es una base ortonormal. En resumen, tenemos el siguiente resultado.

Corolario. Todo espacio Euclideano tiene una base ortonormal.

Ejemplos de aplicación del proceso de Gram-Schmidt

A continuación veremos algunos ejemplos que nos ayuden a clarificar más este algoritmo.

Ejemplo 1. Sean v1,v2,v3 vectores en R3 (con el producto interior estándar) definidos por

v1=(1,1,0),v2=(1,1,1),v3=(1,0,1).

Es fácil ver que estos vectores son linealmente independientes. Entonces construyamos según el proceso de Gram-Schmidt la familia ortonormal de vectores e1,e2,e3. Tenemos que

e1=v1v1=v12=(12,12,0).

Ahora, tomando z2=v2v2,e1e1, tenemos que e2 está definido como z2z2, entonces

z2=(1,1,1)[(1,1,1)(12,12,0)](12,12,0)=(1,1,1)[22](12,12,0)=(1,1,1)(2/2,2/2,0)=(1,1,1)(1,1,0)=(0,0,1).

Esto implica que e2=11(0,0,1)=(0,0,1). Finalmente tomando z3=v3v3,e1e1v3,e2e2, sabemos que e3=z3z3. Entonces

z3=v3v3,e1e1v3,e2e2=(1,0,1)(12,12,0)(0,0,1)=(12,12,0).

Por lo tanto

e3=11/2(12,12,0)=(12,12,0).

Ejemplo 2. Sea V el espacio de polinomios en [0,1] con coeficientes reales de grado a lo más 2, con el producto interior

p,q=01p(x)q(x)dx.

Sean v1=1, v2=1+x, v3=1+x2 vectores en V que claramente son linealmente independientes. Encontraremos los vectores que nos da el proceso de Gram-Schmidt.

Primero calculemos

v12=011dx=1,

entonces e1=v1v1=v1=1. Ahora calculemos z2:

z2=v2v2,e1e1=1+x01(1+x)dx=1+x(1+12)=x12.

Haciendo la integral 01(x12)2dx se obtiene que z2=112, entonces e2=12(x12).

Por último, hay que calcular z3 así como su norma. Primero,

z3=v3v3,e1e1v3,e2e2=(1+x2)01(1+x2)dx12(x12)01(1+x2)(x12)dx=1+x2(1+13)12(x12)(112)=x213x+12=x2x+16,

y luego, con la integral 01(x2x+16)2dx se calcula que z3=165, por lo tanto e3=65(x2x+16).

Aunque no es un proceso muy eficiente, nos garantiza que podemos encontrar una base ortonormal para cualquier espacio vectorial (con producto interior). Ya con una base ortonormal, podemos usar la descomposición de Fourier de la cual hablamos la entrada anterior y con ella todas las consecuencias que tiene.

Si quieres ver muchos más ejemplos del proceso en Rn, puedes usar una herramienta en línea que te permite ver el proceso paso a paso en el conjunto de vectores que tu elijas. Una posible página es el Gram-Schmid Calculator de eMathHelp.

Más adelante…

En esta última entrada teórica de la unidad 3, vimos el método de Gram-Schmidt para construir una base ortonormal, que es un proceso algorítmico que parte de tener una base de un espacio y al final calcula una base ortonormal. También se vieron algunos ejemplos de la aplicación de este proceso para espacios vectoriales finitos como R3 y el espacio de polinomios en [0,1] de grado a lo más 2. Aunque no es una manera muy eficaz para encontrar una base ortonormal, sí te garantiza que lo que construye es una.

En la próxima entrada veremos ejercicios resueltos de los temas que hemos estado estudiando a lo largo de esta semana. 

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que con el valor λ que se encontró en la demostración del teorema de Gram-Schmidt en efecto se obtiene un vector ed que satisface todas las conclusiones que se desean.
  • Revisa que los vectores que se obtuvieron en los ejemplos de aplicación del proceso de Gram-Schmidt en efecto son bases ortogonales de los espacios correspondientes.
  • Aplica el proceso de Gram-Schmidt a los polinomios 1, x, x2 en el espacio Euclideano de los polinomios reales de grado a lo más dos y producto interior p,q=p(0)q(0)+p(1)q(1)+p(2)q(2).
  • Aplica el proceso de Gram-Schmidt a los vectores (1,1,1,1)(0,1,1,1)(0,0,1,1)(0,0,0,1) de R4 con el producto interior canónico (el producto punto).
  • Usa el Gram-Schmidt Calculator de eMathHelp para ver paso a paso cómo se aplica el proceso de Gram-Schmidt a los vectores (1,2,1,1,1)(0,0,1,0,0)(2,0,0,1,1)(0,2,0,0,1)(3,0,0,1,0) de R5.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»