Archivo del Autor: Blanca Radillo

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Por Blanca Radillo

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en Mn(R) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en Mn(F) también lo sean.

Problema 1. Demuestra que la matriz simétrica con coeficientes complejos

A=(1ii1)

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P1DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos λC tal que det(λIA)=0,

det(λIA)=|λ1iiλ+1|=(λ1)(λ+1)i2=λ21+1=λ2=0.

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es λ=0. Si D es de la forma

D=(a00b),

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P1DP=0, contradiciendo la definición de A.

◻

Problema 2. Sea A una matriz simétrica con entradas reales y supongamos que Ak=I para algún entero positivo k. Prueba que A2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser ±1. Esto implica que todos los eigenvalores de A2 son iguales a 1. Dado que A2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A2=I.

◻

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

T=supxV0T(x)x.

Por ende, decimos que una transformación es acotada si su norma es acotada, T<.

Problema 1. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean λ1,,λn los eigenvalores de T. Prueba que

supxV0T(x)x=max1in|λi|.

Solución. Renumerando a los eigenvalores, podemos decir que maxi|λi|=|λn|. Sea e1,,en una base ortonormal de V tal que T(ei)=λiei para todo i. Si xV0, podemos escribirlo como x=x1e1++xnen para algunos reales xi. Entonces, por linealidad de T,

T(x)=i=1nλixiei.

Dado que |λi||λn| para toda i, tenemos que

T(x)x=i=1nλi2xi2i=1nxi2|λn|,

por lo tanto

max1in|λi|=|λn|=T(en)ensupxV0T(x)x|λn|=max1in|λi|.

Obteniendo lo que queremos.

◻

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema 2. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=17(263632326).

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

0=det(λIA)=|λ+2/76/73/76/7λ3/72/73/72/7λ6/7|=λ3λ2λ+1=(λ1)(λ21),

entonces los eigenvalores de A son 1,1, (λ=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=λv, para todo eigenvalor λ.

Si λ=1,

(λIA)v=17(56361023213)v=0,

reduciendo, obtenemos que v=(3α,2α,α) para todo αR.

Si λ=1, resolviendo de la misma manera (λIA)v=(IA)v=0, tenemos que v=(β,γ,3β+2γ) para todo β,γ. Entonces el conjunto de eigenvectores es

B={v1=(3,2,1),v2=(1,0,3),v3=(0,1,2)}.

Es fácil ver que el conjunto B es linealmente independiente, más aún dim(R3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Por Blanca Radillo

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema 1. Considera los vectores

v1=(1,x,0,1),v2=(0,1,2,1),v3=(1,1,1,1)

en R4. Prueba que para cualquier elección de xR, los vectores v1,v2,v3 son linealmente independientes.

Solución. Sea A la matriz cuyas columnas son v1,v2,v3, es decir,

A=(101x11021111).

Sabemos que v1,v2,v3 son linealmente independiente si y sólo si dim(span(v1,v2,v3))=3, ya que rank(A)=3, y eso es equivalente (por la clase del lunes) a demostrar que A tiene una submatriz de 3×3 invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

|101021111|=1,

lo que implica que es invertible, y por lo tanto v1,v2,v3 son vectores linealmente independientes.

◻

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre R o sobre C. Como RC, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en R se cumplen en C. En este caso particular, si las soluciones de una matriz en Mm,n(R) son soluciones de la misma matriz pero vista como elemento en Mm,n(C). El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea AMm,n(F) y sea F1 un campo contenido en F. Consideremos el sistema lineal AX=0. Si el sistema tiene una solución no trivial en F1n, entonces tiene una solución no trivial en Fn.

Demostración. Dado que el sistema tiene una solución no trivial en F1n, r:=rank(A)<n vista como elemento en Mm,n(F1). Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a A como elemento de Mm,n(F1) o de Mm,n(F). Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de Fn de dimensión nr>0. Por lo tanto, el sistema AX=0 tiene una solución no trivial en Fn.

◻

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. 2 Sea Sa el siguiente sistema lineal:

x2y+z=13x+2y2z=22xy+az=3.

Encuentra los valores de a para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como AX=b donde

A=(12132221a)yb=(123).

Notemos que

|12132221a|=8a1,

entonces si a1/8, A es invertible, y por lo tanto rank(A)=3, mientras que si a=1/8, A no es invertible y rank(A)=2 ya que la submatriz es invertible

|1232|=8.

Además, si la matriz (A,b) es igual a

(1211322221a3),

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, rank(A,b)=3.

Aplicando el Teorema de Rouché-Capelli, para a=1/8, el sistema AX=b no tiene soluciones. También podemos concluir que como rank(A)=3 para todo a1/8, el sistema tiene exactamente una solución. (Y AX=b nunca tiene infinitas soluciones).

Problema 3. Sean a,b,c números reales dados. Resuelve el sistema lineal

(b+c)x+by+cz=1ax+(a+c)y+cz=1ax+by+(a+b)z=1.

Solución. La matriz del sistema es

A=(b+cbcaa+ccaba+b).

No es difícil ver que det(A)=4abc. Si abc0, usando la regla de Cramer, la única solución al sistema está dada por

x=|1bc1a+cc1ba+b|4abc,y=|b+c1ca1ca1a+b|4abc

y=|b+cb1aa+c1ab1|4abc,

resolviendo los determinantes obtenemos que

x=a2(bc)24abc,y=b2(ac)24abc,z=c2(ab)24abc.

Ahora, si abc=0, entonces A no es invertible (rank(A)<3). El sistema es consistente si y sólo si rank(A)=rank(A,b).

Sin pérdida de generalidad, decimos que a=0 (pues abc=0). Esto reduce el sistema a

(b+c)x+by+cz=1c(y+z)=1b(y+z)=1.

El sistema es consistente si b=c y distintos de cero. En este caso, tenemos que b(2x+y+z)=1 y b(y+z)=1, implicando x=0, y+z=1/b. De manera similar, obtenemos las posibles soluciones si b=0 o si c=0.

Resumiendo:

  • Si abc0, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) a=0 y b=c0; caso 2) b=0 y a=c0; caso 3) c=0 y a=b0, tenemos infinitas soluciones descritas como, para todo wR: caso 1) (0,w,1/bw); caso 2) (w,0,1/aw); caso 3) (w,1/aw,0).
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para a,b,c, el sistema no es consistente.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de definición y propiedades de determinantes

Por Blanca Radillo

Introducción

En esta entrada haremos una serie de problemas que nos ayudarán como repaso de los temas vistos durante las últimas dos semanas. Mostraremos algunas propiedades bastante interesantes acerca de las transformaciones alternantes y antisimétricas, así como de la transformación estrella de esta semana: el determinante.

Problemas de transformaciones antisimétricas

En la entrada del miércoles 6 de mayo, hablábamos sobre la equivalencia entre transformaciones alternantes y antisimétricas, justo resaltamos que ésto no es cierto si el campo F es Z2, y el siguiente ejemplo lo expone:

Ejemplo. Sea f:Z2×Z2Z2 definido como f(x,y)=xy. Claramente f es bilineal, pero no es alternate ya que f(1,1)=10. Por otro lado, f es antisimétrica, porque f(x,y)+f(y,x)=xy+yx=2xy=0.

De manera natural surge la pregunta: ¿cómo podemos construir una transformación d-lineal antisimétrica o alternante? El siguiente problema muestra un camino para obtener una transformación antisimétrica dada un mapeo d-lineal f.

Problema. Sea f:VdW una transformación d-lineal. Demuestra que

A(f):=σSdsign(σ)σ(f)

es un mapeo d-lineal antisimétrico.

Solución. Es fácil ver que A(f) es una transformación d-lineal, dado que A(f) es una combinación lineal de mapeos d-lineales. Queremos probar que, para τSd, τ(A(f))=sign(τ)A(f). Notemos que

τ(A(f))=σSdsign(σ)τ(σ(f))=σSdsign(σ)(τσ)(f).

Usando el hecho que sign(τ)sign(σ)=sign(τσ) y que {τσ:σSd}=Sd, obtenemos que

sign(τ)τ(A(f))=σSdsign(τσ)(τσ)(f)=ηSdsign(η)(η)(f)=A(f).

Por lo tanto, τ(A(f))=sign(τ)A(f).

◻

Problemas de determinantes

Ahora continuando con la discusiones del determinante, sabemos que éste es una forma n-lineal alternante, y además que cualquier otra forma n-lineal alternante varía de det(b1,,bn) únicamente por un factor multiplicativo. Otro resultado interesante ese teorema es el siguiente:

Problema 1. Sea V un espacio vectorial sobre F de dimensión finita. Sea e1,,en una base de V y sea T:VV una transformación lineal. Demuestra que para todo v1,,vnV tenemos que

i=1ndet(v1,,vi1,T(vi),vi+1,,vn)=Tr(T)det(v1,,vn),

donde todos los determinantes están calculados en la base canónica y Tr(T) es la traza de la matriz de T (con respecto a la base canónica).

Solución. Definimos el mapeo ϕ:VnF como

ϕ(v1,,vn)=i=1ndet(v1,,vi1,T(vi),vi+1,,vn).

Esta transformación es la suma de transformaciones n-lineales, por lo tanto ϕ es n-lineal. Más aún, es alternante, ya que si asumimos, por ejemplo, que v1=v2, entonces

ϕ(v1,v1,v3,,vn)=det(T(v1),v1,v3,,vn)+det(v1,T(v1),v3,,vn)+i=3ndet(v1,v1,,vi1,T(vi),vi+1,,vn)=det(T(v1),v1,v3,,vn)+det(v1,T(v1),v3,,vn)=det(T(v1),v1,v3,,vn)det(T(v1),v1,v3,,vn)=0,

debido a que el determinante es antisimétrico.

Por el último teorema visto en la clase del viernes pasado, existe escalar α tal que

ϕ(v1,,vn)=αdet(v1,,vn)

para todo v1,,vn. Sea A=[aij] la matriz de T con respecto a la base canónica. Si tomamos v1=e1,,vn=en, por el mismo teorema tenemos que

α=ϕ(e1,,en)=i=1ndet(e1,,ei1,j=1najiej,ei+1,,en)=i=1nj=1najidet(e1,,ei1,ej,ei+1,,en)=i=1naii=Tr(T).

Por lo tanto, obtenemos lo que queremos.

◻

Por último, los siguientes dos problemas nos ilustran como podemos obtener información de las matrices de manera fácil y «bonita», usando algunas propiedades de los determinantes vistas en la sesión del martes pasado.

Problema 2. Sea n un número impar y sean A,BMn(R) matrices tal que A2+B2=0n. Prueba que la matriz ABBA no es invertible.

Solución. Notemos que

(A+iB)(AiB)=A2+B2+i(BAAB)=i(BAAB).

Por la propiedad del determinante de un producto, tenemos que

det(A+iB)det(AiB)=indet(BAAB).

Suponemos que ABBA es invertible, entonces det(BAAB)0. Además sabemos que

det(AiB)=det(A+iB)=det(A+iB),

esto implica que |det(A+iB)|2=indet(BAAB). Como consecuencia, in es un número real, contradiciendo al hecho que n es impar. Por lo tanto det(BAAB)=0.

◻

Problema 3. Para 1i,jn, definimos aij como el número de divisores positivos en común de i y j y definimos bij igual a 1 si j divide i e igual a 0 si no.

  1. Probar que A=BtB, donde A=[aij] y B=[bij].
  2. ¿Qué podemos decir de la forma de B?
  3. Calcula det(A).

Solución. 1) Fijando i,j tenemos que

det(BtB)ij=k=1nbikbjk.

Notemos que bikbjk no es cero (bij,bjk=1) si y sólo si k divide a i y a j, esto implica que la cantidad de términos de la suma no ceros corresponde exactamente con la cantidad de los divisores en común que tengan i y j. Por lo tanto det(BtB)ij=aij.

2) Si i<j, no es posible que j divida a i. Entonces bij=0 para todo i<j, esto significa que B es, al menos, triangular inferior. Un dato más que podemos asegurar es que bii=1 para toda i, por lo tanto, al menos, todos los términos de la diagonal de B son iguales a 1.

3) Dada la propiedad multiplicativa del determinante, dado que det(B)=det(tB) y usando el inciso (1), tenemos que det(A)=det(BtB)=(detB)2. Pero por el inciso (2), detB=1, concluimos que detA=1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt

Por Blanca Radillo

Introducción

Durante las últimas clases hemos visto problemas y teoremas que nos demuestran que las bases ortogonales son extremadamente útiles en la práctica, ya que podemos calcular fácilmente varias propiedades una vez que tengamos a nuestra disposición una base ortogonal del espacio que nos interesa. Veamos más problemas de bases ortogonales y otros resultados que nos permitirán reforzar estas ideas.

Problemas resueltos de bases ortogonales y proyecciones

Para continuar con este tema, veremos que las bases ortogonales nos permiten encontrar de manera sencilla la proyección de un vector sobre un subespacio. Primero, recordemos que si V=WW2, para todo vV podemos definir su proyección en W, que denotamos πW(v), como el único elemento en W tal que vπW(v)W2.

Debido a las discusiones sobre bases ortogonales, no es difícil ver que si w,u=0 para todo wW, entonces uW2. Como consecuencia de esto, tenemos el siguiente resultado:

Teorema. Sea V un espacio vectorial sobre R con producto interior ,, y sea W un subespacio de V de dimensión finita. Sea v1,,vn una base ortogonal de W. Entonces para todo vV tenemos que

πW(v)=i=1nv,vivi2vi.

Demostración. Escribimos v como v=πW(v)+u con uW2. Por la observación previa al teorema, u,vi=0 para todo i. Además existen a1,,an tales que πW(v)=a1v1++anvn. Entonces

0=u,vi=v,viπW(v),vi=v,vij=1najvj,vi=v,viaivi,vi,

porque v1,,vn es una base ortogonal. Por lo tanto, para todo i, obtenemos

ai=v,vivi2.

◻

Distancia de un vector a un subespacio y desigualdad de Bessel

En la clase de ayer, vimos la definición de distancia entre dos vectores. También se puede definir la distancia entre un vector y un subconjunto como la distancia entre el vector y el vector «más cercano» del subconjunto, en símbolos:

d(v,W)=minxWxv.

Dado que xW, xπW(v)W, y por definición de proyección vπW(v)W2, entonces

xv2=(xπW(v))+(πW(v)v)2=xπW(v)2+2xπW(v),πW(v)v+πW(v)v2=xπW(v)2+πW(v)v2πW(v)v2.

Y dado que la proyección pertenece a W, la desigualdad anterior muestra que la proyección es precisamente el vector en W con el que v alcanza la distancia a W. En conclusión, d(v,W)=πW(v)v.

Teorema. Sea V un espacio vectorial sobre R con producto interior ,, y sea W un subespacio de V de dimensión finita. Sea v1,,vn una base ortonormal de W. Entonces para todo vV tenemos que

πW(v)=i=1nv,vivi,

y

d(v,W)2=vi=1nv,vivi2=v2i=1nv,vi2.

En particular

i=1nv,vi2v2.

A esta última desigualdad se le conoce como desigualdad de Bessel.

Demostración. Por el teorema anterior y dado que v1,,vn es una base ortonormal, obtenemos la primera ecuación. Ahora, por Pitágoras,

d(v,W)2=vπW(v)2=v2πW(v)2.

Por otro lado, tenemos que

πW(v)2=i=1nv,vivi2=i,j=1nv,vivi,v,vjvj=i,j=1nv,viv,vjvi,vj=i=1nv,vi2.

Por lo tanto, se cumple la igualdad de la distancia. Finalmente como d(v,W)20, inmediatamente tenemos la desigualdad de Bessel.

◻

Veamos ahora dos problemas más en los que usamos la teoría de bases ortonormales.

Aplicación del proceso de Gram-Schmidt

Primero, veremos un ejemplo más del uso del proceso de Gram-Schmidt.

Problema. Consideremos V como el espacio vectorial de polinomios en [0,1] de grado a lo más 2, con producto interior definido por p,q=01xp(x)q(x)dx.

Aplica el algoritmo de Gram-Schmidt a los vectores 1,x,x2.

Solución. Es fácil ver que ese sí es un producto interior en V (tarea moral). Nombremos v1=1,v2=x,v3=x2. Entonces

e1=v1v1=2v1=2,

ya que v12=01xdx=12.

Sea z2=v2v2,e1e1. Calculando, v2,e1=012x2dx=23. Entonces z2=x232=x23. Esto implica que

e2=z2z2=6(x23)=6x4.

Finalmente, sea z3=v3v3,e1e1v3,e2e2. Haciendo los cálculos obtenemos que

z3=x2(24)2(15)(6x4)

z3=x265x+310.

Por lo tanto

e3=z3z3=106(x265x+310).

El teorema de Plancherel y una fórmula con π

Finalmente, en este ejemplo, usaremos técnicas de la descomposición de Fourier para solucionar un problema bonito de series.

Problema. Consideremos la función 2πperiódica f:RR definida como f(0)=f(π)=0, f(x)=1xπ en el intervalo (π,0), y f(x)=1xπ en el intervalo (0,π).

Problemas de bases ortogonales: Aplicando el teorema de Plancherel para una fórmula que involucra a pi.
Gráfica de la función f.

Usa el teorema de Plancherel para deducir las identidades de Euler

n=11n2=π26,n=01(2n+1)2=π28.

Solución. Notemos que no sólo es 2πperiódica, también es una función impar, es decir, f(x)=f(x). Por lo visto en la clase del miércoles pasado tenemos que calcular

a0(f)=1πππf(x)dx,

ak(f)=1πππf(x)cos(kx)dx,

bk(f)=1πππf(x)sen(kx)dx.

Para no hacer más larga esta entrada, la obtención de los coeficientes de Fourier se los dejaremos como un buen ejercicio de cálculo. Para hacer las integrales hay que separar la integral en cada uno de los intervalos [π,0] y [0,π] y en cada uno de ellos usar integración por partes.

El resultado es que para todo k1, a0=0,ak=0,bk=2kπ.

Entonces por el teorema de Plancherel,

k=14k2π2=1πππf2(x)dx=1π(π0(1+xπ)2dx+0π(1xπ)2dx)=23,

teniendo que k=11k2=23π24=π26.

Ahora para obtener la otra identidad de Euler, notemos que

n=01(2n+1)2=n=11n2n=11(2n)2=π26π246=π28.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Proceso de Gram-Schmidt

Por Blanca Radillo

Introducción

Durante esta semana hemos introducido el concepto de bases ortogonales y ortonormales, así como algunas propiedades especiales. Para poder aplicar los resultados que hemos visto, es necesario insistir en que las bases sean de este tipo (ortonormales). Ahora veremos cómo encontrar bases ortonormales usando algo llamado el proceso de Gram-Schmidt.

Recordando todos los problemas anteriores de este curso, decíamos que una base es un conjunto de vectores linealmente independientes y que el número de vectores coincide con la dimensión del espacio. Pero hasta este momento no nos interesó determinar si las bases eran ortonormales o no. Si nos pusiéramos a ver si lo eran, es probable que muy pocas lo sean. Entonces surgen dos preguntas, ¿será difícil encontrar una base ortonormal de un espacio vectorial? y ¿habrá alguna manera de construir una base ortonormal?

Proceso de Gram-Schmidt

La respuesta a la primera pregunta es «no, no es difícil», y justo la respuesta de la segunda pregunta es la justificación. Dada una base cualquiera del espacio vectorial, podemos construir una base ortonormal de ese mismo espacio gracias al siguiente teorema.

Teorema (Gram-Schmidt). Sean v1,v2,,vd vectores linealmente independientes en un espacio vectorial V sobre R (no necesariamente de dimensión finita), con producto interior ,. Entonces existe una única familia de vectores ortonormales e1,e2,,ed en V con la propiedad de que para todo k=1,2,,d, tenemos que

span(e1,e2,,ek)=span(v1,v2,,vk),yek,vk>0.

Demostración. Lo haremos por inducción sobre d, la cantidad de vectores con la que empezamos.

La base inductiva es cuando d=1. Tomamos un vector e1span(v1), entonces podemos escribirlo como e1=λv1 para cierta λ. Si queremos que 0<e1,v1=λv12, entonces λ>0. Además queremos que e1 tenga norma igual a 1, entonces 1=e12=e1,e1=λ2v12, lo cual es posible si λ=1v1. Como e1 es un múltiplo escalar de v1, se tiene que span(e1)=span(v1). Además, la construcción forzó a que e1=1v1v1 sea el único vector que satisface las condiciones del teorema.

Hagamos ahora el paso inductivo. Tomemos un entero d2, y supongamos que el teorema es cierto para d1. Sean v1,v2,,vd vectores en V linelmente independientes. Por hipótesis, sabemos que existe una única familia de vectores ortonormales e1,,ed1 que satisfacen las condiciones del teorema respecto a la familia v1,,vd1. Es suficiente con probar que existe un único vector ed tal que e1,,ed satisface el teorema con respecto a v1,,vd, esto es
ed=1,ed,ei=01id1,ed,vd>0,

y

span(e1,,ed)=span(v1,,vd),

ya que, por hipótesis, los casos de k<d se cumplen.

La idea para construir ed es tomarlo de span(v1,,vd), expresarlo como combinación lineal de estos y encontrar condiciones necesarias y suficientes sobre los coeficientes de ed para que satisfaga las conclusiones del teorema. Hagamos esto.

Sea ed un vector tal que edspan(v1,,vd). Por ser linealmente independientes y por hipótesis span(v1,,vd)=span(e1,,ed1)+span(vd), entonces podemos escribir ed como

ed=λvd+i=1d1aiei

para algunos λ,a1,,ad1. Si resulta que λ0, esto también implicará que span(e1,,ed)=span(v1,,vd).

Ahora, dado que ed debe formar una familia ortonormal con el resto de los vectores, para todo j=1,,d1, tenemos que


0=ed,ej=λvd,ej+i=1d1aiei,ej=λvd,ej+aj,

entonces aj=λvd,ej. Si logramos mostrar que hay un único λ con el que se pueda satisfacer la conclusión del teorema, el argumento anterior muestra que también hay únicos a1,,ad1 y por lo tanto que hay un único vector ed que satisface el teorema.

Sustituyendo los coeficientes anteriores, obtenemos que

ed=λ(vdi=1d1vd,eiei).

Notemos que si z:=vdi=1d1vd,eiei es cero, vd estaría en span(e1,,ed1)=span(v1,,vd1), contradiciendo que los vectores vi’s son linealmente independientes, entonces z0.

Ahora como queremos que 1=ed=|λ|z, esto implica que |λ|=1z.

Como además queremos que ed,vd>0 y

ed,vd=ed,edλ+i=1d1vd,eiei=1λ,

se deduce que λ es único y está determinado por λ=1z. Por lo tanto existe (y es único) el vector ed que satisface el teorema.

◻

Este proceso de construcción es mejor conocido como el proceso de Gram-Schmidt. La demostración da a la vez un algoritmo que nos permite encontrar bases ortogonales (y de hecho ortonormales). Veremos ejemplos de esto en la siguiente sección. Antes de eso, enunciaremos formalmente una de las conclusiones más importantes del teorema anterior.

Recuerda que un espacio Euclideano es un espacio vectorial de dimensión finita sobre R y con un producto interior. Podemos aplicar el proceso de Gram-Schmidt a cualquier base v1,,vd de un espacio Euclideano V y al final obtendremos una familia e1,,ed de vectores ortonormales. Como sabemos que las familias de vectores ortonormales son linealmente independientes, y tenemos d vectores, concluimos que e1,,ed es una base ortonormal. En resumen, tenemos el siguiente resultado.

Corolario. Todo espacio Euclideano tiene una base ortonormal.

Ejemplos de aplicación del proceso de Gram-Schmidt

A continuación veremos algunos ejemplos que nos ayuden a clarificar más este algoritmo.

Ejemplo 1. Sean v1,v2,v3 vectores en R3 (con el producto interior estándar) definidos por

v1=(1,1,0),v2=(1,1,1),v3=(1,0,1).

Es fácil ver que estos vectores son linealmente independientes. Entonces construyamos según el proceso de Gram-Schmidt la familia ortonormal de vectores e1,e2,e3. Tenemos que

e1=v1v1=v12=(12,12,0).

Ahora, tomando z2=v2v2,e1e1, tenemos que e2 está definido como z2z2, entonces

z2=(1,1,1)[(1,1,1)(12,12,0)](12,12,0)=(1,1,1)[22](12,12,0)=(1,1,1)(2/2,2/2,0)=(1,1,1)(1,1,0)=(0,0,1).

Esto implica que e2=11(0,0,1)=(0,0,1). Finalmente tomando z3=v3v3,e1e1v3,e2e2, sabemos que e3=z3z3. Entonces

z3=v3v3,e1e1v3,e2e2=(1,0,1)(12,12,0)(0,0,1)=(12,12,0).

Por lo tanto

e3=11/2(12,12,0)=(12,12,0).

Ejemplo 2. Sea V el espacio de polinomios en [0,1] con coeficientes reales de grado a lo más 2, con el producto interior

p,q=01p(x)q(x)dx.

Sean v1=1, v2=1+x, v3=1+x2 vectores en V que claramente son linealmente independientes. Encontraremos los vectores que nos da el proceso de Gram-Schmidt.

Primero calculemos

v12=011dx=1,

entonces e1=v1v1=v1=1. Ahora calculemos z2:

z2=v2v2,e1e1=1+x01(1+x)dx=1+x(1+12)=x12.

Haciendo la integral 01(x12)2dx se obtiene que z2=112, entonces e2=12(x12).

Por último, hay que calcular z3 así como su norma. Primero,

z3=v3v3,e1e1v3,e2e2=(1+x2)01(1+x2)dx12(x12)01(1+x2)(x12)dx=1+x2(1+13)12(x12)(112)=x213x+12=x2x+16,

y luego, con la integral 01(x2x+16)2dx se calcula que z3=165, por lo tanto e3=65(x2x+16).

Aunque no es un proceso muy eficiente, nos garantiza que podemos encontrar una base ortonormal para cualquier espacio vectorial (con producto interior). Ya con una base ortonormal, podemos usar la descomposición de Fourier de la cual hablamos la entrada anterior y con ella todas las consecuencias que tiene.

Si quieres ver muchos más ejemplos del proceso en Rn, puedes usar una herramienta en línea que te permite ver el proceso paso a paso en el conjunto de vectores que tu elijas. Una posible página es el Gram-Schmid Calculator de eMathHelp.

Más adelante…

En esta última entrada teórica de la unidad 3, vimos el método de Gram-Schmidt para construir una base ortonormal, que es un proceso algorítmico que parte de tener una base de un espacio y al final calcula una base ortonormal. También se vieron algunos ejemplos de la aplicación de este proceso para espacios vectoriales finitos como R3 y el espacio de polinomios en [0,1] de grado a lo más 2. Aunque no es una manera muy eficaz para encontrar una base ortonormal, sí te garantiza que lo que construye es una.

En la próxima entrada veremos ejercicios resueltos de los temas que hemos estado estudiando a lo largo de esta semana. 

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que con el valor λ que se encontró en la demostración del teorema de Gram-Schmidt en efecto se obtiene un vector ed que satisface todas las conclusiones que se desean.
  • Revisa que los vectores que se obtuvieron en los ejemplos de aplicación del proceso de Gram-Schmidt en efecto son bases ortogonales de los espacios correspondientes.
  • Aplica el proceso de Gram-Schmidt a los polinomios 1, x, x2 en el espacio Euclideano de los polinomios reales de grado a lo más dos y producto interior p,q=p(0)q(0)+p(1)q(1)+p(2)q(2).
  • Aplica el proceso de Gram-Schmidt a los vectores (1,1,1,1)(0,1,1,1)(0,0,1,1)(0,0,0,1) de R4 con el producto interior canónico (el producto punto).
  • Usa el Gram-Schmidt Calculator de eMathHelp para ver paso a paso cómo se aplica el proceso de Gram-Schmidt a los vectores (1,2,1,1,1)(0,0,1,0,0)(2,0,0,1,1)(0,2,0,0,1)(3,0,0,1,0) de R5.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»