Archivo de la etiqueta: bases

Álgebra Superior I: El espacio vectorial Rn

Por Eduardo García Caballero

Introducción

En la entrada anterior introdujimos conceptos relacionados a los espacios vectoriales R2 y R3. Hablamos de vectores, combinaciones lineales, espacio generado, independencia lineal y bases. Ahora haremos lo análogo en dimensiones más altas, para lo cual hablaremos de Rn.

La idea es sencilla, queremos extender lo que ya hicimos para vectores con 5 o 100 entradas. Sin embargo, visualizar estos espacios y entender su geometría ya no será tan sencillo. Es por esta razón que principalmente nos enfocaremos a generalizar las propiedades algebraicas que hemos discutido. Esta resultará una manera muy poderosa de estudiar los espacios vectoriales, pues nos permitirá generalizar sin mucha dificultad los conceptos aprendidos en la entrada anterior al espacio Rn para cualquier número natural n.

Definición del espacio vectorial Rn

En la entrada anterior vimos cuáles son propiedades que debe cumplir una colección de objetos, en conjunto con una operación de suma y otra de producto escalar, para poder considerarse un espacio vectorial. Como ya vimos, tanto R2 y R3 son espacios vectoriales. Podemos definir a Rn y a sus operaciones como sigue.

Definición. El conjunto Rn consiste de todas las n-adas ordenadas u=(u1,u2,,un) en donde cada ui es un número real, para i=1,,n. A ui le llamamos la i-ésima entrada de u. Para dos elementos de Rn, digamos

u=(u1,u2,,un)v=(v1,v2,,vn),

definimos la suma u+v como la n-áda cuya i-ésima entrada es ui+vi (decimos que sumamos entrada a entrada). En símbolos, u+v=(u1+v1,u2+v2,,un+vn).

Además, si tomamos un real r, definimos el producto escalar de r con u como la n-ada cuya i-ésima entrada es rui, es decir, ru=(ru1,ru2,,run).

El conjunto Rn con esta suma y producto escalar cumple ser un espacio vectorial. A continuación probaremos sólo algunas de las propiedades, ¿puedes completar el resto?

1. La suma es asociativa:
(u+v)+w=((u1,u2,,un)+(v1,v2,,vn))+(w1,w2,,wn)=(u1+v1,u2+v2,,un+vn)+(w1,w2,,wn)=((u1+v1)+w1,(u2+v2)+w2,,(un+vn)+wn)=(u1+(v1+w1),u2+(v2+w2),,un+(vn+wn))=(u1,u2,,un)+(v1+w1,v2+w2,,vn+wn)=(u1,u2,,un)+((v1,v2,,vn)+(w1,w2,,wn))=u+(v+w).

La cuarta igualdad usa el paso clave de que en R sí sabemos que la suma es asociativa.

2. La suma es conmutativa:
u+v=v+w.

¡Intenta demostrarlo!

3. Existe un elemento neutro para la suma, que es el elemento de Rn en donde todas las entradas son iguales al neutro aditivo 0 de R:
u+0=(u1,u2,,un)+(0,0,,0)=(u1+0,u2+0,,un+0)=(u1,u2,,un)=u.

Para demostrar esta propiedad, necesitaras usar que en R cada ui tiene inverso aditivo.

4. Para cada n-tupla existe un elemento inverso:
u+(u)=0.

5. La suma escalar se distribuye bajo el producto escalar:
(r+s)u=(r+s)(u1,u2,,un)=((r+s)u1,(r+s)u2,,(r+s)un)=(ru1+su1,ru2+su2,,rn+sun)=(ru1,ru2,,run)+(su1,su2,,sun)=r(u1,u2,,un)+s(u1,u2,,un)=ru+su.

Una vez más, se está usando una propiedad de R para concluir una propiedad análoga en Rn. En este caso, se está usando fuertemente que hay una propiedad de distributividad en R.

6. La suma de n-tuplas de distribuye bajo el producto de escalares:
r(u+v)=ru+rv.

7. El producto escalar es compatible con el producto de R:
(rs)u=(rs)(u1,u2,,un)=((rs)u1,(rs)u2,,(rs)un)=(r(su1),r(su2),,r(sun))=r(su1,su2,,sun)=r(s(u1,u2,,un))=r(su).

8. El neutro multiplicativo 1 de R funciona como neutro para el producto escalar:
1u=u.

De este modo, podemos trabajar con el espacio vectorial Rn para explorar sus propiedades. La gran ventaja es que lo que demostremos para Rn en general lo podremos usar para cualquier valor particular de n. y poder emplearlas cuando trabajemos con algún número n en particular.

Combinaciones lineales y espacio generado

Al igual que hicimos con R2 y R3 podemos definir los conceptos de combinación lineal y espacio generado para el espacio vectorial Rn.

Definición. En Rn, diremos que un vector u es combinación lineal de los vectores v1,,vk si y sólo si existen números reales r1,,rn en R tales que
u=r1v1+r2v2++rkvk.

Ejemplo. En R5, el vector (3,4,2,5,5) es combinación lineal de los vectores (2,1,2,0,3), (0,1,1,3,0) y (1,1,5,2,1), pues
(3,4,2,5,5)=2(2,1,2,0,3)+1(0,1,1,3,0)+1(1,1,5,2,1).

La noción de combinación lineal nos permite hablar de todas las posibles combinaciones lineales, así como en R2 y R3.

Definición. Dado un conjunto de vectores v1,,vn en Rn, podemos definir el espacio generado por estos vectores como el conjunto de todas las posibles combinaciones lineales de v1,,vn en Rn.

Es este caso, ya no podremos visualizar geométricamente el espacio generado (aunque con un poco de imaginación, quizás puedas generalizar lo que ya hicimos en dimensiones anteriores: ¿cómo se vería un plano en R4?, ¿cómo se vería un sub-R3 de R4?). De cualquier manera, sí podemos seguir respondiendo preguntas del espacio generado a través de sistemas de ecuaciones.

Ejemplo. ¿El espacio generado por los vectores (1,1,1,0), (0,3,1,2), (2,3,1,0) y (1,0,2,1) es R4?

Para ver si R4 es el espacio generado por los vectores propuestos, debemos asegurarnos de que cada vector en R4 se pueda expresar como combinación lineal de estos. Entonces, seleccionamos un vector (a,b,c,d) arbitrario en R4, y debemos ver si existen escalares q, r, s y t tales que
q(1,1,1,0)+r(0,3,1,2)+s(2,3,1,0)+t(1,0,2,1)=(a,b,c,d);
esto es,
(q,q,q,0)+(0,3r,r,2r)+(2s,3s,s,0)+(t,0,2t,t)=(a,b,c,d),
que equivale a
(q+2s+t,q+3r+3s,q+r+s+2t,2r+t)=(a,b,c,d),
lo cual a su vez equivale al sistema de ecuaciones
{q++2s+t=aq+3r+3s=bq+r+s+2t=c2r+t=d,
el cual podemos representar como
(1021133011120201)(qrst)=(abcd).
Además, podemos observar que la matriz en el lado izquierdo tiene determinante distinto de 0 (para verificar esto, tendrás que calcularlo), lo que nos indica que es invertible, y la igualdad anterior equivale a
(qrst)=(1021133011120201)1(abcd),
o bien,
(qrst)=(31331/21/41/403/21/45/4111/21/21)(abcd),
de donde tenemos la solución para q,r,s,t siguiente:
{q=3a+b+3c3dr=12a+14b+14cs=32a14b54c+dt=a12b12c+d.
Este sistema nos da una fórmula para los escalares q, r, s y t en función del valor de las entradas del vector (a,b,c,d), y estos escalares satisfacen
q(1,1,1,0)+r(0,3,1,2)+s(2,3,1,0)+t(1,0,2,1)=(a,b,c,d).
Como esto se cumple para un vector arbitrario (a,b,c,d) en R4, entonces se cumple para todos los vectores de R4; es decir, ¡R4 es el espacio generado por los vectores (1,1,1,0), (0,3,1,2), (2,3,1,0), (1,0,2,1)!

Nuestra técnica de resolver sistemas de ecuaciones mediante la inversa de la matriz asociada ha resultado muy útil. Hemos tenido un poco de suerte en que la matriz sea invertible. Si no lo fuera, no podríamos haber hecho el procedimiento descrito en el ejemplo. ¿Será que si la matriz no es invertible, entonces el sistema no se podrá resolver? La respuesta es compleja: a veces sí, a veces no. En ese caso hay que entender el sistema de ecuaciones con otro método, como reducción gaussiana.

Independencia lineal

Cuando exploramos las propiedades de R2 y R3, observamos que hay ocasiones en las que el espacio generado por un conjunto de vectores es «más chico» de lo que se esperaría de la cantidad de vectores: por ejemplo, dos vectores en R2 generan una línea (y no todo R2) cuando estos dos se encuentran alineados con el origen. Cuando tres vectores en R3 no están alineados, pero se encuentran sobre el mismo plano por el origen, su espacio generado es dicho plano (y no todo R3).

Aunque el el espacio vectorial Rn no podamos visualizarlo de manera inmediata, podemos mantener la intuición de que un conjunto de vectores «genera todo lo que puede generar» o «genera algo más chico». Para identificar en qué situación nos encontramos, recurrimos a la siguiente definición.

Definición. Dado un conjunto de k vectores v1,v2,,vk en Rn distintos de 0, diremos son linealmente independientes si la única forma de escribir al vector 0 como combinación lineal de ellos es cuando todos los coeficientes de la combinación lineal son igual al escalar 0; es decir, si tenemos que
r1v1+r2v2++rkvk=0,
entonces forzosamente r1=r2==rn=0.

Teniendo esta definición en consideración, se puede mostrar que si un conjunto de vectores es linealmente independiente, entonces ninguno de los vectores se puede escribir como combinación lineal de los otros. De hecho, es únicamente en este caso cuando cuando el espacio generado por los vectores es «todo lo que se puede generar».

La justificación de por qué sucede esto es similar a la que vimos en la entrada anterior: como el primer vector es no genera una línea. Como el segundo vector no se puede escribir como combinación lineal del primero, entonces queda fuera de esta línea y ambos generan un plano. Como el tercer vector no se puede escribir como combinación lineal de los primeros dos, entonces queda fuera del plano, y entre los tres generan un espacio «más grande» («de dimensión 3»). A partir de este punto, quizá no podamos visualizar inmediatamente la forma geométrica del espacio generado, pero como sabemos que los vectores son linealmente independientes, entonces el cuarto vector no se puede escribir como combinación lineal de los primeros tres. Por ello, queda fuera del espacio generado por los primeros tres, y el espacio generado por los cuatro es aún «más grande» («de dimensión 4»); y así sucesivamente, para tantos vectores linealmente independientes como tengamos.

Una herramienta que podemos emplear para determinar cuándo un conjunto de vectores es linealmente independiente son nuevamente los sistemas de ecuaciones. Para esto veamos el siguiente ejemplo.

Ejemplo. ¿Son los vectores (1,5,1,2), (3,3,0,1), (2,0,4,1) y (0,1,1,0) linealmente independientes en R4?

Supongamos que para ciertos escalares a, b, c y d, se cumple que
a(1,5,1,2)+b(3,3,0,1)+c(2,0,4,1)+d(0,1,1,0)=(0,0,0,0).
Esto es equivalente a decir que
(a,5a,a,2a)+(3b,3b,0,b)+(2c,0,4c,c)+(0,d,d,0)=(0,0,0,0)
que equivale a
(a+3b2c,5a3b+d,a+4cd,2ab+c)=(0,0,0,0),
y a su vez equivale al sistema de ecuaciones
{a+3b2c=05a3b+d=0a+4cd=02ab+c=0
el cual podemos representar de la forma
(1320530110412110)(abcd)=(0000),
y, como notamos que la matriz del lado izquierdo de la ecuación tiene determinante distinto de 0 (¿puedes verificarlo?), entonces es invertible, de modo que
(abcd)=(1320530110412110)1(0000)=(0000),
es decir,
a=b=c=d=0,
lo que nos indica, basándonos en la definición, que los vectores anteriores son linealmente independientes.

El ejemplo anterior nos da una idea de lo que debe cumplir un conjunto linealmente independiente de n vectores en Rn. En general, podemos mostrar que un conjunto de n vectores v1=(v11,v12,,v1n), v2=(v21,v22,,v2n), , vn=(vn1,vn2,,vnn) es linealmente independiente si y sólo si la matriz
(v11v21vn1v12v22vn2v1nv2nvnn),
formada por los vectores escritos como columna, es invertible. Esto ya platicamos que está relacionado con que su determinante sea distinto de 0. Pero no en todas las situaciones tendremos tantos vectores como entradas y entonces tendremos que estudiar el sistema de ecuaciones lineales con otras técnicas, como reducción gaussiana.

Ejemplo. ¿Serán los vectores (1,2,3,4,5), (6,7,8,9,10) y (11,12,13,14,15) de R5 linealmente independientes? Tal y como lo hemos hecho arriba, podemos preguntarnos si hay reales a,b,c tales que a(1,2,3,4,5)+b(6,7,8,9,10)+c(11,12,13,14,15)=(0,0,0,0,0), y que no sean todos ellos cero. Tras plantear el sistema como sistema de ecuaciones y luego en forma matricial, lo que se busca es ver si el sistema (161127123813491451015)(abc)=(00000) tiene alguna solución no trivial. Esto puede entenderse aplicando reducción gaussiana a A, que muestra que toda solución al sistema anterior es solución al sistema (101012000000000)(abc)=(00000), lo cual nos lleva a que el sistema original es equivalente al sistema {ac=0b+2c=0.

De aquí, podemos tomar a c como cualquier valor, digamos 1, de donde a=1 y b=2 es solución. En resumen, hemos detectado que (1,2,3,4,5)2(6,7,8,9,10)+(11,12,13,14,15)=(0,0,0,0,0), que es una combinación lineal de los vectores donde no todos los coeficientes son cero. Por ello, no son linealmente intependientes.

Puedes intentar «imaginar» esto como que son vectores en R5 (un espacio de «dimensión 5»), pero no generan dentro de él algo de dimensión 3, sino algo de dimensión menor. Como (1,2,3,4,5) y (6,7,8,9,10) sí son linealmente independientes (¡demuéstralo!), entonces los tres vectores en realidad generan sólo un plano mediante sus combinaciones lineales.

◻

Bases

De manera similar a lo que observamos en la entrada anterior, hay ocasiones en las que un conjunto de vectores no tiene como espacio generado a todo Rn. Por otra parte, hay ocasiones en las que el conjunto de vectores sí genera a todo Rn, pero lo hace de manera «redundante», en el sentido de que, aunque su espacio generado sí es todo Rn, podríamos quitar a algún vector del conjunto y el espacio generado sería el mismo. La siguiente definición se enfoca en los conjuntos en los que no pasa mal ninguna de estas cosas. Es decir, los vectores generan exactamente al espacio: cada vector se genera por una y sólo una combinación lineal de ellos.

Definición. Diremos que un conjunto de vectores v1,v2,,vk es base del esapacio vectorial Rn si el conjunto de vectores es linealmente independiente y el espacio generado por estos es exactamente Rn.

Ejemplo. Al igual que en R2 y R3, la «base canónica» es el primer ejemplo que seguramente se nos viene a la mente. La base canónica en Rn consiste en los n vectores e1=(1,0,0,,0), e2=(0,1,0,,0), e3=(0,0,1,,0), , en=(0,0,0,,1). Es claro que cualquier vector u=(u1,u2,,un) es combinación lineal de e1,,en pues podemos expresarlo como
u=(u1,u2,,un)=(u1,0,,0)+(0,u2,,0)+(0,0,,un)=u1(1,0,,0)+u2(0,1,,0)++un(0,0,,1)=u1e1+u2e2++unen.
Además, los vectores e1,,en son linealmente independientes (¿puedes ver por qué?). De este modo, verificamos que la «base canónica» es, en efecto, una base.

Ejemplo. Más arriba verificamos que los vectores (1,5,1,2), (3,3,0,1), (2,0,4,1) y (0,1,1,0) son linealmente independientes. Además, vimos que la matriz formada por estos es invertible. De este modo, verificamos que estos vectores forman una base para R4.

Más adelante…

A lo largo de esta unidad nos hemos enfocado en estudiar a vectores, matrices, ecuaciones lineales y espacios vectroriales. En las últimas entradas, vimos que hay ocho condiciones que se deben cumplir para que un conjunto de objetos matemáticos (junto con una operación de suma y una de producto escalar) sean considerados espacio vectorial. Todos los ejemplos de espacio vectorial que vimos son de la forma Rn, sin embargo, puede surgir la pregunta, ¿existen espacios vectoriales que no sean de esta forma?

De hecho, si has estado prestando atención en la formalidad de los resultados, hay muchos resultados que han quedado pendientes:

  • ¿Por qué el determinante no depende de la fila o columna en la que se expanda?
  • Si tenemos matrices de n×n, ¿por qué son invertibles si y sólo si el determinate es cero?
  • En matrices de n×n, ¿por qué el determinante es multiplicativo?
  • ¿Cómo se formaliza el proceso de reducción gaussiana y para qué más sirve?
  • ¿Será que podemos tener muchos vectores linealmente independientes en Rn? ¿Será posible tener un conjunto generador de menos de n vectores para Rn? ¿Por qué?

Estas dudas no se resuelven en el curso de Álgebra Superior 2, que sigue a este. Sin embargo, en el curso de Álgebra Lineal I sí se resuelven varias de estas dudas.

Además, podrás ver que hay otros tipos de objetos matemáticos distintos a las listas ordenadas y que también forman un espacio vectorial; algunos con los cuales ya hemos trabajado, como lo son las matrices, y otros que se comportan de manera muy poco usual, como son los espacios con dimensión infinita. Asimismo, con las herramientas que hemos desarrollado hasta ahora, podremos aprender nuevos conceptos como transformaciones lineales, eigenvectores y eigenvalores; estos nos permitirán comprender de manera más íntima los espacios vectoriales, y podremos relacionarlos unos con otros.

Tarea moral

  1. Verifica lo siguiente:
    • (1,1,1,1), (2,2,2,2), (1,1,2,2), (2,2,1,1) no es un conjunto linealmente independiente de R4.
    • (1,2,3,4), (2,3,4,1), (3,4,1,2), (4,1,2,3) es un conjunto generador de R4.
    • (1,1,1,1,1),(1,1,1,1,0),(1,1,1,0,0),(1,1,0,0,0),(1,0,0,0,0) es una base de R5.
  2. Demuestra las siguientes dos cosas:
    • Sea S un conjunto generador de Rn y TS. Entonces T es conjunto generador de Rn.
    • Sea T un conjunto linealmente independiente de Rn y ST. Entonces S es un conjunto linealmente independiente de Rn.
  3. Sean v1,v2,v3,,vk vectores linealmente independientes de Rn. Demuestra que v1,v1+v2,v1+v2+v3,,v1+v2+v3++vk son también vectores linealmente independientes de Rn. ¿Es esto un si y sólo si?
  4. En vista de lo que hemos platicado para matrices de 2×2, 3×3, R2 y R3, ¿cómo definirías el producto matriz-vector AX donde A es una matriz de m×n y X un vector en Rn?
  5. Demuestra que la definición de base tal y como está en la entrada en efecto permite no sólo escribir a cada vector v del espacio como combinación lineal de los elementos de una base v1,,vn, sino que también implica que dicha expresión será única.

Entradas relacionadas

Álgebra Superior I: Los espacios vectoriales R2 y R3

Por Eduardo García Caballero

Introducción

A lo largo de esta unidad nos hemos enfocado en estudiar los vectores, las operaciones entre estos y sus propiedades. Sin embargo, hasta ahora solo hemos ocupado una definición provisional de vectores —listas ordenadas con entradas reales—, pero no hemos dado una definición formal de estos. En esta entrada definiremos qué es un espacio vectorial y exploraremos algunas de las propiedades de dos ejemplos importantes de espacios vectoriales: R2 y R3-

Las propiedades de espacio vectorial

En entradas anteriores demostramos que los pares ordenados con entradas reales (es decir, los elementos de R2), en conjunto con la suma entrada a entrada y el producto escalar, cumplen las siguientes propiedades:

1. La suma es asociativa:
(u+v)+w=((u1,u2)+(v1,v2))+(w1,w2)=(u1,u2)+((v1,v2)+(w1,w2))=u+(v+w).

2. La suma es conmutativa:
u+v=(u1,u2)+(v1,v2)=(v1,v2)+(u1,u2)=v+u.

3. Existe un elemento neutro para la suma:
u+0=(u1,u2)+(0,0)=(0,0)+(u1,u2)=(u1,u2)=u.

4. Para cada par ordenado existe un elemento inverso:
u+(u)=(u1,u2)+(u1,u2)=(u1,u2)+(u1,u2)=(0,0)=0.

5. La suma escalar se distribuye bajo el producto:
(r+s)u=(r+s)(u1,u2)=r(u1,u2)+s(u1,u2)=ru+su.

6. La suma de pares ordenados se distribuye bajo el producto escalar:
r(u+v)=r((u1,u2)+(v1,v2))=r(u1,u2)+r(v1,v2)=ru+rv.

7. El producto escalar es compatible con el producto de reales:
(rs)u=(rs)(u1,u2)=r(s(u1,u2))=r(su).

8. Existe un elemento neutro para el producto escalar, que justo es el neutro del producto de reales:
1u=1(u1,u2)=(u1,u2)=u.

Cuando una colección de objetos matemáticos, en conjunto con una operación de suma y otra operación de producto, cumple las ocho propiedades anteriormente mencionadas, decimos que dicha colección forma un espacio vectorial. Teniendo esto en consideración, los objetos matemáticos que pertenecen a la colección que forma el espacio vectorial los llamaremos vectores.

Así, podemos ver que los pares ordenados con entradas reales, en conjunto con la suma entrada a entrada y el producto escalar, forman un espacio vectorial, al cual solemos denominar R2. De este modo, los vectores del espacio vectorial R2 son exactamente los pares ordenados con entradas reales.

Como recordarás, anteriormente también demostramos que las ternas ordenadas con entradas reales, en conjunto con su respectiva suma entrada a entrada y producto escalar, cumplen las ocho propiedades antes mencionadas (¿puedes verificarlo?). Esto nos indica que R3 también es un espacio vectorial, y sus vectores son las ternas ordenadas con entradas reales. En general, el que un objeto matemático se pueda considerar o no como vector dependerá de si este es elemento de un espacio vectorial.

Como seguramente sospecharás, para valores de n distintos de 2 y de 3 también se cumple que Rn forma un espacio vectorial. Sin embargo los espacios R2 y R3 son muy importantes pues podemos visualizarlos como el plano y el espacio, logrando así describir muchas de sus propiedades. Por esta razón, en esta entrada exploraremos algunas de las principales propiedades de R2 y R3.

Observación. Basándonos en la definición, el hecho de que una colección de elementos se pueda considerar o no como espacio vectorial depende también a las operaciones de suma y producto. Por esta razón, es común (y probablemente más conveniente) encontrar denotado el espacio vectorial R2 como (R2,+,). Más aún, a veces será importante destacar a los elementos escalares y neutros, encontrando el mismo espacio denotado como (R2,R,+,,0,1). Esto lo veremos de manera más frecuente cuando trabajamos con más de un espacio vectorial, sin embargo, cuando el contexto nos permite saber con qué operaciones (y elementos) se está trabajando, podemos omitir ser explícitos y denotar el espacio vectorial simplemente como R2 o R3.

Combinaciones lineales

Como vimos en entradas anteriores, la suma de vectores en R2 la podemos visualizar en el plano como el resultado de poner una flecha seguida de otra, mientras que el producto escalar lo podemos ver como redimensionar y/o cambiar de dirección una flecha.

En el caso de R3, la intuición es la misma, pero esta vez en el espacio.

Si tenemos varios vectores, podemos sumar múltiplos escalares de ellos para obtener otros vectores. Esto nos lleva a la siguiente definición.

Definición. Dado un conjunto de n vectores v1,,vn en R2 o (R3), definimos una combinación lineal de estos vectores como el resultado de la operación
r1v1+r2v2++rnvn,
donde r1,,rn son escalares.

Ejemplo. En R2, las siguientes son combinaciones lineales:
4(9,5)+7(1,0)+3(4,2)=(17,14),5(1,0)+4(1,1)=(1,4),1(1,0)+0(1,1)=(1,0),5(3,2)=(15,10).
De este modo podemos decir que (17,14) es combinación lineal de los vectores (9,5), (1,0) y (4,2); los vectores (1,4) y (1,0) son ambos combinación lineal de los vectores (1,0) y (1,1); y (15,10) es combinación lineal de (3,2).

Las combinaciones lineales también tienen un significado geométrico. Por ejemplo, la siguiente figura muestra cómo se vería que (1,4) es combinación lineal de (1,0) y (1,1):

Ejemplo. En el caso de R3, observamos que (7,13,22) es combinación lineal de los vectores (8,1,5), (1,0,2) y (9,3,2), pues
4(8,1,5)+2(1,0,2)+(3)(9,3,2)=(7,13,22).

Espacio generado

La figura de la sección anterior nos sugiere cómo entender a una combinación lineal de ciertos vectores dados. Sin embargo, una pregunta natural que surge de esto es cómo se ve la colección de todas las posibles combinaciones lineales de una colección de vectores dados.

Definición. Dado un conjunto de n vectores v1,,vn en R2 o (R3), definimos al espacio generado por ellos como el conjunto de todas sus posibles combinaciones lineales. Al espacio generado por estos vectores podemos encontrarlo denotado como span(v1,,vn) o v1,,vn (aunque esta última notación a veces se suele dejar para otra operación del álgebra lineal).

¿Cómo puede verse el espacio generado por algunos vectores? Puede demostrarse que en el caso de R2 tenemos los siguientes casos.

  • Un punto: esto sucede si y sólo si todos los vectores del conjunto son iguales al vector 0.
  • Una recta: esto sucede si al menos un vector u es distinto de 0 y todos los vectores se encuentran alineados. La recta será precisamente aquella formada por los múltiplos escalares de u.
  • Todo R2: esto sucede si al menos dos vectores u y v de nuestro conjunto no son cero y además no están alineados. Intenta convencerte que en efecto en este caso puedes llegar a cualquier vector del plano sumando un múltiplo de u y uno de v.

En R3, puede mostrarse que el espacio generado se ve como alguna de las siguientes posibilidades:

  • Un punto: esto sucede si y sólo si todos los vectores del conjunto son iguales al vector 0.
  • Una recta: esto sucede si al menos un vector u es distinto de 0 y todos los vectores se encuentran alineados con u. La recta consiste precisamente de los reescalamientos de u.
  • Un plano: esto sucede si al menos dos vectores u y v no son cero y no están alineados, y además todos los demás están en el plano generado por u y v estos dos vectores.
  • Todo R3: esto sucede si hay tres vectores u, v y w que cumplan que ninguno es el vector cero, no hay dos de ellos alineados, y además el tercero no está en el plano generado por los otros dos.

Muchas veces no sólo nos interesa conocer la forma del espacio generado, sino también obtener una expresión que nos permita conocer qué vectores pertenecen a este. Una forma en la que podemos hacer esto es mediante ecuaciones.

Ejemplo. Por ejemplo, observemos que el espacio generado el vector (3,2) en R2 corresponde a los vectores (x,y) que son de la forma
(x,y)=r(2,3),
donde rR es algún escalar. Esto se cumple si y sólo si
(x,y)=(2r,3r),
lo cual a su vez se cumple si y sólo si x y y satisfacen el sistema de ecuaciones
{x=2ry=3r.
Si despejamos r en ambas ecuaciones y las igualamos, llegamos a que
x2=y3,
de donde podemos expresar la ecuación de la recta en su forma homogénea:
12x13y=0;
o bien en como función de y:
y=32x.

La estrategia anterior no funciona para todos los casos, y tenemos que ser un poco más cuidadosos.

Ejemplo. El espacio generado por (0,4) corresponde a todos los vectores (x,y) tales que existe rR que cumple
(x,y)=r(0,4)(x,y)=(0,4r),
es decir,
{x=0y=4r.
En este caso, la única recta que satisface ambas ecuaciones es la recta x=0, la cual no podemos expresar como función de y.

En la siguiente entrada veremos otras estrategias para describir de manera analítica el espacio generado.

El saber si un vector está o no en el espacio generado por otros es una pregunta que se puede resolver con un sistema de ecuaciones lineales.

Ejemplo. ¿Será que el vector (4,1,2) está en el espacio generado por los vectores (2,3,1) y (1,1,1)? Para que esto suceda, necesitamos que existan reales r y s tales que r(2,3,1)+s(1,1,1)=(4,1,2). Haciendo las operaciones vectoriales, esto quiere decir que (2r+s,3r+s,r+s)=(4,1,2), de donde tenemos el siguiente sistema de ecuaciones:

{2r+s=43r+s=1r+s=2.

Este sistema no tiene solución. Veamos por qué. Restando la primera igualdad a la segunda, obtendríamos r=14=3. Restando la tercera igualdad a la primera, obtendríamos r=24=2. Así, si hubiera solución tendríamos la contradicción 2=r=3. De este modo no hay solución.

Así, el vector (4,1,2) no está en el espacio generado por los vectores (2,3,1) y (1,1,1). Geométricamente, (4,1,2) no está en el plano en R3 generado por los vectores (2,3,1) y (1,1,1).

Si las preguntas de espacio generado tienen que ver con sistemas de ecuaciones lineales, entonces seguramente estarás pensando que todo lo que hemos aprendido de sistemas de ecuaciones lineales nos servirá. Tienes toda la razón. Veamos un ejemplo importante.

Ejemplo. Mostraremos que cualquier vector en R2 está en el espacio generado por los vectores (1,2) y (3,1). Para ello, tomemos el vector (x,y) que nosotros querramos. Nos gustaría (fijando x y y) poder encontrar reales r y s tales que r(1,2)+s(3,1)=(x,y). Esto se traduce al sistema de ecuaciones

{r+3s=x2rs=y.

En forma matricial, este sistema es (1321)(rs)=(xy).

Como la matriz (1321) tiene determinante 1(1)(3)(2)=7, entonces es invertible. ¡Entonces el sistema siempre tiene solución única en r y s sin importar el valor de x y y! Hemos con ello demostrado que cualquier vector (x,y) es combinación lineal de (1,2) y (3,1) y que entonces el espacio generado por ambos es todo R2.

Independencia lineal

Mientras platicábamos en la sección anterior de las posibilidades que podía tener el espcio generado de un conjunto de vectores en R2 y R3, fuimos haciendo ciertas precisiones: «que ningún vector sea cero», «que nos vectores no estén alineados», «que ningún vector esté en los planos por los otros dos», etc. La intuición es que si pasaba lo contrario a alguna de estas cosas, entonces los vectores no podían generar «todo lo posible». Si sí se cumplían esas restricciones, entonces cierta cantidad de vectores sí tenía un espacio generado de la dimensión correspondiente (por ejemplo, 2 vectores de R3 no cero y no alineados sí generan un plano, algo de dimensión 2). Resulta que todas estas restricciones se pueden resumir en una definición muy importante.

Definición. Dado un conjunto de n vectores v1,,vn en R2 o (R3), diremos que son linealmente independientes si es imposible escribir al vector 0 como combinación lineal de ellos, a menos que todos los coeficientes de la combinación lineal sean iguales a 0. En otras palabras, si sucede que r1v1+r2v2++rnvn=0, entonces forzosamente fue porque r1=r2==rn=0.

Puede mostrarse que si un conjunto de vectores es linealmente independiente, entonces ninguno de ellos se puede escribir como combinación lineal del resto de vectores en el conjunto. Así, la intuición de que «generan todo lo que pueden generar» se puede justificar como sigue: como el primero no es cero, genera una línea. Luego, como el segundo no es múltiplo del primero, entre los dos generarán un plano. Y si estamos en R3, un tercer vector quedará fuera de ese plano (por no ser combinación lineal de los anteriores) y entonces generarán entre los tres a todo el espacio.

La independencia lineal también se puede estudiar mediante sistemas de ecuaciones lineales.

Ejemplo. ¿Serán los vectores (3,1,1), (4,2,1) y (0,10,7) linealmente independientes? Para determinar esto, queremos saber si existen escalares r,s,t tales que r(3,1,1)+s(4,2,1)+t(0,10,7)=(0,0,0) en donde al menos alguno de ellos no es el cero. Esto se traduce a entender las soluciones del siguiente sistema de ecuaciones:

{3r+4s=0r+2s10t=0r+s7t=0.

Podemos entender todas las soluciones usando reducción Gaussiana en la siguiente matriz:

(3400121001170).

Tras hacer esto, obtenemos la siguiente matriz:

(104001300000).

Así, este sistema de ecuaciones tiene a t como variable libre, que puede valer lo que sea. De aquí, s=3t y r=4t nos dan una solución. Así, este sistema tiene una infinidad de soluciones. Tomando por ejemplo t=1, tenemos s=3 y r=4. Entonces hemos encontrado una combinación lineal de los vectores que nos da el vector (0,0,0). Puedes verificar que, en efecto, (4)(3,1,1)+3(4,2,1)+(0,10,7)=(0,0,0).

Concluimos que los vectores no son linealmente independientes.

Si la única solución que hubiéramos obtenido es la r=s=t=0, entonces la conclusión hubiera sido que sí, que los vectores son linealmente independientes. También podemos usar lo que hemos aprendido de matrices y determinantes en algunos casos para poder decir cosas sobre la independencia lineal.

Ejemplo. Mostraremos que los vectores (2,3,1), (0,5,2) y (0,0,1) son linealmente independientes. ¿Qué sucede si una combinación lineal de ellos fuera el vector cero? Tendríamos que r(2,3,1)+s(0,5,2)+t(0,0,1)=(0,0,0), que se traduce en el sistema de ecuaciones {r=03r+5s=0r+2s+t=0.

La matriz asociada a este sistema de ecuaciones es (200350121), que por ser triangular inferior tiene determinante 251=100. Así, es una matriz invertible, de modo que el sistema de ecuaciones tiene una única solución. Como r=s=t sí es una solución, esta debe ser la única posible. Así, los vectores (2,3,1), (0,5,2) y (0,0,1) son linealmente independientes. Geométricamente, ninguno de ellos está en el plano hecho por los otros dos.

Bases

Como vimos anteriormente, existen casos en los que el espacio generado por vectores en R2 (o R3) no genera a todo el plano (o al espacio). Por ejemplo, en ambos espacios vectoriales, el espacio generado por únicamente un vector es una recta. Esto también puede pasar aunque tengamos muchos vectores. Si todos ellos están alineados con el vector 0, entonces su espacio generado sigue siendo una recta también. En la sección anterior platicamos que intuitivamente el problema es que los vectores no son linealmente independientes. Así, a veces unos vectores no generan todo el espacio que pueden generar.

Hay otras ocasiones en las que unos vectores sí generan todo el espacio que pueden generar, pero lo hacen de «manera redundante», en el sentido de que uno o más vectores se pueden poner de más de una forma como combinación lineal de los vectores dados.

Ejemplo. Si consideramos los vectores (2,1), (1,0) y (2,3), observamos que el vector (2,3) se puede escribir como
0(2,1)+3(1,0)+2(2,3)=(7,6)
o
3(2,2)+1(1,0)+0(2,3)=(7,6),
siendo ambas combinaciones lineales del mismo conjunto de vectores.

Uno de los tipos de conjuntos de vectores más importantes en el álgebra lineal son aquellos conocidos como bases, que evitan los dos problemas de arriba. Por un lado, sí generan a todo el espacio. Por otro lado, lo hacen sin tener redundancias.

Definición. Diremos que un conjunto de vectores es base de R2 (resp. R3) si su espacio generado es todo R2 (resp. R3) y además son linealmente independientes.

El ejemplo de base más inmediato es el conocido como base canónica.

Ejemplo. En el caso de R2, la base canónica es (1,0) y (0,1). En \mathbb{R}^3labasecanónicaes(1,0,0),(0,1,0)y(0,0,1)$.

Partiendo de las definiciones dadas anteriormente, vamos que cualquier vector (a,b) en R se puede escribir como a(1,0)+b(0,1); y cualquier vector (a,b,c) en R3 se puede escribir como a(1,0,0)+b(0,1,0)+c(0,0,1).

Más aún, es claro que los vectores (1,0) y (0,1) no están alineados con el origen. Y también es claro que (1,0,0),(0,1,0),(0,0,1) son linealmente idependientes, pues la combinación lineal r(1,0,0)+s(0,1,0)+t(0,0,1)=(0,0,0) implica directamente r=s=t=0.

Veamos otros ejemplos.

Ejemplo. Se tiene lo siguiente:

  • Los vectores (3,4) y (2,0) son base de R2 pues son linealmente independientes y su espacio generado es todo R2.
  • Los vectores (8,5,1), (2,2,7) y (1,0,9) son base de R3 pues son linealmente independientes y su espacio generado es todo R3.

¡Ya tienes todo lo necesario para demostrar las afirmaciones anteriores! Inténtalo y haz dibujos en R2 y R3 de dónde se encuentran estos vectores.

Como podemos observar, las bases de un espacio vectorial no son únicas, sin embargo, las bases que mencionamos para R2 coinciden en tener dos vectores, mientras que las bases para R3 coinciden en tener tres vectores. ¿Será cierto que todas las bases para un mismo espacio vectorial tienen la misma cantidad de vectores?

Más adelante…

En esta entrada revisamos qué propiedades debe cumplir una colección de objetos matemáticos para que sea considerado un espacio vectorial, además de que analizamos con más detalle los espacios vectoriales R2 y R3.

Como seguramente sospecharás, para otros valores de n también se cumple que Rn, en conjunto con sus respectivas suma entrada a entrada y producto escalar, forman un espacio vectorial. Sin embargo, en contraste con los espacios R2 y R3, este espacio es más difícil de visualizar. En la siguiente entrada generalizaremos para Rn varias de las propiedades que aprendimos en esta entrada.

Tarea moral

  1. Realiza lo siguiente:
    • De entre los siguientes vectores, encuentra dos que sean linealmente independientes: (10,16),(5,8),(24,15),(10,16),(15,24),(20,32).
    • Encuentra un vector de R2 que genere a la recta 2x+3y=0.
    • Determina qué es el espacio generado por los vectores (1,2,3) y (3,2,1) de R3.
    • Da un vector (x,y,z) tal que (4,0,1), (2,1,0) y (x,y,z) sean una base de R3.
  2. Demuestra que (0,0) es el único vector w en R2 tal que para todo vector v de R2 se cumple que v+w=v=w+v.
  3. Prueba las siguientes dos afirmaciones:
    • Tres o más vectores en R2 nunca son linealmente independientes.
    • Dos o menos vectores en R3 nunca son un conjunto generador.
  4. Sean u y v vectores en R2 distintos del vector cero. Demuestra que u y v son linealmente independientes si y sólo si v no está en la línea generada por u.
  5. Encuentra todas las bases de R3 en donde las entradas de cada uno de los vectores de cada base sean iguales a 0 ó a 1.

Entradas relacionadas

Álgebra Lineal II: Adjunta de una transformación lineal

Por Ayax Calderón

Introducción

En esta tercera unidad estudiaremos algunos aspectos geométricos de transformaciones lineales. Para ello, lo primero que haremos será introducir la noción de la adjunta de una transformación lineal. Esto nos permitirá más adelante poder hablar de varias transformaciones especiales: normales, simétricas, antisimétricas, ortogonales. De entrada, las definiciones para cada uno de estos conceptos parecerán simplemente un juego algebraico. Sin embargo, poco a poco descubriremos que pidiendo a las transformaciones lineales cierta propiedad con respecto a su adjunta, podemos recuperar muchas propiedades geométricas bonitas que satisfacen.

Un ejemplo de esto serán las transformaciones ortogonales. Estas serán las transformaciones que, a grandes rasgos, no cambian la norma. Daremos un teorema de clasificación para este tipo de transformaciones: veremos que sólo son reflexiones o rotaciones en ciertos ejes. Después estudiaremos las transformaciones simétricas y veremos un resultado fantástico: el teorema espectral. Este teorema nos garantizará que toda transformación simétrica en R puede ser diagonalizada, y de hecho a través de una transformación ortogonal.

El párrafo anterior nos dice que las transformaciones ortogonales y las simétricas serán «fáciles de entender» en algún sentido. Esto parece limitado a unas familias muy particulares de transformaciones. Sin embargo, cerraremos la unidad con un teorema muy importante: el teorema de descomposición polar. Gracias a él lograremos entender lo que hace cualquier transformación lineal. Tenemos un camino muy interesante por recorrer. Comencemos entonces con la idea de la adjunta de una transformación lineal.

La adjunta de una transformación lineal

Sea V un espacio euclidiano y producto interior ,. Tomemos una transformación lineal T:VV. Para cada yV, la transformación xT(x),y es una forma lineal. Del teorema de representación de Riesz se sigue que existe un único vector T(y)V tal que
T(x),y=T(y),x=x,T(y)xV.

Esta asignación de este vector T es lineal, ya que al vector ry1+y2 para r escalar y y1,y2 en V se le asigna la forma lineal xT(x),ry1+y2=r(T(x),y1+(T(x),y2), que se puede verificar que le corresponde en la representación de Riesz el vector rT(y1)+T(y2).

De esta manera, podemos correctamente enunciar la siguiente definición.

Definición. Sea V un espacio euclidiano y producto interior ,. Sea T:VV una transformación lineal. Definimos a la adjunta de T, como la única transformación lineal T:VV que cumple la siguiente condición para todos x,y en V:

T(x),y=x,T(y)

Notemos que para cualesquiera x,yV tenemos que
y,T(x)=T(x),y=x,T(y)=T(y),x=y,(T)(x).

Restando el último término del primero, se sigue que T(x)(T)(x)=0, de manera que (T)=T, por lo cual simplemente escribiremos T=T.

Por lo tanto, la asignación TT es una transformación auto-inversa sobre V.

La matriz de la transformación adjunta

Tenemos que T=T. Esto debería recordarnos a la transposición de matrices. En efecto, en cierto sentido podemos pensar a la transformación T algo así como la transpuesta de la transformación (por lo menos en el caso real, para espacios sobre C será algo ligeramente distinto).

La siguiente proposición nos ayudará a reforzar esta intuición.

Proposición. Sea V un espacio euclidiano y producto interior , y T:VV una transformación lineal. Sea B=(e1,,en) una base otronormal de V. Se tiene que MatB(T)=tMatB(T).

En palabras, bajo una base ortonormal, la adjunta de una transformación tiene como matriz a la transpuesta de la transformación original.

Solución. Sea A=MatB(T) y B=[Bij] la matriz asociada a T con respecto a B. Para cada i{1,,n} se tiene
T(ei)=k=1nbkiek.

En vista de que T(ei)=k=1nakiek y de que la base B es ortonormal, se tiene que T(ei),ej=k=1nakiek,ej=aji y
ei,T(ej)=k=1nbkjei,ek=bij.

Como, por definición de transformación adjunta, se tiene que
T(ei),ej=ei,T(ej), entonces bij=aji para cada i,j en {1,,n}, que precisamente significa que B=tA.

◻

Ejemplos de encontrar una adjunción

La proposición de la sección anterior nos da una manera práctica de encontrar la adjunción para transformaciones lineales.

Ejemplo. Encontraremos la transformación adjunta a la transformación lineal T:R2R2 dada por T((x,y))=(yx,y+2x). Por la proposición de la sección anterior, basta expresar a T en una base ortonormal y transponer. Usemos la base canónica de R2. En esta base, la matriz que representa a T es (1121). Por ello, la matriz que representa a T es la transpuesta, es decir (1211). De este modo, concluimos que T((x,y))=(x+2y,x+y).

Podemos verificar que en efecto esta transformación satisface la definición de adjunción. Por un lado,

T((a,b)),(c,d)=(ba,b+2a)(c,d)=bcac+bd+2ad,

y por otro

(a,b),T((c,d))=(a,b)(c+2d,c+d)=ac+2ad+bc+bd.

Ambas expresiones en efecto son iguales.

Problema. Demuestra que una transformación lineal T en un espacio euclideano de dimensión finita y la adjunta T de T tienen el mismo determinante.

Solución. El determinante de una transformación es igual al determinante de cualquiera de las matrices que la represente. Así, si A es la forma matricial de T bajo una base ortonormal, se tiene que det(A)=det(T). Por la proposición de la sección anterior, tA es la forma matricial de T en esa misma base, de modo que det(tA)=det(T). Pero una matriz y su transpuesta tienen el mismo determinante, de modo que det(T)=det(tA)=det(A)=det(T).

◻

Más adelante…

La noción de transformación adjunta es nuestra primera noción fundamental para poder definir más adelante transformaciones que cumplen propiedades geométricas especiales. Con ella, en la siguiente entrada hablaremos de transformaciones simétricas, antisimétricas y normales.

Toma en cuenta que las definiciones que hemos dado hasta ahora son para espacios euclideanos, es decir, para el caso real. Cuando hablamos de espacios hermitianos, es decir, del caso complejo, los resultados cambian un poco. La transformación adjunta se define igual. Pero, por ejemplo, si la matriz que representa a una transformación es A, entonces la que representará a su adjunta no será la transpuesta, sino más bien la transpuesta conjugada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  1. Encuentra la transformación adjunta para las siguientes tranformaciones lineales:
    • T:R2R2 dada por T(x,y)=(2yx,2x+y).
    • T:R3R3 dada por T(x,y,z)=(x+y+z,y+z,z).
    • T:RnRn tal que para la base canónica e1,,en cumple que T(ei)=ei+1 para i=1,,n1 y T(en)=0.
  2. Considera el espacio vectorial Mn(R). En este espacio, la operación transponer es una transformación lineal. ¿Cuál es su transformación adjunta?
  3. Completa los detalles de que T es en efecto una transformación lineal.
  4. Demuestra que si T es una transformación lineal sobre un espacio euclidiano y λ es un eigenvalor de T, entonces λ también es un eigenvalor de T. De manera más general, demuestra que T y T tienen el mismo polinomio característico.
  5. Sea V un espacio euclidiano y T:VV. ¿Es cierto que para todo polinomio p se cumple que p(T)=p(T)?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Proceso de Gram-Schmidt

Por Blanca Radillo

Introducción

Durante esta semana hemos introducido el concepto de bases ortogonales y ortonormales, así como algunas propiedades especiales. Para poder aplicar los resultados que hemos visto, es necesario insistir en que las bases sean de este tipo (ortonormales). Ahora veremos cómo encontrar bases ortonormales usando algo llamado el proceso de Gram-Schmidt.

Recordando todos los problemas anteriores de este curso, decíamos que una base es un conjunto de vectores linealmente independientes y que el número de vectores coincide con la dimensión del espacio. Pero hasta este momento no nos interesó determinar si las bases eran ortonormales o no. Si nos pusiéramos a ver si lo eran, es probable que muy pocas lo sean. Entonces surgen dos preguntas, ¿será difícil encontrar una base ortonormal de un espacio vectorial? y ¿habrá alguna manera de construir una base ortonormal?

Proceso de Gram-Schmidt

La respuesta a la primera pregunta es «no, no es difícil», y justo la respuesta de la segunda pregunta es la justificación. Dada una base cualquiera del espacio vectorial, podemos construir una base ortonormal de ese mismo espacio gracias al siguiente teorema.

Teorema (Gram-Schmidt). Sean v1,v2,,vd vectores linealmente independientes en un espacio vectorial V sobre R (no necesariamente de dimensión finita), con producto interior ,. Entonces existe una única familia de vectores ortonormales e1,e2,,ed en V con la propiedad de que para todo k=1,2,,d, tenemos que

span(e1,e2,,ek)=span(v1,v2,,vk),yek,vk>0.

Demostración. Lo haremos por inducción sobre d, la cantidad de vectores con la que empezamos.

La base inductiva es cuando d=1. Tomamos un vector e1span(v1), entonces podemos escribirlo como e1=λv1 para cierta λ. Si queremos que 0<e1,v1=λv12, entonces λ>0. Además queremos que e1 tenga norma igual a 1, entonces 1=e12=e1,e1=λ2v12, lo cual es posible si λ=1v1. Como e1 es un múltiplo escalar de v1, se tiene que span(e1)=span(v1). Además, la construcción forzó a que e1=1v1v1 sea el único vector que satisface las condiciones del teorema.

Hagamos ahora el paso inductivo. Tomemos un entero d2, y supongamos que el teorema es cierto para d1. Sean v1,v2,,vd vectores en V linelmente independientes. Por hipótesis, sabemos que existe una única familia de vectores ortonormales e1,,ed1 que satisfacen las condiciones del teorema respecto a la familia v1,,vd1. Es suficiente con probar que existe un único vector ed tal que e1,,ed satisface el teorema con respecto a v1,,vd, esto es
ed=1,ed,ei=01id1,ed,vd>0,

y

span(e1,,ed)=span(v1,,vd),

ya que, por hipótesis, los casos de k<d se cumplen.

La idea para construir ed es tomarlo de span(v1,,vd), expresarlo como combinación lineal de estos y encontrar condiciones necesarias y suficientes sobre los coeficientes de ed para que satisfaga las conclusiones del teorema. Hagamos esto.

Sea ed un vector tal que edspan(v1,,vd). Por ser linealmente independientes y por hipótesis span(v1,,vd)=span(e1,,ed1)+span(vd), entonces podemos escribir ed como

ed=λvd+i=1d1aiei

para algunos λ,a1,,ad1. Si resulta que λ0, esto también implicará que span(e1,,ed)=span(v1,,vd).

Ahora, dado que ed debe formar una familia ortonormal con el resto de los vectores, para todo j=1,,d1, tenemos que


0=ed,ej=λvd,ej+i=1d1aiei,ej=λvd,ej+aj,

entonces aj=λvd,ej. Si logramos mostrar que hay un único λ con el que se pueda satisfacer la conclusión del teorema, el argumento anterior muestra que también hay únicos a1,,ad1 y por lo tanto que hay un único vector ed que satisface el teorema.

Sustituyendo los coeficientes anteriores, obtenemos que

ed=λ(vdi=1d1vd,eiei).

Notemos que si z:=vdi=1d1vd,eiei es cero, vd estaría en span(e1,,ed1)=span(v1,,vd1), contradiciendo que los vectores vi’s son linealmente independientes, entonces z0.

Ahora como queremos que 1=ed=|λ|z, esto implica que |λ|=1z.

Como además queremos que ed,vd>0 y

ed,vd=ed,edλ+i=1d1vd,eiei=1λ,

se deduce que λ es único y está determinado por λ=1z. Por lo tanto existe (y es único) el vector ed que satisface el teorema.

◻

Este proceso de construcción es mejor conocido como el proceso de Gram-Schmidt. La demostración da a la vez un algoritmo que nos permite encontrar bases ortogonales (y de hecho ortonormales). Veremos ejemplos de esto en la siguiente sección. Antes de eso, enunciaremos formalmente una de las conclusiones más importantes del teorema anterior.

Recuerda que un espacio Euclideano es un espacio vectorial de dimensión finita sobre R y con un producto interior. Podemos aplicar el proceso de Gram-Schmidt a cualquier base v1,,vd de un espacio Euclideano V y al final obtendremos una familia e1,,ed de vectores ortonormales. Como sabemos que las familias de vectores ortonormales son linealmente independientes, y tenemos d vectores, concluimos que e1,,ed es una base ortonormal. En resumen, tenemos el siguiente resultado.

Corolario. Todo espacio Euclideano tiene una base ortonormal.

Ejemplos de aplicación del proceso de Gram-Schmidt

A continuación veremos algunos ejemplos que nos ayuden a clarificar más este algoritmo.

Ejemplo 1. Sean v1,v2,v3 vectores en R3 (con el producto interior estándar) definidos por

v1=(1,1,0),v2=(1,1,1),v3=(1,0,1).

Es fácil ver que estos vectores son linealmente independientes. Entonces construyamos según el proceso de Gram-Schmidt la familia ortonormal de vectores e1,e2,e3. Tenemos que

e1=v1v1=v12=(12,12,0).

Ahora, tomando z2=v2v2,e1e1, tenemos que e2 está definido como z2z2, entonces

z2=(1,1,1)[(1,1,1)(12,12,0)](12,12,0)=(1,1,1)[22](12,12,0)=(1,1,1)(2/2,2/2,0)=(1,1,1)(1,1,0)=(0,0,1).

Esto implica que e2=11(0,0,1)=(0,0,1). Finalmente tomando z3=v3v3,e1e1v3,e2e2, sabemos que e3=z3z3. Entonces

z3=v3v3,e1e1v3,e2e2=(1,0,1)(12,12,0)(0,0,1)=(12,12,0).

Por lo tanto

e3=11/2(12,12,0)=(12,12,0).

Ejemplo 2. Sea V el espacio de polinomios en [0,1] con coeficientes reales de grado a lo más 2, con el producto interior

p,q=01p(x)q(x)dx.

Sean v1=1, v2=1+x, v3=1+x2 vectores en V que claramente son linealmente independientes. Encontraremos los vectores que nos da el proceso de Gram-Schmidt.

Primero calculemos

v12=011dx=1,

entonces e1=v1v1=v1=1. Ahora calculemos z2:

z2=v2v2,e1e1=1+x01(1+x)dx=1+x(1+12)=x12.

Haciendo la integral 01(x12)2dx se obtiene que z2=112, entonces e2=12(x12).

Por último, hay que calcular z3 así como su norma. Primero,

z3=v3v3,e1e1v3,e2e2=(1+x2)01(1+x2)dx12(x12)01(1+x2)(x12)dx=1+x2(1+13)12(x12)(112)=x213x+12=x2x+16,

y luego, con la integral 01(x2x+16)2dx se calcula que z3=165, por lo tanto e3=65(x2x+16).

Aunque no es un proceso muy eficiente, nos garantiza que podemos encontrar una base ortonormal para cualquier espacio vectorial (con producto interior). Ya con una base ortonormal, podemos usar la descomposición de Fourier de la cual hablamos la entrada anterior y con ella todas las consecuencias que tiene.

Si quieres ver muchos más ejemplos del proceso en Rn, puedes usar una herramienta en línea que te permite ver el proceso paso a paso en el conjunto de vectores que tu elijas. Una posible página es el Gram-Schmid Calculator de eMathHelp.

Más adelante…

En esta última entrada teórica de la unidad 3, vimos el método de Gram-Schmidt para construir una base ortonormal, que es un proceso algorítmico que parte de tener una base de un espacio y al final calcula una base ortonormal. También se vieron algunos ejemplos de la aplicación de este proceso para espacios vectoriales finitos como R3 y el espacio de polinomios en [0,1] de grado a lo más 2. Aunque no es una manera muy eficaz para encontrar una base ortonormal, sí te garantiza que lo que construye es una.

En la próxima entrada veremos ejercicios resueltos de los temas que hemos estado estudiando a lo largo de esta semana. 

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que con el valor λ que se encontró en la demostración del teorema de Gram-Schmidt en efecto se obtiene un vector ed que satisface todas las conclusiones que se desean.
  • Revisa que los vectores que se obtuvieron en los ejemplos de aplicación del proceso de Gram-Schmidt en efecto son bases ortogonales de los espacios correspondientes.
  • Aplica el proceso de Gram-Schmidt a los polinomios 1, x, x2 en el espacio Euclideano de los polinomios reales de grado a lo más dos y producto interior p,q=p(0)q(0)+p(1)q(1)+p(2)q(2).
  • Aplica el proceso de Gram-Schmidt a los vectores (1,1,1,1)(0,1,1,1)(0,0,1,1)(0,0,0,1) de R4 con el producto interior canónico (el producto punto).
  • Usa el Gram-Schmidt Calculator de eMathHelp para ver paso a paso cómo se aplica el proceso de Gram-Schmidt a los vectores (1,2,1,1,1)(0,0,1,0,0)(2,0,0,1,1)(0,2,0,0,1)(3,0,0,1,0) de R5.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Bases ortogonales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Como ya discutimos en las entradas anteriores, si tenemos un espacio vectorial V con producto interior, entonces podemos definir varias nociones geométricas en V, como ángulos, norma y distancia. Ahora vamos a definir una noción muy útil en álgebra lineal: la de bases ortogonales. Para ello, combinaremos las nociones de bases y producto interior.

Las bases ortogonales no sólo tienen aplicaciones en álgebra lineal. También son el punto de partida de muchos conceptos matemáticos avanzados. Un primer ejemplo es el análisis de Fourier, que estudia cómo aproximar funciones mediante funciones trigonométricas y que tiene aplicaciones en el mundo real en análisis de señales. Otro ejemplo es la vasta teoría de polinomios ortogonales, con aplicaciones en el mundo real en aproximación e integración numérica.

En estas entradas de bases ortogonales tomaremos espacios vectoriales sobre R con un producto interior ,.

Conjuntos ortogonales y ortonormales

Comenzamos con la siguiente definición. Recuerda que V es un espacio vectorial sobre R con producto interior, así que induce una norma .

Definición. Sea S un conjunto de vectores en V. Decimos que S es

  • Ortogonal si cualquier par de vectores distintos de S es ortogonal, es decir, si para todo v,w en S, con vw se tiene que v,w=0.
  • Ortonormal si es ortogonal, y además todo vector de S tiene norma 1.

En otras palabras, S es ortonormal si para todo v en S se tiene v,v=1 y para v y w en S distintos se tiene v,w=0.

Ejemplo. Si tomamos a Rn con el producto punto, entonces la base canónica es un conjunto ortonormal pues, en efecto, eiei=1 y para ij se tiene eiej=0.

Todo conjunto de un sólo elemento es ortogonal, pues no hay nada que probar. Otro conjunto ortonormal en R2 es el conjunto que sólo tiene al vector (35,45), pues este es un vector de norma 1.

Los vectores (1,1,0), (1,1,0) y (0,0,1) forman otro conjunto ortogonal en R3, pues en efecto
(1,1,0)(1,1,0)=11=0(1,1,0)(0,0,1)=0(0,0,1)(1,1,0)=0.

Sin embargo, este no es un conjunto ortonormal, pues la norma de (1,1,0) es 21. Si normalizamos a cada vector, es decir, si lo dividimos entre su norma, entonces obtenemos los vectores ortonormales (1/2,1/2,0), (1/2,1/2,0) y (0,0,1).

Propiedades de conjuntos ortogonales y ortonormales

Todo conjunto ortogonal de vectores no nulos se puede normalizar como en el ejemplo de la sección anterior para obtener un conjunto ortonormal. Es decir, si S es un conjunto de vectores distintos de 0, entonces S={vv:vS} es un conjunto ortonormal.

Una propiedad fundamental de los conjuntos ortonormales de vectores es que son linealmente independientes. Se puede probar algo un poco más general.

Proposición. Si S es un conjunto ortogonal de vectores no nulos, entonces los elementos de V son linealmente independientes.

Demostración. Tomemos v1,,vn elementos de S y supongamos que existen α1,,αn escalares tales que v:=i=1nαivi=0.

Tomemos un índice j en 1,,n y hagamos el producto interior v,vj. Por un lado, como v=0, este produto es 0. Por otro lado, por linealidad es i=1nαivi,vj.

Cuando ij, el sumando correspondiente es igual a 0. De este modo, el único sumando no cero es cuando i=j, el cual es αjvj,vj. De estos argumentos, deducimos que αjvj,vj=0. Como los vectores son no nulos, se tiene que vj,vj0. Así, αj=0 para todo j=1,,n, lo cual muestra que los vectores son linealmente independientes.

◻

Como cada elemento de un conjunto ortonormal tiene norma 1, entonces no puede ser nulo, así que como corolario de la proposición anterior, todo conjunto ortonormal es linealmente independiente. Otro corolario es el siguiente.

Corolario. En un espacio Euclideano de dimensión d, los conjuntos ortogonales sin vectores nulos tienen a lo más d elementos.

Bases ortogonales y ortonormales

Cuando una base de un espacio vectorial es ortogonal (o bien, ortonormal), pasan varias cosas buenas. Esto amerita una definición por separado.

Definición. Sea S un conjunto de vectores en V. Decimos que S es

  • Una base ortogonal si S es una base de V y es un conjunto ortogonal.
  • Una base ortonormal si S una base de V y es un conjunto ortonormal.

Ejemplo. En Rn la base canónica es una base ortonormal.

En R2 el conjunto S={(2,3),(9,6)} es un conjunto ortogonal. Además, se puede verificar fácilmente que son dos vectores linealmente independientes. De este modo, S es una base ortogonal.

Sin embargo, S no es una base ortonormal pues el primero de ellos tiene norma 22+32=13. Si quisiéramos convertir a S en una base ortonormal, podemos normalizar a cada uno de sus elementos.

En la sección anterior vimos que los conjuntos ortonormales son linealmente independientes. Otro corolario de este resultado es lo siguiente.

Corolario. En un espacio Euclideano de dimensión n, un conjunto ortonormal de n vectores es una base ortonormal.

La importancia de las bases ortogonales yace en que dada una base ortonormal B y un vector v, podemos encontrar varias propiedades de v en términos de B fácilmente. Por ejemplo, veremos más adelante que:

  • Las coordenadas de v con respecto a la base B son sencillas.
  • Hay una fórmula simple para la norma de v en términos de sus coordenadas en la base B.
  • Si B es una base de un subespacio W de V, entonces es fácil encontrar la distancia de v a W.

Mejor aún, las bases ortonormales siempre existen.

Teorema. Todo espacio Euclideano tiene una base ortonormal.

Es decir, sin importar qué espacio vectorial real de dimensión finita tomemos, y sin importar qué producto punto le pongamos, podemos dar una base ortogonal. De hecho, veremos un resultado un poco más fuerte, que nos dará un procedimiento para encontrar dicha base, incluso imponiendo restricciones adicionales.

Ejemplo de bases ortogonales en polinomios

Ejemplo. Tomemos Rn[x] el espacio de polinomios de grado a lo más n con coeficientes reales. Además, tomemos números reales distintos x0,,xn. A partir de estos reales podemos definir la operación P,Q=j=0nP(xj)Q(xj), la cual es claramente bilineal y simétrica.

Tenemos que P,P es una suma de cuadrados, y por lo tanto es no negativa. Además, si P,P=0, es porque j=0nP(xj)2=0, y como estamos trabajando en R esto implica que cada sumando debe ser cero. Pero las igualdades P(x0)==P(xn)=0 dicen que los n+1 reales distintos xi son raíces de P, y como P es de grado a lo más n, tenemos que P es el polinomio 0. En resumen, , es un producto interior en Rn[x]. Vamos a dar una base ortogonal con respecto a este producto interior.

Para i=0,,n, consideremos los polinomios Li(x)=0kn,kixxkxixk. Observa que Lj(xj)=1 y si ji, tenemos Li(xj)=0. Afirmamos que B={Lj:j=0,,n+1} es una base ortonormal de Rn[x] con el producto interior que definimos. Como consiste de n+1 polinomios y dim(Rn[x])=n+1, basta con que veamos que es un conjunto ortonormal.

Primero, notemos que
Li,Li=j=0nLi(xj)2=Li(xi)2=1,

de modo que cada Li tiene norma 1.

Luego, notemos que si ij, entonces Li(xk)Lj(xk)=0 pues xk no puede ser simultáneamente xi y xj. De este modo,

Li,Lj=k=0nLi(xk)Lj(xk)=0.

Con esto mostramos que cada par de polinomios distintos es ortogonal. Esto termina la demostración de que B es base ortonormal.

◻

Ejemplo de conjuntos ortogonales en funciones periódicas

Ejemplo. Consideremos V el conjunto de funciones f:RR continuas y periódicas de periodo 2π. Definimos f,g=ππf(x)g(x)dx. Se puede mostrar que , así definido es un producto interior en V.

Para cada entero positivo n, definimos
Cn(x)=cos(nx)πSn(x)=sin(nx)π.

Además, definimos C0(x)=12π. Afirmamos que F:={Cn:n0}{Sn:n1} es un conjunto ortonormal de vectores. Mostremos esto.

Para empezar, notamos que C02=ππ12πdx=1.

Luego, tenemos que para n1 que
Cn2=ππ1πcos2(nx)dx=ππ1+cos(2nx)2πdx=1,

ya que para todo entero m0 se tiene que ππcos(mx)dx=0. De manera similar, usando la identidad sin2(nx)=1cos(nx)2, se puede ver que la norma de Sn es 1.

Para ver que las parejas de elementos distintas son ortogonales, tenemos varios casos. Si tomamos n1, el resultado para C0,Cn ó C0,Sn se deduce de que
ππcos(mx)dx=ππsin(mx)dx=0 para todo entero m0.

Si tomamos dos Ci’s distintos, dos Sis distintos o un Ci y un Si, el resultado se deduce de las fórmulas «producto a suma» de las funciones trigonométricas.

◻

Más adelante…

En esta entrada combinamos las nociones de bases y el producto interior, estudiadas en entradas anteriores, para definir a las bases ortogonales. Vimos algunas propiedades de conjuntos ortogonales y ortonormales, para extenderlos a bases ortogonales y ortonormales. Vimos unos ejemplos de bases ortogonales de los polinomios y otros ejemplos de conjuntos ortogonales en funciones periódicas.

En la siguiente entrada veremos aplicaciones de estos conceptos, culminando en una descomposición de Fourier.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Encuentra un conjunto ortogonal de vectores en R4 tal que ninguna de las entradas de ninguno de sus vectores sea igual a 0.
  • Escribe las demostraciones de los corolarios enunciados en esta entrada.
  • Muestra que , definido en el ejemplo de funciones periódicas es un producto interior.
  • Termina de mostrar que la familia F del ejemplo de funciones periódicas es ortonormal. Sugerencia: Usa identidades de suma y resta de ángulos para poner el producto de senos (o cosenos o mixto) como una suma de senos y/o cosenos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»