Archivo de la etiqueta: ortogonalidad

Álgebra Lineal I: Problemas de ortogonalidad, ecuaciones e hiperplanos

Por Ayax Calderón

Introducción

En esta entrada ejercitaremos los conceptos introducidos recientemente. Abordamos los temas de espacio ortogonal e hiperplanos. Para ello, resolveremos problemas de ortogonalidad relacionados con encontrar una base para el espacio ortogonal y de escribir subespacios en términos de ecuaciones e intersecciones de hiperplanos.

Problemas resueltos de espacio ortogonal

Problema 1. Sea S={x3+x,x2+x,x3+x2+1}R3[x].
Describe S dando una base de este espacio.

Solución. Una forma lineal l sobre R3[x] es de la forma

l(a0+a1x+a2x2+a3x3)=aa0+ba1+ca2+da3

para algunos a,b,c,dR, pues basta decidir quiénes son a=l(1), b=l(x), c=l(x2) y d=l(x3).

La condición lS es equivalente a

l(x3+x)=l(x2+x)=l(x3+x2+1)=0.

Esto es
l(x3+x)=b+d=0l(x2+x)=b+c=0l(x3+x2+1)=a+cd=0.

La matriz asociada al sistema es

A=(010101101011)

y su forma escalonada reducida es

Ared=(100001010011).

Así, d es variable libre y a=0b=dc=d.

De aquí, el conjunto de soluciones del sistema es
{(0,u,u,u):uR}.

Las correspondientes formas lineales son lu(a0+a1x+a2x2+a3x3)=u(a1+a2+a3).

Este es un subespacio de dimensión 1, así que para determinar una base para S, basta con elegir una de estas formas lineales con u0, por ejemplo, para u=1 tenemos
l1(ao+a1x+a2x2+a3x3)=a1+a2+a3.

Problema 2. Sea V un espacio vectorial sobre un campo F, sea V su espacio dual y tomemos subconjuntos S,S1,S2V tales que S1S2. Prueba lo siguiente.

  1. S2S1.
  2. S(S).

Solución.

  1. Sea lS2. Por definición l(s)=0 para toda sS2.
    Luego, si sS1, entonces sS2 y así l(s)=0. Por consiguiente lS1. Concluimos S2S1.
  2. Sea sS. Para cualquier lS se cumple que l(s)=0 y así s(S)

◻

Observación. El problema anterior también es cierto si suponemos que S,S1,S2V tales que S1S2 y la prueba es idéntica a la anterior.

Observación. Por muy tentador que sea pensar que la igualdad se da en el inciso 2 del problema anterior, esto es totalmente falso: (S) es un subespacio de V (o de V), mientras que no hay razón para que S lo sea, pues este es solamente un subconjunto arbitrario de V (o V). Como vimos en una entrada anterior, la igualdad se da si S es un subespacio de V (o de V) cuando V es un subespacio de dimensión finita.

Problemas resueltos de ecuaciones lineales y de hiperplanos

Veamos ahora problemas de ortogonalidad relacionados con encontrar expresiones para un subespacio en términos de ecuaciones lineales y de hiperplanos.

Problema 1. Sea W el subespacio de R4 generado por los vectores

v1=(1,1,0,1)
v2=(1,2,2,1).

Encuentra ecuaciones lineales en R4 cuyo conjunto solución sea W.

Solución. Necesitamos encontrar una base para W.
Recordemos que W consiste de todas las formas lineales

l(x,y,z,t)=ax+by+cz+dt

tales que l(v1)=l(v2)=0, es decir
a+b+d=0a+2b+2c+d=0.

La matriz asociada al sistema anterior es

A=(11011221)

y por medio de reducción gaussiana llegamos a que su forma reducida escalonada es

Ared=(10210120).

De aquí, c y d son variables libres y a y b son variables pivote determinadas por
a=2cdb=2c.

Por lo tanto,
l(x,y,z,t)=(2cd)x2cy+cz+dt=c(2x2y+z)+d(x+t).

Así, deducimos que una base para W está dada por

l1(x,y,z,t)=2x2y+z y l2(x,y,z,t)=x+t

y por consiguiente W={vR4:l1(v)=l2(v)=0}, de donde l1(v)=0,l2(v)=0 son ecuaciones cuyo conjunto solución es W.

Problema 2. Considera el espacio vectorial V=R3[x]. Escribe el subespacio vectorial generado por p(x)=12x2 y q(x)=x+x2x3 como la intersección de dos hiperplanos linealmente independientes en V.

Solución. Sea B={1,x,x2,x3}={e1,e2,e3,e4} la base canónica de V.

Entonces

p(x)=e12e3q(x)=e2+e3e4.

Escribir W=span(p(x),q(x)) como intersección de dos hiperplanos es equivalente a encontrar dos ecuaciones que definan a W, digamos l1(v)=l2(v)=0 pues entonces W=H1H2, donde H1=ker(l1) y H2=ker(l2).

Así que sólo necesitamos encontrar una base l1,l2 de W.

Recordemos que una forma lineal en R3[x] es de la forma l1(x1e1+x2e2+x3e3+x4e4)=ax1+bx2+cx3+dx4

para algunos a,b,c,dR.

Esta forma lineal l pertenece a W si y sólo si l(p(x))=l(q(x))=0, o bien

a2c=0b+cd=0.

Podemos fijar c y d libremente y despejar a y b como sigue:

a=2cb=c+d.

Por consiguiente

l(x1e1+x2e2+x3e3+x4e4)=2cx1+(c+d)x2+cx3+dx4=c2x1x2+x3)+d(x2+x4).

Así deducimos que una base l1,l2 de W está dada por

l1(x1e1+x2e2+x3e3+x4e4)=2x1x2+x3l2(x1e1+x2e2+x3e3+x4e4)=x2+x4.

y así W=H1H2, donde

H1=ker(l1)={a+bx+cx2+dx3V:2ab+c=0}H2=ker(l2)={a+bx+cx2+dx3V:b+d=0}.


Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Ortogonalidad y espacio ortogonal

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de formas lineales y del espacio dual. Vimos que las formas coordenadas correspondientes a una base forman bases del espacio dual. También hicimos ejemplos prácticos de cómo encontrar bases duales y cómo hacer cambios de base en el espacio dual. Usaremos la teoría que hemos desarrollado hasta el momento para estudiar los conceptos de ortogonalidad y espacio ortogonal.

Antes de comenzar, es importante dejar un consejo. Quizás a estas alturas asocias a la ortogonalidad con la perpendicularidad. Esta intuición puede ayudar un poco más adelante, pero por el momento es recomendable que dejes esa intuición de lado. El problema es que la «perpendicularidad» habla de parejas de segmentos, parejas de lineas, o parejas de vectores. Sin embargo, las nociones de ortogonalidad que estudiaremos ahora hablan de cuándo una forma lineal l y un vector v son ortogonales, por lo cual es mejor pensarlo por el momento en la ortogonalidad como un concepto nuevo.

Definiciones de ortogonalidad y espacio ortogonal

En esta sección, V es un espacio vectorial sobre un campo F.

Definición. Tomemos una forma lineal l de V y v un vector en V. Decimos que l y v son ortogonales si l,v=0.

De manera equivalente, l y v son ortogonales si l(v)=0, o si v está en el kernel de l.

Ejemplo 1. Consideremos la forma lineal l de los polinomios en R2[x] que a un polinomio lo manda a su evaluación en 2, es decir, tal que l(p)=p(2). Consideremos al polinomio p(x)=x23x+2. Tenemos que l(p)=p(2)=2232+2=46+2=0, de modo que l,p=0, así que l y p son ortogonales. Por otro lado, si q(x)=x+1, tenemos que l,q=l(q)=3, de modo que l y q no son ortogonales.

Ejemplo 2. Consideremos la forma lineal l(x,y,z)=2x+3yz de R3. Un vector que es ortogonal con l es el vector v=(0,0,0). Un vector un poco más interesante es el vector (1,1,5) pues l(1,1,5)=2+35=0.

El vector (1,1,5) también es ortogonal a la forma lineal m(x,y,z)=x+y2z5, como puedes verificar.

A partir de la noción anterior, nos podemos hacer dos preguntas. Dado un conjunto de vectores, ¿quiénes son todas las formas lineales ortogonales a todos ellos? Dado un conjunto de formas lineales, ¿quiénes son todos los vectores ortogonales a todas ellas? Esta noción queda capturada en la siguiente definición.

Definición. Para S un subconjunto de V, definimos al ortogonal de S como el conjunto de formas lineales de V ortogonales a todos los elementos de S. En símbolos, S:={lV:l,v=0vS}.

Tenemos una definición dual para subconjuntos de V.

Definición. Para S un subconjunto de V, el ortogonal de S es el conjunto de vectores de V ortogonales a todos los elementos de S. En símbolos, S={vV:l,v=0lS}.

Observa que estamos definiendo al ortogonal para subconjuntos de V (y de V), es decir, que S no tiene por qué ser un subespacio vectorial de V. Por otro lado, sea o no S un subespacio, siempre tenemos que S es un subespacio. Por ejemplo, si S es un subconjunto de V y l1, l2 son formas lineales que se anulan en todos los elementos de S, entonces para cualquier escalar c también tenemos que l1+cl2 se anula en todos los elementos de S.

Ejercicio. Tomemos S al subconjunto de matrices diagonales con entradas enteras en M2(R). ¿Quién es S? Ojo: Aquí S no es un subespacio.

Solución. Sabemos que para cualquier forma lineal l de M2(R) existen reales p, q, r, s tales que l(abcd)=pa+qb+rc+sd.

Si l está en S, se tiene que anular en particular en las matrices A=(1000) y B=(0001), pues ambas están en S. En otras palabras, 0=l(A)=p y 0=l(B)=s. Así, la forma lineal tiene que verse como sigue:

l(abcd)=qb+rc.

Y en efecto, todas las formas lineales de esta forma se anulan en cualquier matriz diagonal con entradas enteras, pues en esas matrices b=c=0.

Encontrar el espacio ortogonal de manera práctica

Ya mencionamos que S no necesariamente tiene que ser un subespacio para definir S. Sin embargo, usando la linealidad podemos mostrar que, para cualquiera de las dos definiciones, basta estudiar qué sucede con subespacios vectoriales. La demostración de la siguiente proposición es sencilla, y se deja como tarea moral.

Proposición 1. Para S un subconjunto de V (o de V), tenemos que S=span(S).

Esta proposición es particularmente importante pues en espacios vectoriales de dimensión finita nos permite reducir el problema de encontrar ortogonales para subconjuntos de vectores (o de formas lineales), a simplemente resolver un sistema de ecuaciones. El procedimiento que hacemos es el siguiente (lo enunciamos para vectores, para formas lineales es análogo):

  • Tomamos una base B={b1,,bn} de V.
  • Tomamos un subconjunto S de vectores de V.
  • Usamos la Proposición 1 para argumentar que S=span(S).
  • Consideramos una base C={c1,,cm} de span(S) y notamos que una forma lineal l se anula en todo span(S) si y sólo si se anula en cada elemento de C.
  • Escribimos a cada ci como combinación lineal de elementos de B, digamos ci=ai1b1++ainbn.
  • Cada condición l(ci)=0 se transforma en la ecuación lineal ai1l(b1)++ainl(bn)=l(ci)=0 en las variables l(b1),l(b2),,l(bn) igualada a 0, de forma que las m condiciones dan un sistema de ecuaciones homogéneo.
  • Podemos resolver este sistema con reducción gaussiana para encontrar todas las soluciones, aunque basta con encontrar a las soluciones fundamentales, pues justo forman la base de span(S)=S.

Veamos este método en acción.

Ejemplo de encontrar el espacio ortogonal de manera práctica

Ejercicio. Considera el subconjunto S de R3 cuyos elementos son (2,3,5), (1,0,1), (3,3,6), (3,2,5). Determina S.

Solución. Para encontrar S, basta encontrar span(S).

Lo primero que notamos es que todos los vectores de S satisfacen que la suma de sus entradas es 0, así que todos los vectores en span(S) también, de modo que span(S) no es todo R3, así que es de dimensión a lo más 2. Notamos también que (1,0,1) y (2,3,5) son linealmente independientes, así que span(S) es de dimensión al menos 2, de modo que es de dimensión exactamente 2 y por lo tanto (1,0,1) y (2,3,5) es una base.

Para cualquier forma lineal l en R3 existen reales a, b, c tales que l(x,y,z)=ax+by+cz. Para encontrar aquellas formas lineales que se anulan en span(S), basta encontrar aquellas que se anulan en la base, es decir, en (1,0,1) y (2,3,5). De esta forma, necesitamos resolver el sistema de ecuaciones homogéneo a+c=02a+3b5c=0.

Para resolver este sistema, aplicamos reducción gaussiana:

(101235)(101033)(101011)

La variable libre es c y las pivote son a y b. Obtenemos a=c y b=c, de donde las soluciones se ven de la forma (c,c,c). Concluimos entonces que S son las formas lineales tales que l(x,y,z)=c(x+y+z) para algún real c.

En el ejemplo anterior, la dimensiones de span(S) y de span(S) suman 3, que es la dimensión de R3. Esto no es una casualidad, como veremos en la siguiente sección.

El teorema de dualidad

Las dimensiones de un subespacio de un espacio vectorial de dimensión finita, y de su espacio ortogonal, están relacionadas con la dimensión del espacio. Este es uno de los teoremas más importantes de dualidad.

Teorema. Sea V un espacio vectorial de dimensión finita sobre F y W un subespacio de V (o de V). Entonces dimW+dimW=dimV.

Demostración. Hagamos primero el caso en el que W es un subespacio de V. Supongamos que dimV=n y que dimW=m. Como W es subespacio, tenemos que mn. Tenemos que mostrar que dimW=nm, así que basta exhibir una base de dimW con nm formas lineales.

Para ello, tomemos e1,e2,,em una base de W y tomemos elementos em+1,,en que la completan a una base de V. Afirmamos que la base de W que estamos buscando consiste de las formas coordenadas em+1,,en correspondientes a em+1,,en.

Por un lado, estas formas coordenadas son linealmente independientes, pues son un subconjunto de la base e1,,en de V. Por otro lado, si tenemos a una forma lineal l de V, habíamos mostrado que la podemos expresar de la forma l=i=1nl,eiei, de modo que si l se anula en todo W, en particular se anula en los vectores e1,,em, por lo que l=i=m+1nl,eiei, lo cual exhibe a l como combinación lineal de los elementos em+1,,en. De esta forma, este subconjunto de formas lineales es linealmente independiente y genera a W, que era justo lo que necesitábamos probar.

Ahora hagamos el caso en el que W es un subespacio de V. Podríamos hacer un argumento análogo al anterior, pero daremos una prueba alternativa que usa la bidualidad canónica ι:VV. La igualdad l,v=0 es equivalente a ι(v),l=0. De esta forma, v está en W si y sólo si ι(v)V se anula en todo W. Como ι es isomorfismo y el espacio de los gV que se anulan en W tiene dimensión dimVdimW=dimVdimW (por la primer parte del teorema), concluimos entonces que dimW=dimVdimW, lo cual prueba la otra parte del teorema.

◻

Problema. Sea W el subespacio de matrices simétricas de M3(R) ¿Cuál es la dimensión de W?

Solución. Se puede mostrar que E11, E22, E33, E12+E21, E23+E32, E13+E31 forman una base para W. De esta forma, W tiene dimensión 6. Por el Teorema 1, tenemos que dimW=dimM3(R)6=96=3.

Aplicar dos veces ortogonalidad en subespacios

Una consecuencia importante del teorema anterior es que aplicarle la operación «espacio ortogonal» a un subespacio de un espacio de dimensión finita nos regresa al inicio. Más formalmente:

Corolario. Si V es un espacio vectorial de dimensión finita sobre un campo F y W un subespacio de V (o de V), entonces (W)=W.

Demostración. Haremos la prueba para cuando W es subespacio de V. La otra es análoga y se deja como tarea moral. Lo primero que vamos a mostrar es que W(W). Tomemos w en W. Tenemos que mostrar que l(w)=0 para cualquier l en W. Por definición, un l en W se anula en todo elemento de W, así que se anula particularmente en w, como queremos.

Como W y (W) son espacios vectoriales, tenemos que W es subespacio de (W). Por el teorema de dualidad, tenemos que dimW=dimVdimW. Usando esto y de nuevo el teorema de dualidad, tenemos que dim(W)=dimVdimW=dimW.

De esta forma, W es un subespacio de dim(W) de su misma dimensión, y por lo tanto W=(W).

◻

Hay que tener particular cuidado en usar el corolario anterior. Solamente se puede garantizar su validez cuando W es un subespacio de V, y cuando V es de dimensión finita. En efecto, si S es simplemente un subconjunto de V y no es un subespacio, entonces la igualdad S=(S) es imposible, pues al lado derecho tenemos un subespacio de V y al izquierdo no.

Más adelante…

En esta entrada hablamos de ortogonalidad y de espacios ortogonales como si fueran un concepto nuevo, dejando de lado, al menos por el momento, nuestras ideas previas de asociar ortogonalidad con perpendicularidad. También vimos cómo encontrar un espacio ortogonal de manera práctica y hablamos de un teorema muy importante: el teorema de la dualidad.

Lo que sigue es hablar de cómo la noción de ortogonalidad nos permite estudiar sistemas de ecuaciones e hiperplanos. En la siguiente entrada estudiaremos estos conceptos.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra la proposición enunciada en la entrada.
  • Sea S el subespacio de matrices diagonales en Mn(R). ¿Cuál es la dimensión de S?
  • Considera R3[x], el espacio vectorial de polinomios con coeficientes reales y grado a lo más 3. Considera las formas lineales ev2 y ev3 que evalúan a un polinomio en 2 y en 3 respectivamente. ¿Quién es el espacio ortogonal de {ev2,ev3}?
  • Prueba la segunda parte del teorema de dualidad con un argumento análogo al que usamos para probar la primer parte.
  • Prueba el corolario para cuando W es subespacio de V.
  • Verifica que las matrices propuestas en el último ejercicio en efecto forman una base para el subespacio de matrices simétricas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»