Archivo de la etiqueta: subespacios

Álgebra Lineal II: Ortogonalidad en espacios euclideanos

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, cuando hablamos del espacio dual de un espacio vectorial, definimos qué quería decir que una forma lineal y un vector fueran ortogonales. Esa noción de ortogonalidad nos ayudó a definir qué era un hiperplano de un espacio vectorial y a demuestra que cualquier subespacio de dimensión k de un espacio de dimensión n podía ponerse como intersección de nk hiperplanos.

Hay otra noción de ortogonalidad en álgebra lineal que también ya discutimos en el primer curso: la ortogonalidad de parejas de vectores con respecto a un producto interior. En el primer curso vimos esta noción muy brevemente. Lo que haremos ahora es profundizar en esta noción de ortogonalidad. De hecho, gracias a las herramientas que hemos desarrollado podemos conectar ambas nociones de ortogonalidad.

Esta teoría la veremos de manera explícita en el caso real en la entrada. El caso en C queda esbozado en los ejercicios.

Definición de ortogonalidad

Comenzamos con las siguientes definiciones.

Definición. Sea V un espacio vectorial sobre R y b una forma bilineal de V. Diremos que dos vectores x,y en V son ortogonales (con respecto a b) si b(x,y)=0.

Definición. Sea V un espacio vectorial sobre R y b una forma bilineal de V. Sea S un subconjunto de vectores de V. El conjunto ortogonal de S (con respecto a b) consiste de todos aquellos vectores en V que sean ortogonales a todos los vectores de S. En símbolos:

S:={vV:sS,b(s,v)=0}.

Es un buen ejercicio verificar que S siempre es un subespacio de V. Finalmente, definimos la ortogonalidad de conjuntos.

Definición. Sea V un espacio vectorial sobre R y b una forma bilineal de V. Diremos que dos subconjuntos S y T son ortogonales (con respecto a b) si ST.

En otras palabras, estamos pidiendo que todo vector de S sea ortogonal a todo vector de T.

Observación. Si tenemos un espacio vectorial con producto interior , de norma , entonces tenemos la fórmula x+y2=x2+2x,y+y2.

De esta forma, x y y son ortogonales si y sólo si x+y2=x2+y2. Podemos pensar esto como una generalización del teorema de Pitágoras.

Descomposición en un subespacio y su ortogonal

Comenzamos esta sección con un resultado auxiliar.

Teorema. Sea V un espacio euclideano y W un subespacio de V. Entonces V=WW.

Demostración. Sea , el producto interior de V. Para demostrar la igualdad que queremos, debemos mostrar que W y W están en posición de suma directa y que V=W+W.

Para ver que W y W están en posición de suma directa, basta ver que el único elemento en la intersección es el 0. Si x está en dicha intersección, entonces x,x=0, pues por estar en W debe ser ortogonal a todos los de W, en particular a sí mismo. Pero como tenemos un producto interior, esto implica que x=0.

Tomemos ahora un vector vV cualquiera. Definamos la forma lineal f:WR tal que f(u)=u,v. Por el teorema de representación de Riesz aplicado al espacio vectorial W y a su forma lineal f, tenemos que existe un (único) vector x en W tal que f(u)=u,x para cualquier u en W.

Definamos y=vx y veamos que está en W. En efecto, para cualquier u en W tenemos:

u,y=u,vx=u,vu,x=f(u)f(u)=0.

De esta manera, podemos escribir v=x+y con xW y yW.

◻

En particular, el teorema anterior nos dice que la unión disjunta de una base de W y una base de W es una base de V. Por ello, tenemos el siguiente corolario.

Corolario. Sea V un espacio euclideano y W un subespacio de V. Entonces dimW+dimW=dimV.

Tenemos un corolario más.

Corolario. Sea V un espacio euclideano y W un subespacio de V. Entonces (W)=W.

Demostración. Tanto W como (W) son subespacios de V. Tenemos que W(W) pues cualquier elemento de W es ortogonal a cualquier elemento de W. Además, por el corolario anterior tenemos:

dimW+dimW=dimVdimW+dim(W)=dimV.

De aquí se sigue que dimW=dim(W). Así, la igualdad que queremos de subespacios se sigue si un subespacio está contenido en otro de la misma dimensión, entonces deben de ser iguales.

◻

Proyecciones ortogonales

Debido al teorema anterior, podemos dar la siguiente definición.

Definición. Sea V un espacio euclideano y W un subespacio de V. La proyección ortogonal hacia W es la transformación lineal pW:VW tal que a cada v en V lo manda al único vector pW(v) tal que xpW(v) está en W.

Dicho en otras palabras, para encontrar a la proyección de v en W debemos escribirlo de la forma v=x+y con xW y yW y entonces pW(v)=x.

Distancia a subespacios

Cuando definimos la distancia entre conjuntos que tienen más de un punto, una posible forma de hacerlo es considerando los puntos más cercanos en ambos conjuntos, o en caso de no existir, el ínfimo de las distancias entre ellos. Esto da buenas propiedades para la distancia. En particular, cuando queremos definir la distancia de un punto x a un conjunto S hacemos lo siguiente.

Definición. Sea V un espacio vectorial real con producto interior , de norma . Sea S un subconjunto de V y v un vector de V. Definimos la distancia de v a S como la menor posible distancia de v hacia algún punto de S. En símbolos:

d(v,S):=infsSd(v,s).

En general, puede ser complicado encontrar el punto que minimiza la distancia de un punto a un conjunto. Sin embargo, esto es más sencillo de hacer si el conjunto es un subespacio de un espacio con producto interior: se hace a través de la proyección al subespacio. Esto queda reflejado en el siguiente resultado.

Proposición. Sea V un espacio euclideano con producto interior , de norma . Sea W un subespacio de V y sea v un vector en V. Entonces d(v,W)=vpW(v).

Más aún, pW(v) es el único punto en W para el cual se alcanza la distancia mínima.

Demostración. Por el teorema de descomposición en un subespacio y su ortogonal, sabemos que podemos escribir v=x+y con x en W y con y en W.

Tomemos cualquier elemento w en W. Tenemos que xw está en W y que y está en W. Así, usando el teorema de Pitágoras tenemos que:

vw2=y+(xw)2=y2+xw2y2=vx2.

Esto muestra que vwvx. Como xW, esto muestra que la distancia de v a W en efecto se alcanza con x=pW(v), pues cualquier otra distancia es mayor o igual.

La igualdad en la cadena anterior de alcanza si y sólo si xw2=0, lo cual sucede si y sólo si x=w, como queríamos.

◻

Más adelante…

En la siguiente entrada recordaremos varias de las ventajas que tiene contar con una base de un espacio vectorial en la que cualesquiera dos vectores sean ortogonales entre sí. Y en la entrada después de esa, recordaremos algunas hipótesis bajo las cuales podemos garantizar encontrar una de esas bases.

Tarea moral

  1. Resuelve los siguientes ejercicios:
    1. Sea R3 con el producto interno canónico y W={(0,0,a3):a3R}. Encuentra a W y define la proyección ortogonal pW hacia W.
    2. Encuentra el vector en Span((1,2,1),(1,3,4)) que sea el más cercano (respecto a la norma euclidiana) al vector (1,1,1).
  2. Sea V un espacio euclidiano y T:VV una transformación lineal tal que T2=T. Prueba que T es una proyección ortogonal si y solo si para cualesquiera x y y en V se tiene que T(x),y=x,T(y).
  3. Resuelve los siguientes ejercicios:
    1. Demuestra que una proyección ortogonal reduce la norma, es decir, que si T es una proyección ortogonal, entonces T(v)v.
    2. Prueba que una proyección ortogonal únicamente puede tener como eigenvalores a 0 ó a 1.
  4. Demuestra que la composición de dos proyecciones ortogonales no necesariamente es una proyección ortogonal.
  5. En el teorema de descomposición, ¿es necesaria la hipótesis de tener un producto interior? ¿Qué sucede si sólo tenemos una forma bilineal, simétrica y positiva?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Problemas de bases y dimensión de espacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores vimos cómo se puede definir la dimensión de un espacio vectorial. Para ello, necesitamos encontrar una base. En el caso finito, la dimensión del espacio es la cardinalidad de una base. Esto está bien definido pues todas las bases tienen la misma cardinalidad. A continuación solucionaremos algunos ejemplos para reforzar los temas vistos.

Recordatorio de truco para mostrar que algo es base

En varios de los problemas usamos el siguiente resultado. Ya lo enunciamos y demostramos previamente. Pero como es sumamente útil, lo volvemos a enunciar, en términos más prácticos.

Proposición. Sea V un espacio vectorial que ya sepamos que tiene dimensión finita n. Sea B={v1,v2,,vn} un conjunto de n vectores de v. Entonces, cualquiera de las siguientes afirmaciones implica las otras dos:

  1. B es un conjunto linealmente independiente en V.
  2. B es un conjunto generador para V.
  3. B es una base de V.

Por supuesto, el tercer punto implica los otros dos por la definición de base. Lo que es realmente útil en situaciones teóricas y prácticas es que si ya sabemos que un espacio tiene dimensión n, y tenemos un conjunto de n vectores, entonces basta verificar que o bien (1) o bien (2). Con esto tendremos la otra afirmación gratuitamente.

Al usar este resultado, es muy importante verificar las hipótesis. Es decir, para usarlo se necesita:

  • Argumentar por qué la dimensión de un espacio vectorial es cierto entero n.
  • Argumentar que se está estudiando un conjunto con n vectores.
  • Demostrar ya sea (1) o (2).

Problemas resueltos

Problema 1. Muestra que las siguientes cuatro matrices A=(1001), B=(0110), C=(1001), D=(0110) son una base del espacio vectorial M2(R).

Solución. Ya sabemos que M2(R) es un espacio vectorial de dimensión 4, pues una base está conformada por las matrices E11, E12, E21 y E22 de la base canónica. El conjunto que tenemos consiste de 4 matrices. Así, para mostrar que conforman una base, es suficiente con que mostremos que son un conjunto linealmente independiente.

Supongamos que existen reales a,b,c,d tales que aA+bB+cC+dD=O2. Haciendo las operaciones entrada por entrada en esta igualdad, obtenemos que esto sucede si y sólo si a,b,c,d son soluciones al sistema de ecuaciones
{a+c=0bd=0b+d=0ac=0.

Podríamos encontrar todas las soluciones a este sistema usando reducción gaussiana. Sin embargo, afortunadamente para este sistema hay una forma más sencilla de proceder. Sumando la primera y cuarta igualdad, obtenemos 2a=0, de donde a=0 y entonces por la primer ecuación c=0. De manera simétrica, b=d=0. De esta forma, la única combinación lineal de A,B,C,D que da la matriz cero es la trivial. Concluimos que A,B,C,D son linealmente independientes, y por lo tanto son una base de M2(R).

◻

En el problema anterior resultó más práctico mostrar que las matrices eran linealmente independientes, pero también pudimos simplemente mostrar que generaban a M2(R). Por la proposición que enunciamos, cualquiera de los dos implica que en este contexto las matrices forman una base.

Veamos ahora un ejemplo en el que es más conveniente mostrar que el conjunto propuesto es generador.

Problema 2. Encuentra una base de R4[x] que tenga al polinomio p(x)=1+x+x2+x3+x4.

Solución. Ya sabemos que R4[x] tiene dimensión 5, pues una base es el conjunto de polinomios B={1,x,x2,x3,x4}.

Proponemos al conjunto B={1,x,x2,x3,p(x)} como solución al problema.

Como B es un conjunto con 5 elementos, basta con mostrar que es un conjunto que genera a R4[x]. Para ello, notemos que B puede generar al polinomio x4 pues se obtiene mediante la combinación lineal x4=p(x)1xx2x3.

De esta forma, B puede generar todo lo que puede generar B. En símbolos: R4[x]span(B)span(B)R4[x].

Concluimos que span(B)=R4[x]. Esto muestra que B es una base de R4[x] que tiene al polinomio p(x).

Problema 3. Exactamente uno de los vectores u=(9,5,1) y v=(9,5,1) puede ser escrito como combinación lineal de los vectores columna de la matriz A=(303211121). Determina cuál de ellos es y exprésalo como una combinación lineal de los vectores columna de A.

Solución. Un vector b se puede escribir como combinación lineal de las columnas de una matriz A si y sólo si el sistema lineal de ecuaciones AX=b tiene solución. En efecto, si X=(x,y,z), recordemos que AX=xC1+yC2+zC3, en donde C1, C2 y C3 son las columnas de la matriz A.

De esta forma, una forma de proceder es plantear los sistemas de ecuaciones AX=u y AX=v, y ver cuál de ellos tiene solución. Esto se puede hacer y dará la solución al problema.

Sin embargo, aprovecharemos este problema para introducir un truco más. Como queremos resolver ambos sistemas, podemos hacer reducción gaussiana en la matriz aumentada (A|u|v), en donde estamos agregando dos vectores columna nuevos. De la forma escalonada reducida podremos leer todo lo que queremos. La matriz que nos interesa es
(303992115512111).

Usando la herramienta online de eMathHelp para calcular la forma escalonada reducida de esta matriz, obtenemos

(Ared|u|v)=(101300111000001).

Estamos listos para hacer el análisis. Tomando la submatriz conformada por las primeras cuatro columnas (las correspondientes a Ared y u), vemos que no queda pivote en la última columna. De este modo, sí hay una solución para AX=u.

Para obtener una solución, basta trabajar con esta submatriz y usar nuestros argumentos usuales de sistemas de ecuaciones lineales. La variable z es libre. Las variables x y y son pivote. Haciendo z=0 obtenemos x=3 y y=1. Concluimos que (951)=3(321)+(1)(012)+0(311).

Esto sería suficiente para terminar el problema, pues el enunciado garantiza que uno y sólo uno de los vectores es combinación lineal de las columnas.

Pero estudiemos el otro caso para ver qué sucede. Tomando la submatriz conformada por las columnas 1, 2, 3, 5 de (Ared|u|v) (correspondientes a Ared y v), vemos que sí hay un pivote en la última columna: el de la tercera fila. Entonces, no hay solución para AX=v.

El problema anterior ayuda a fortalecer mucho nuestra intuición para resolver sistemas de ecuaciones lineales: el sistema AX=b tiene solución si y sólo si el vector b es combinación lineal de los vectores columna de A. Cada solución al sistema corresponde a una de estas combinaciones lineales.

Problema 4. Para n un entero positivo y k un entero de 0 a n, definimos al polinomio Pk(x)=xk(1x)(nk). Muestra que P0(x),,Pn(x) es una base para el espacio Rn[x].

Solución. Como Rn[x] tiene dimensión n+1 y estamos considerando un conjunto de n+1 polinomios, entonces basta mostrar que este conjunto es linealmente independiente. Supongamos que hay una combinación lineal de ellos que es igual a cero, digamos α0(1x)n+α1x(1x)n1++αn1xn1(1x)+αnxn=0.

Si evaluamos la expresión anterior en x=1, casi todos los sumandos se anulan, excepto el último. De aquí, obtenemos que αn1n=0, de donde αn=0. La expresión se convierte entonces en α0(1x)n+α1x(1x)n1++αn1xn1(1x)=0.

Factorizando 1x de todos los sumandos y usando que el polinomio 1x0, podemos «cancelar» al factor 1x. En otras palabras, podemos «dividir» la combinación lineal entre 1x para obtener α0(1x)n1+α1x(1x)n2++αn1xn1=0.

De aquí podemos seguir aplicando el mismo argumento: evaluamos en 1, concluimos que el último coeficiente es igual a 0, y entonces podemos dividir subsecuentemente entre 1x. De esta forma, obtenemos αn=αn1==α0=0. Concluimos entonces que los polinomios propuestos son linealmente independientes, y por lo tanto forman una base de Rn[x].

◻

El argumento del último párrafo se puede formalizar todavía más usando inducción sobre n. Piensa en lo complicado que hubiera sido mostrar de manera directa que los polinomios propuestos generan a Rn[x]. Gracias a la proposición que discutimos al inicio, esto lo obtenemos de manera automática.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de combinaciones lineales, generadores e independientes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya hablamos de combinaciones lineales, de conjuntos generadores y de conjuntos independientes. Lo que haremos aquí es resolver problemas para reforzar el contenido de estos temas.

Problemas resueltos

Problema 1. Demuestra que el polinomio p(x)=x2+x+1 no puede ser escrito en el espacio vectorial R[x] como una combinación lineal de los polinomios p1(x)=x2xp2(x)=x21p3(x)=x1.

Solución. Para resolver este problema, podemos plantearlo en términos de sistemas de ecuaciones. Supongamos que existen reales a, b y c tales que p(x)=ap1(x)+bp2(x)+cp3(x).

Desarrollando la expresión, tendríamos que
x2+x+1=a(x2x)+b(x21)+c(x1)=(a+b)x2+(a+c)x+(bc),

de donde igualando coeficientes de términos del mismo grado, obtenemos el siguiente sistema de ecuaciones: {a+b=1a+c=1bc=1.

Para mostrar que este sistema de ecuaciones no tiene solución, le aplicaremos reducción gaussiana a la siguiente matriz extendida: (110110110111).

Tras la transvección R2+R1, obtenemos (110101120111).

Tras la transvección R3+R2, obtenemos (110101120003).

De aquí se ve que la forma escalonada reducida tendrá un pivote en la última columna. Por el teorema de existencia y unicidad el sistema original no tiene solución.

◻

En el problema anterior usamos un argumento de reducción gaussiana para mostrar que el sistema no tiene solución. Este es un método general que funciona en muchas ocasiones. Una solución más sencilla para ver que el sistema del problema no tiene solución es que al sumar las tres ecuaciones se obtiene 0=3.

Problema 2. Sea n un entero positivo. Sea W el subconjunto de vectores en Rn cuya suma de entradas es igual a 0. Sea Z el espacio generado por el vector (1,1,,1) de Rn. Determina si es cierto que Rn=WZ.

Solución. El espacio Z está generado por todas las combinaciones lineales que se pueden hacer con el vector v=(1,1,,1). Como sólo es un vector, las combinaciones lineales son de la forma av con a en R, de modo que Z es precisamente Z={(a,a,,a):aR}.

Para obtener la igualdad Rn=WZ, tienen que pasar las siguientes dos cosas (aquí estamos usando un resultado de la entrada de suma y suma directa de subespacios):

  • WZ={0}
  • W+Z=Rn

Veamos qué sucede con un vector v en WZ. Como está en Z, debe ser de la forma v=(a,a,,a). Como está en W, la suma de sus entradas debe ser igual a 0. En otras palabras, 0=a+a++a=na. Como n es un entero positivo, esta igualdad implica que a=0. De aquí obtenemos que v=(0,0,,0), y por lo tanto WZ={0}.

Veamos ahora si se cumple la igualdad Rn=W+Z. Por supuesto, se tiene que W+ZRn, pues los elementos de W y Z son vectores en Rn. Para que la igualdad RnW+Z se cumpla, tiene que pasar que cualquier vector v=(x1,,xn) en Rn se pueda escribir como suma de un vector w uno con suma de entradas 0 y un vector z con todas sus entradas iguales. Veamos que esto siempre se puede hacer.

Para hacerlo, sea S=x1++xn la suma de las entradas del vector v. Consideremos al vector w=(x1Sn,,xnSn) y al vector z=(Sn,,Sn).

Por un lado, z está en Z, pues todas sus entradas son iguales. Por otro lado, la suma de las entradas de w es
(x1Sn)++(xnSn)=(x1++xn)nSn=SS=0,

lo cual muestra que w está en W. Finalmente, notemos que la igualdad w+z=v se puede comprobar haciendo la suma entrada a entrada. Con esto mostramos que cualquier vector de V es suma de vectores en W y Z y por lo tanto concluimos la igualdad Rn=WZ.

◻

En el problema anterior puede parecer algo mágico la propuesta de vectores w y z. ¿Qué es lo que motiva la elección de Sn? Una forma de enfrentar los problemas de este estilo es utilizar la heurística de trabajar hacia atrás. Sabemos que el vector w debe tener todas sus entradas iguales a cierto número a y queremos que z=vw tenga suma de entradas igual a 0. La suma de las entradas de vw es (x1a)++(xna)=Sna. La elección de a=Sn está motivada en que queremos que esto sea cero.

Problema 3. Considera las siguientes tres matrices en M2(C):
A=(i323)B=(2i131)C=(i7127).

Demuestra que A, B y C son matrices linealmente dependientes. Da una combinación lineal no trivial de ellas que sea igual a 0.

Solución. Para mostrar que son linealmente dependientes, basta dar la combinación lineal no trivial buscada. Buscamos entonces a,b,c números complejos no cero tales que aA+bB+cC=O2, la matriz cero en M2(C). Para que se de esta igualdad, es necesario que suceda entrada a entrada. Tenemos entonces el siguiente sistema de ecuaciones:
{ia+2ib+ic=03a+b7c=02a+3b+12c=03ab+7c=0.

En este sistema de ecuaciones tenemos números complejos, pero se resuelve exactamente de la misma manera que en el caso real. Para ello, llevamos la matriz correspondiente al sistema a su forma escalonada reducida. Comenzamos dividiendo el primer renglón por i y aplicando transvecciones para hacer el resto de las entradas de la columna iguales a 0. Luego intercambiamos la tercera y cuarta filas.

(i2ii3172312317)(121051007140510)

Ahora reescalamos con factor 15 la segunda fila y hacemos transvecciones para hacer igual a cero el resto de entradas de la columna 2:

(103012000000)

Con esto llegamos a la forma escalonada reducida de la matriz. De acuerdo al procedimiento que discutimos en la entrada de sistemas lineales homogéneos, concluimos que las variables a y b son pivote y la variable c es libre. Para poner a a y b en términos de c, usamos la primera y segunda ecuaciones. Nos queda a=3cb=2c.

En resumen, concluimos que para cualqueir número complejo c en C se tiene la combinación lineal 3c(i323)2c(2i131)+c(i7127)=(0000).

Una posible combinación lineal no trivial se obtiene tomando c=1.

◻

En el problema anterior bastaba encontrar una combinación lineal no trivial para acabar el ejercicio. Por supuesto, esto también se puede hacer por prueba y error. Sin embargo, la solución que dimos da una manera sistemática de resolver problemas de este estilo.

Problema 4. Consideremos el espacio vectorial V de funciones f:RR. Para cada real a en (0,), definimos a la función faV dada por fa(x)=eax.

Tomemos reales distintos 0<a1<a2<<an. Supongamos que existe una combinación lineal de las funciones fa1,,fan que es igual a 0, es decir, que existen reales α1,,αn tales que α1ea1x+α2ea2x++αneanx=0 para todo real x0.

Muestra que α1==αn=0. Concluye que la familia (fa)aR es linealmente independiente en V.

Solución. Procedemos por inducción sobre n. Para n=1, si tenemos la igualdad αeax=0 para toda x, entonces α=0, pues eax siempre es un número positivo. Supongamos ahora que sabemos el resultado para cada que elijamos n1 reales cualesquiera. Probaremos el resultado para n reales cualesquiera.

Supongamos que tenemos la combinación lineal α1ea1x+α2ea2x++αneanx=0 para todo real x0.

Dividamos esta igualdad que tenemos entre eanx:

α1e(a1an)x+α2e(a2an)x++αn1e(an1an)x+αn=0.

¿Qué sucede cuando hacemos x? Cada uno de los sumandos de la forma αie(aian)x se hace cero, pues ai<an y entonces el exponente es negativo y se va a . De esta forma, queda la igualdad αn=0. Así, nuestra combinación lineal se ve ahora de la forma α1ea1x+α2ea2x++αn1ean1x=0.

Por la hipótesis inductiva, α1==αn1=0. Como también ya demostramos αn=0, hemos terminado el paso inductivo.

Concluimos que la familia (infinita) (fa)aR es linealmente independiente en V pues cualquier subconjunto finito de ella es linealmente independiente.

◻

El problema anterior muestra que la razón por la cual ciertos objetos son linealmente independientes puede deberse a una propiedad analítica o de cálculo. A veces dependiendo del contexto en el que estemos, hay que usar herramientas de ese contexto para probar afirmaciones de álgebra lineal.

Entradas relacionadas

Agradecimiento

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Suma y suma directa de subespacios

Por Ayax Calderón

Introducción

En esta entrada nos apoyaremos fuertemente en las nociones de espacios y subespacios vectoriales que estudiamos en entradas anteriores. Lo primero que haremos es hablar de cómo podemos sumar subespacios. Esta es una operación distinta a la suma del espacio vectorial, pues sucede en términos de subconjuntos. Luego, veremos cómo mediante una elección cuidadosa de subespacios, podemos expresar a un espacio vectorial en términos de la suma de subespacios más sencillos. A una descomposición de este tipo le llamamos suma directa. Estudiaremos también algunas de sus propiedades.

Suma de subespacios

En esta sección hablamos de cómo sumar subespacios de un espacio vectorial. Para entender la intuición, pensemos primero en el caso de dos subespacios W1 y W2 de un espacio vectorial. Queremos definir un conjunto W1+W2. Para hacer esto, lo que haremos es sumar cada elemento de W1 con cada elemento de W2.

Ejemplo. Si estamos en el espacio vectorial R3, podemos considerar los siguientes dos subespacios:
W1={(a,0,0):aR}W2={(0,b,0):bR}.

Para encontrar el conjunto W1+W2, lo que haremos es sumar a cada elemento de W1 con cada elemento de W2, considerando todas las posiblidades. En general, tenemos que una de estas sumas es de la forma (a,0,0)+(0,b,0)=(a,b,0). Así, concluimos que W1+W2={(a,b,0):a,bR}.

Para más subespacios la intuición es similar. A continuación damos la definición formal para la suma de una cantidad finita de subespacios.

Definición. Sea n un entero positivo y W1,W2,,Wn subespacios de un espacio vectorial V. Su suma W1+W2++Wn es el subconjunto de V que consiste de todos los vectores de la forma w1+w2++wn con wiWi para todo 1in.

La definición anterior sólo habla de cómo sumar una cantidad finita de subespacios. También se puede dar una definición para una familia arbitraria (Wi)iI de subespacios de V, pero tenemos que ser más cuidadosos para que la teoría posterior funcione bien. Lo que se hace es considerar todas las sumas «con una cantidad finita de términos». Esto lo decimos de manera formal como sigue. El conjunto iIWi consiste de todas las sumas iIwi con wiWi para todo iI y todos los vectores wi salvo una cantidad finita son iguales a cero. Esto ayuda a dar una definición incluso si I es finito.

La mayor parte de los resultados que demostraremos para la suma de una cantidad finita de subespacios también se vale para la suma de una cantidad infinita. Por simplicidad, usualmente nos enfocaremos en el caso finito, pero te recomendamos pensar en cómo serían los argumentos para el caso infinito.

La suma de subespacios es subespacio

El siguiente resultado dice que «la suma de subespacios es subespacio».

Proposición. Si W1,W2,,Wn son subespacios de un espacio vectorial V, entonces W1+W2++Wn es un subespacio de V.

Demostración. Para facilitar la escritura denotaremos S=W1+W2++Wn. Sean s,sS y c un escalar. Por una equivalencia de subespacios, basta demostrar que s+csS.

Por definición de S, existen w1,,wn,w1,,wn con wi,wiWi para 1in, tales que
s=w1+w2++wns=w1+w2++wn.
Entonces
s+cs=w1+w2++wn+c(w1+w2++wn)=w1+w2++wn+cw1+cw2++cwn=(w1+cw1)++(wn+cwn).
Como Wi es un subespacio de V y wi,wi son elementos de Wi, entonces (wi+cwi)Wi para cada 1in. Así, la expresión que encontramos es la suma de un vector en W1, uno en W2, … , uno en Wn y por lo tant s+csS. Esto muestra lo que queríamos y así S es subespacio de V.

◻

De hecho la suma de subespacios W1++Wn no sólo es un subespacio de V, sino que además es especial, en el sentido de que es el subespacio «más chiquito» de V que contiene a cada subespacio W1,,Wn. El siguiente problema enuncia esto de manera formal.

Problema. Sean W1,,Wn subespacios de un espacio vectorial V. Sea S=W1+W2++Wn. Demuestra que:

  • Para cada i=1,,n, se tiene que WiS.
  • Si se tiene un subespacio W tal que para cada i=1,,n se tiene que WiW entonces SW

Demostración.

  • En vista de que cada vector wiWi puede ser escrito como 0+0++0+wi+0++0 y 0i=1nWi, entonces WiW1++Wn para todo 1in.
  • Sea W un subespacio de V tal que W contiene a los subespacios W1,Wn. Mostremos que W contiene a la suma S. Sea vS=W1++Wn. Por definición, v=w1++wn para algunos wiWi. Como W contiene a los subespacios W1,Wn, entonces w1,wnW. Como W es cerrado bajo sumas (por ser subespacio) entonces w1++wnW y así W1++WnW.

◻

Subespacios en posición de suma directa

Ya definimos qué es la suma de subespacios. Ahora queremos definir qué es la suma directa. En realidad, la suma directa es simplemente una suma de subespacios en la que los subespacios son especiales en un sentido muy específico. Comenzamos dando esta definición. Es un concepto muy importante que nos será útil varias veces en el curso.

Definición. Sean W1,W2,,Wn subespacios de un espacio vectorial V. Decimos que W1,W2,,Wn están en posición de suma directa si la única forma de obtener la igualdad
w1+w2++wn=0
con wiWi para todo 1in, es cuando
w1=w2==wn=0.

Ejemplo. Consideremos el espacio vectorial de polinomios en R2[x], es decir, aquellos de la forma ax2+bx+c con a,b,c reales. Consideremos los siguientes subespacios de R2[x]:

W1={ax2:aR}W2={bx:bR}W3=R={c:cR}W4=R1[x]={bx+c:b,cR}W5={ax2+c:a,cR}W6={ax2+bx:a,bR}

Los tres subespacios W1,W2,W3 están en posición de suma directa, pues si tomamos ax2 en W1, bx en W2 y c en W3, la única forma de que su suma ax2+bx+c sea igual al polinomio cero es si a=b=c=0, y por lo tanto en realidad sólo estamos tomando el vector 0 de cada uno de los subespacios.

Los subespacios W4, W5 y W6 no están en posición de suma directa, pues hay formas de tomar elementos no cero en cada uno de ellos, cuya suma sí es el vector cero. Por ejemplo, el polinomio x8 está en W4, el polinomio 5x2+8 está en W5 y el polinomio 5x2x está en W6. Ninguno de estos vectores es el polinomio cero, pero la suma de los tres sí es cero.

◻

Existen otras manera de expresar la condición anterior, una de ellas es la siguiente.

Proposición. Los subespacios W1,Wn del espacio vectorial V están en posición de suma directa si y sólo si cada elemento de W1+W2++Wn puede ser escirto de manera única como una suma w1++wn con wiWi para todo 1in.

Demostración. Primero supongamos que los subespacios W1,W2,,Wn están en posición de suma directa y tomemos un elemento v de W1++Wn. Por definición, dicho elemento puede ser expresado como v=w1++wn con wiWi para todo 1in. Supongamos también que v puede ser escrito como v=w1++wn con wiWi. Queremos demostrar que wi=wi para todo 1in. Restando las dos relaciones anteriores se tiene
0=vv=i=1n(wiwi).
Sea ui=wiwi. Como Wi es subespacio de V, entonces es cerrado bajo inversos y bajo suma, por lo tanto uiWi. Así u1++un es una suma de elementos igual a cero.Como W1,,Wn están en posición de suma directa, entonces necesariamente u1==un=0 y así wi=wi para todo 1in.

Ahora supongamos que cada elemento de W1++Wn puede ser escrito de manera única como suma de elementos de W1,,Wn. En particular el cero se descompone de manera única como 0=0+0++0. De manera que dados wiWi con 1in tales que w1+w2++wn=0, necesariamente w1=w2==wn=0. Por lo tanto W1,W2,,Wn están en posición de suma directa.

◻

Suma directa de subespacios

Estamos listos para dar una definición clave.

Definición. a) Decimos que un espacio vectorial V es suma directa de sus subespacios W1,W2,,Wn si W1,W2,,Wn están en posición de suma directa y V=W1+W2++Wn. En símbolos, escribimos y escribimos
V=W1W2Wn.
b) Si V1,V2 son subespacios de un espacio vectorial V, decimos que V2 es complemento de V1 si
V=V1V2.

Por los resultados anteriores se tiene que V=W1Wn si y sólo si cada vector vV puede ser escrito de manera única como una suma de la forma w1++wn, con wiWi para todo i. Por consiguiente, si V1,V2 son subespacios de V, entonces V2 es complemento de V1 si y sólo si cada vector vV puede ser escrito de manera única como v=v1+v2 con v1V1,v2V2.

El siguiente resultado es extremadamente útil a la hora de resolver problemas con sumas directas con dos subespacios.

Problema. Demuestra que V2 es complemento de V1 si y sólo si V1+V2=V y V1V2={0}.

Demostración. Supongamos que V2 es complemento de V1, entonces V=V1+V2. Falta mostrar que V1V2={0}.

Sea vV1V2, entonces v=v+0=0+v, y por la unicidad que ya se demostró en la proposición anterior se tiene que v=0, entonces V1V2{0}. Como V1,V2 son subespacios de V, cada uno de ellos tiene al vector 0. Así, {0}V1V2. Por lo tanto V1V2={0}.

Ahora supongamos que V1+V2=V y V1V2={0}. Supongamos que existe un vector vV tal que
v1+v2=v=v1+v2
con v1,v1V1 y v2,v2V2.
Entonces
v1v1=v2v2
El lado izquierdo de la igualdad anterior pertenece a V1, mientras que el lado derecho pertenece a V2, pero como son iguales, necesariamente ambos pertencen a V1V2={0} y así v1=v1 y v2=v2, que es lo que queríamos demostrar.

◻

Más ejemplos de suma y suma directa de subespacios.

  1. El espacio vectorial V=R2 es suma directa de los subespacios
    V1={(x,0)|xR}
    y
    V2={(0,y)|yR}.
    En efecto, cada (x,y)R2 puede ser escrito de manera única en la forma
    (a,0)+(0,b)
    via a=x,b=y.
  2. Sea V=Mn(R) el espacio vectorial de las matrices de n×n con entradas reales. Si V1,V2 son los subespacios de las matrices simétricas y de las matrices antisimétricas, respectivamente, entonces V=V1V2.
    En efecto, cada matriz AV puede ser escrita de manera única como suma de una matriz simétrica y de una matriz antisimétrica de la siguiente forma:
    A=B+C con
    B=12(A+ tA)C=12(A tA).
  3. Sea V={f:RR} el espacio vectorial de funciones de R en R. Sea V1 el subespacio de todas las funciones pares (recuerda que una función es par si satisface f(x)=f(x) para toda x) y V2 el subespacio de todas las funciones impares (las que satisfacen f(x)=f(x) para toda x).
    Entonces V=V1V2.
    En efecto, dada fV, la única manera de expresarla como f=g+h con g par y h impar es tomando
    g(x)=f(x)+f(x)2yh(x)=f(x)f(x)2.

◻

Un problema de suma directa de subespacios

Problema. Sea V={f:[1,1]R:f es continua}. Sean
V1={fV:11f(t)dt=0}
y V2 el subconjunto de V de todas las funciones constantes.
a) Demuestra que V1,V2 son subespacios de V.
b) Demuestra que V=V1V2.

Demostración. a) Sean f1,f2V1 y cR, entonces cf1+f2 es continua y
11(cf1+f2)(t)dt=c11f1(t)dt+11f2(t)dt=0,
por lo tanto cf1+f2V1 y así V1 es un subespacio de V.

De manera similar veamos que V2 es subespacio. Sean f,gV2 y cR, entonces f(x)=a y g(x)=b para toda x. Luego
(f+cg)(x)=a+cb
para toda x. Por lo tanto V2 es subespacio de V.

b) Por el problema de la sección anterior, basta con demostrar que V1V2={0} y V=V1+V2. Sea f una función en V1V2. Por un lado tenemos que f es constante, y por otro lado que f integra 0 sobre [1,1] Digamos que f(t)=c para todo t[1,1], entonces
0=11f(t)dt=2c.
De aquí, c=0 y así f=0 (la función cero). Por lo tanto V1V2={0}.

Ahora, para probar que V=V1+V2 tomamos fV y tratemos de escribirla como f=c+g con c constante y gV1. Queremos asegurarnos de que
11g(t)dt=0,
esto es
11(f(t)c)dt=011f(t)dt=2c.
Esto ya nos dice cómo proponer a c y a g. Lo hacemos a continuación.
c=1211f(t)dtg=fc.

◻

Más adelante…

Los conceptos de suma y suma de subespacios serán utilizados repetidamente. Por ejemplo, a partir de la suma de subespacios se pueden definir las proyecciones, un tipo de transformaciones lineales particulares.

El concepto de suma directa de subespacios también es muy importante en el sentido de que permite descomponer a un espacio en espacios vectoriales más pequeños. Esta idea será de mucha utilidad cuando hablemos de la teoría de dualidad y de diagonalización de matrices.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica en todos los ejemplos de la entrada que los subespacios que se mencionan en efecto son subespacios.
  • Sea V el conjunto de las matrices triangulares superiores de n×n y sea W1 el espacio de las matrices diagonales. Demuestra que V es espacio vectorial, W1 es subespacio de V y que V=W1W2, donde W2={AV|Aij=0 cuando ij}.
  • Sea F un campo de característica distinta de 2,
    W1={AMn(F)|Aij=0,ij}
    y W2 el conjunto de todas las matrices simétricas de n×n con entradas en F. Demuestra que Mn(F)=W1W2
  • En el ejemplo 2, verifica que B es una matriz simétrica y C una matriz antisimétrica.
  • En el ejemplo 3 ,verifica g es par y h es impar.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de espacios, subespacios y sumas directas

Por Julio Sampietro

Introducción

En esta entrada resolvemos más problemas para reforzar y aclarar los conceptos vistos anteriormente. Específicamente, resolvemos problemas acerca de espacios vectoriales, subespacios vectoriales y sumas directas.

Problemas resueltos

Problema 1. Muestra que el conjunto de las funciones continuas f:[0,1]R tales que f(12)=0 con las operaciones usuales es un espacio vectorial.

Solución: Primero observamos que nuestras operaciones están bien definidas: sabemos que la suma de funciones continuas es continua y si f es continua y λR es un escalar, entonces λf es continua. Más aún, si f(12)=0 y g(12)=0, entonces (f+g)(12)=f(12)+g(12)=0+0=0 y λf(12)=λ0=0. En otras palabras, estos argumentos muestran que el conjunto es cerrado bajo las operaciones propuestas.

Ahora veamos que se cumplen los axiomas de espacio vectorial. Recuerda que para mostrar la igualdad de dos funciones, basta con mostrar que son iguales al evaluarlas en cada uno de los elementos de su dominio. En las siguientes demostraciones, x es un real arbitrario en [0,1]

  1. Si f,g,h son parte de nuestro conjunto, entonces
    (f+(g+h))(x)=f(x)+(g+h)(x)=f(x)+g(x)+h(x)=(f+g)(x)+h(x)=((f+g)+h)(x).
    Aquí estamos usando la asociatividad de la suma en R
  2. Si f,g son como en las condiciones, dado que la suma en números reales es conmutativa, (f+g)(x)=f(x)+g(x)=g(x)+f(x)=(g+f)(x).
  3. La función constante 0 es un neutro para la suma. Sí está en el conjunto pues la función 0 en cualquier número (en particular en 12) tiene evaluación 0.
  4. Dada f continua que se anula en 12, f también es continua y se anula en 12 y f+(f)=(f)+f=0.
  5. Si a,bR entonces a(bf)(x)=a(bf(x))=(ab)f(x), por la asociatividad del producto en R.
  6. Es claro que la constante 1 satisface que 1f=f, pues 1 es una identidad para el producto en R.
  7. (a+b)f(x)=af(x)+bf(x), por la distributividad de la suma en R
  8. a(f+g)(x)=a(f(x)+g(x))=af(x)+ag(x), también por la distributividad de la suma en R.

Observa como las propiedades se heredan de las propiedades de los números reales: En cada punto usamos que las operaciones se definen puntualmente, luego aplicamos las propiedades para los números reales, y luego concluimos el resultado (como por ejemplo, en la prueba de la conmutatividad).

◻

Problema 2. Muestra que ninguno de los siguientes es un subespacio vectorial de R3.

  1. El conjunto U de los vectores x=(x1,x2,x3) tales que x12+x22+x32=1.
  2. El conjunto V de todos los vectores en R3 con números enteros por coordenadas.
  3. El conjunto W de todos los vectores en R3 que tienen al menos una coordenada igual a cero.

Solución:

  1. Notamos que el conjunto U no es cerrado bajo sumas: En efecto, el vector (1,0,0)U, pues 12+02+02=1, así como (1,0,0)U, pues (1)2+02+02=1. Sin embargo su suma es (0,0,0), que no es un elemento de U.
  2. Mientras que V si es cerrado bajo sumas, no es cerrado bajo producto por escalares. Por ejemplo, (2,8,1)V, sin embargo 12(2,8,1)=(1,4,12)V, pues la última coordenada no es un número entero.
  3. El conjunto si es cerrado bajo producto por escalares, pero no bajo sumas: Tomando (1,1,0) y (0,0,1) en W, tenemos que (1,1,0)+(0,0,1)=(1,1,1)W.

◻

Problema 3. Sea V el conjunto de todas las funciones f:RR dos veces diferenciables (es decir, que tienen segunda derivada) que cumplen para todo xR:

f»(x)+x2f(x)3f(x)=0.

¿Es V un subespacio de las funciones de R en R ?

Solución: En efecto, podemos verificar que V cumple las condiciones de subespacio:

  1. Observamos que la función f0 es dos veces diferenciable y satisface
    f»(x)+x2f(x)3f(x)=0+x2030=0.
    Es decir 0V. Esto muestra que V es no vacío.
  2. Sean f,gV. Sabemos que entonces f+g también es dos veces diferenciable (por ejemplo, de un curso de cálculo). Además
    (f+g)»(x)+x2(f+g)(x)3(f+g)(x)=f»(x)+g»(x)+x2f(x)+x2g(x)3f(x)3g(x)=f»(x)+x2f(x)3f(x)+g»(x)+x2g(x)3g(x)=0+0=0.
    Así f+gV.
  3. Finalmente sea fV y sea λR un escalar. Sabemos que λf es dos veces diferenciable, y además
    (λf)»(x)+x2(λf)(x)3(λf)(x)=λf»(x)+λx2f(x)λ3f(x)=λ(f»(x)+x2f(x)3f(x))=λ0=0.
    Luego λfV.

◻

El ejemplo anterior es crucial para la intuición de tu formación matemática posterior. En él aparece una ecuación diferencial lineal homogénea. La moraleja es que «las soluciones a una ecuación diferencial lineal homogénea son un subespacio vectorial». En este curso no nos enfocaremos en cómo resolver estas ecuaciones, pues esto corresponde a un curso del tema. Sin embargo, lo que aprendas de álgebra lineal te ayudará mucho para cuando llegues a ese punto.

Problema 4. Sea V el espacio de todas las funciones de R en R y sea W el subconjunto de V formado por todas las funciones f tales que f(0)+f(1)=0.

  1. Verifica que W es un subespacio de V.
  2. Encuentra un subespacio S de W tal que V=WS.

Solución:

  1. Verificamos los axiomas de subespacio vectorial:
    1. Tenemos que 0W, pues 0(0)+0(1)=0+0=0. Entonces W no es vacío.
    2. Si f,gW entonces (f+g)(0)+(f+g)(1)=f(1)+f(0)+g(1)+g(0)=0+0=0.
    3. Si fW y λR entonces λf(0)+λf(1)=λ(f(0)+f(1))=λ0=0.
  2. Proponemos S como el subespacio de todas las funciones h tales que h(x)=ax con aR. Verifiquemos que V=WS.
    1. Si FWS entonces F(0)+F(1)=0, es decir F(0)=F(1), pero como F(x)=ax para algún aR entonces F(0)=0=F(1)=a. Luego F(x)=0x=0.
    2. Dada fV, definimos
      f^(x)=f(x)(f(0)+f(1))x.
      Observamos que f^W, pues
      f^(0)+f^(1)=f(0)+f(1)f(0)f(1)=0.
      Además es claro que
      f(x)=f(x)(f(0)+f(1))x+(f(0)+f(1))x=f^(x)+(f(0)+f(1))x
      donde el sumando de la derecha es de la forma ax. Así S+W=V.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

Sea A un conjunto no vacío. Sea P(A) el conjunto de todos los subconjuntos de A. Definimos las siguientes operaciones:
X+Y=XΔY,1X=X,0X=,
dónde Δ denota la operación de diferencia simétrica. Demuestra que así definido, P(A) es un espacio vectorial sobre el campo de dos elementos F2.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»