Álgebra Lineal I: Conjuntos generadores e independencia lineal

Por Ayax Calderón

Introducción

En esta entrada explicaremos cómo podemos estudiar espacios y subespacios vectoriales a partir de conjuntos más pequeños que guardan la información más relevante de ellos. A estos conjuntos les llamaremos generadores. Además estudiaremos el concepto de independencia lineal. A grandes rasgos podemos decir que un conjunto es linealmente independiente cuando no tiene «elementos redundantes» que se pueden obtener a partir de otros en el conjunto. En ambos casos, nos basaremos fuertemente en el concepto de combinaciones lineales que ya discutimos anteriormente.

Conjuntos generadores

El inciso (1) de la siguiente definición ya lo mencionamos parcialmente en una entrada anterior, para un conjunto finito de vectores. Aquí lo enunciamos de modo que también aplique para conjuntos posiblemente infinitos.

Definición. Sea V un espacio vectorial sobre F y S un subconjunto de V.

  1. El subespacio generado por S es el subconjunto de V que consiste de todas las combinaciones lineales c1v1+c2v2++cnvn, donde v1,v2,,vn es un subconjunto finito de S y c1,c2,,cn son escalares en F. Al subespacio generado de S lo denotamos por span(S). A menudo nos referiremos al subespacio generado de S simplemente como «el generado de S».
  2. b) Decimos que S es un conjunto generador de V si span(S)=V.

En otras palabras, un subconjunto S de V es generador cuando cualquier elemento de V se puede escribir como una combinación lineal de elementos de S.

Ejemplos.

  1. Considera el espacio vectorial R3 y el conjunto
    e1=(100),e2=(010),e3=(001).
    Entonces e1,e2,e3 forma un conjunto generador de R3, pues cada vector X=(xyz) se puede escribir como X=xe1+ye2+ze3. Sin embargo, el conjunto conformado por únicamente e2 y e3 no es generador pues, por ejemplo, el vector (1,1,1) no puede ser escrito como combinación lineal de ellos.
  2. Sea Rn[x] el espacio de los polinomios con coeficientes reales y de grado a los más n. La familia 1,x,,xn es un conjunto generador.
  3. Considera el espacio Mm,n(F). Sea Eij la matriz cuya entrada (i,j) es 1 y todas sus demás entradas son 0. Entonces la familia (Eij)1im,1jn es un conjunto generador de V, pues cada matriz A=[aij] puede ser escrita como
    A=i=1mj=1naijEij.
    Este ejemplo lo discutimos anteriormente, cuando hablamos de matrices y sus operaciones.
  4. Para dar un ejemplo donde un conjunto generador consiste de una cantidad infinita de elementos, considera el espacio R[x] de polinomios. En este caso, el conjunto {xi:i0} de todas las potencias de x es un conjunto generador. Seria imposible tener un conjunto generador finito para R[x] pues si ese conjunto es S y el grado máximo de un polinomio en S es M, entonces no podremos obtener al polinomio xM+1 como combinación lineal de elementos de S.

Reducción gaussiana y conjuntos generadores

Cuando estamos en el espacio vectorial Fn, la reducción gaussiana también resulta muy útil a la hora de estudiar el subespacio generado por los ciertos vectores v1,v2,,vk. Considera la matriz AMk,n(F) obtenida por poner como vectores fila a v1,v2,,vk en la base canónica de Fn . Hacer operaciones elementales sobre los renglones de A no altera el subespacio generado por sus renglones, de manera que span(v1,,vk) es precisamente el subespacio generado los renglones de Ared. Esto nos da una manera más sencilla de entender a span(v1,,vk).

Ejemplo. Considera los vectores v1=(1,2,6),v2=(1,3,2),v3=(0,5,8) en R3. Queremos encontrar una manera sencilla de expresar V=span(v1,v2,v3).
Considera la matriz
A=(126132058).
Aplicando el algortimo de reducción gaussiana (manualmente o con una calculadora online) llegamos a que
Ared=(101450185000).
De manera que
V=span((1,0,145),(0,1,85)).

Siendo más explícitos todavía, V es entonces el conjunto de vectores de R3 de la forma a(1,0,145)+b(0,1,85)=(a,b,14a+8b5).

Independencia lineal

Sean V un espacio vectorial sobre un campo F, v1,,vnV y vspan(v1,,vn). Por definición, existen escalares c1,c2,,cn en F tales que
v=c1v1+c2v2++cnvn.

No hay algo en la definición de subespacio generado que nos indique que los escalares deben ser únicos, y en muchas ocasiones no lo son.

Problema. Sean v1,v2,v3 tres vectores en Rn tales que 3v1+v2+v3=0 y sea v=v1+v22v3. Encuentra una infinidad de maneras de expresar a v como combinación lineal de v1,v2,v3.

Solución. Sea αR. Multiplicando por α la igualdad 3v1+v2+v3=0 y sumando la igualdad v1+v2+v3=v se sigue que
v=(3α+1)v1+(α+1)v2+(α2)v3.
Así, para cada αR hay una manera diferente de expresar a v como combinación lineal de v1,v2,v3.

Supongamos ahora que el vector v puede ser escrito como v=a1v1+a2v2++anvn. Si b1,b2,,bn son otros escalares tales que v=b1v1+b2v2++bnvn, entonces al restar la segunda relación de la primera obtenemos
0=(a1b1)v1+(a2b2)v2++(anbn)vn.
De manera que podríamos concluir que los escalares a1,a2,,an son únicos si la ecuación
z1v1+z2v2++znvn=0
implica z1=z2==zn=0 (con z1,,znF), pero este no siempre es el caso (ejemplo de ello es el problema anterior).

Los vectores v1,v2,,vn que tienen la propiedad de generar a los vectores en span(v1,,vn) de manera única de suma importancia en el álgebra lineal y merecen un nombre formal.

Definición. Sea V un espacio vectorial sobre el campo F.
a) Decimos que los vectores v1,v2,,vnV son linealmente dependientes si existe una relación
c1v1+c2v2++cnvn=0
para la cual c1,c2,,cn son escalares de F y alguno es distinto de cero.
b) Decimos que los vectores v1,v2,,vnV son linealmente independientes si no son linealmente dependientes, es decir, si la relación
a1v1+a2v2++anvn=0
implica que a1=a2==an=0.

La discusión previa a la definición muestra que un vector en span(v1,,vn) puede ser escrito de manera única como combinación lineal de los vectores v1,,vn si y sólo si estos vectores son linealmente independientes.

Ejemplos de dependencia e independencia lineal

Ejemplo 1. Las matrices A=(100100), B=(100110) y C=(000011) son linealmente independientes en M2,3(R). Verifiquemos esto. Supongamos que hay una combinación lineal de ellas igual a cero, es decir, que existen reales a,b,c tales que aA+bB+cC=O2,3. Obtenemos entonces que (a+b00a+bb+cc)=(000000).

De la entrada (2,3) obtenemos que c=0. Así, de la entrada (2,2) obtenemos que b=0 y consecuentemente, de la entrada (1,1) obtenemos que a=0. De esta forma, la única combinación lineal de las matrices A, B y C que da 0 es cuando los coeficientes son iguales a cero. Concluimos que A, B y C son linealmente independientes.

Ejemplo 2. Considera el espacio vectorial V de funciones de [0,1] a R. Demuestra que las funciones f(x)=sin2(x), g(x)=3cos2(x), m(x)=x2 y h(x)=5. Veremos que estas funciones son linealmente dependientes. Para ello, debemos encontrar reales a,b,c,d no todos ellos iguales a cero tales que af+bg+cm+dh=0, es decir, tales que para todo x en el intervalo [0,1] se cumpla que asin2(x)+3bcos2(x)+cx25d=0.

Proponemos a=1, b=13, c=0 y d=15. Notemos que con esta elección de coeficientes tenemos por la identidad pitagórica que
sin2(x)+cos2(x)1=0.

Hemos encontrado coeficientes, no todos ellos iguales a cero, tales que una combinación lineal de las funciones es igual a la función cero. Concluimos que las funciones son linealmente dependientes.

◻

Reducción gaussiana e independencia lineal

Ahora estudiaremos una técnica para estudiar la independencia lineal. Esta nos permitirá determinar si dados algunos vectores v1,v2,vkFn, estos son linealmente independientes. Veamos que este problema puede ser resuelto de manera sencilla por medio de un algoritmo. En efecto, necesitamos saber si podemos encontrar x1,,xkF no todos iguales a 0 y tales que
x1v1++xnvn=0.

Sea A de n×k la matriz cuyas columnas están dadas por los vectores v1,,vk. Entonces la relación anterior es equivalente al sistema AX=0, donde X es el vector columna con coordenadas x1,,xk.Por lo tanto los vectores v1,,vk son linealmente independientes si y sólo si el sistema homogéneo AX=0 únicamente tiene a la solución trivial.

Como ya vimos anteriormente, este problema se puede resolver mediante el algoritmo de reducción gaussiana: Sea Ared la forma escalonada reducida de A. Si existe un pivote en cada columna de Ared, entonces no hay variables libres y la solución al sistema únicamente es el vector cero. Así, v1,,vk son linealmente independientes. De lo contrario son linealmente dependientes. Siguiendo este procedimiento, es posible resolver el problema original de manera algorítimica.

Otra cosa importante que podemos deducir a partir de este análisis es que como un sistema lineal homogéneo con más variables que ecuaciones siempre tiene una solución no trivial, entonces si tenemos más de n vectores en Fn, estos nunca serán linealmente independientes.

Problema 1. Considera los vectores
v1=(1,2,3,4,5)v2=(2,3,4,5,1)v3=(1,3,5,7,9)v4=(3,5,7,9,1) en R5. ¿Son linealmente independientes? Si la respuesta es negativa, da una relación no trivial de dependencia lineal entre estos vectores.

Solución. Consideremos la matriz cuyas columnas son los vectores v1,,v4
A=(12132335345745795191).
Aplicando reducción gaussiana obtenemos
Ared=(10020102001100000000).

Como no hay pivote en la última columna, ésta corresponde a una variable libre. Así, habrá por lo menos una solución no trivial y entonces los vectores v1,v2,v3,v4 son linealmente dependientes.

Para encontrar la relación no trivial de dependencia lineal resolvemos el sistema AX=0, el cual es equivalente al sistema AredX=0. De la matriz anterior obtenemos las siguientes igualdades
x1=2x4,,x2=2x4,x3=x4.
Tomando x4=1 (de hecho podemos asignarle cualquier valor distinto de cero), obtenemos la relación de dependencia lineal
2v12v2v3+v4=0.

Hagamos otro problema en el que la técnica anterior nos ayuda a estudiar la independencia lineal.

Problema 2. Demuestra que los vectores
v1=(2,1,3,1),v2=(1,0,1,2),v3=(3,2,7,4),v4=(1,2,0,1),
son linealmente dependientes y encuentra tres de ellos que sean linealmente independientes.

Solución. Sea A la matriz cuyas columnas son los vectores v1,,v4
A=(2131102231701241).

Aplicando reducción gaussiana obtenemos
Ared=(1020011000010000).
Como la tercera columna de Ared no tiene al pivote de ninguna fila, deducimos que los cuatro vectores son linealmente dependientes.

Si eliminamos la tercera columna, entonces la matriz que queda es la forma escalonada reducida correspondiente al conjunto {v1,v2,v4}. Como esta matriz sí tiene pivotes de filas en cada columna, concluimos que este es un conjunto de vectores linealmente independientes.

◻

Independencia lineal de conjuntos infinitos

Hasta este momento hemos trabajado únicamente con familias finitas de vectores, así que es natural preguntarse qué procede con las familias infinitas. Con la definición que tenemos, si tomamos una familia infinita de vectores (vi)iI no podríamos darle algún significado a la suma infinita iIcivi para cualquier toda elección de escalares ci, pues en espacios vectoriales no está en general definido cómo hacer una suma infinita. Sin embargo, si todos salvo una cantidad finita de escalares son 0, entonces la suma anterior sería una suma finita y ya tendría sentido.

De esta manera, podemos extender la definición como sigue.

Definición. La familia (vi)iI es linealmente dependiente si existe una familia de escalares (ci)iI tales que todos salvo una cantidad finita de ellos son cero, pero al menos uno no es cero y que iIcivi=0.

De manera equivalente y para simplificar el razonamiento anterior podemos decir que una familia arbitraria de vectores es linealmente dependiente si tiene una subfamilia finita linealmente dependiente. Una familia de vectores es linealmente independiente si toda subfamilia finita es linealmente independiente. Por lo tanto, un conjunto L (posiblemente infinito) es linealmente independiente si dados elementos distintos l1,,lnL y escalares a1,a2,,an con a1l1+a2l2++anln=0, entonces a1=a2==an=0.

Observación. a) Una subfamilia de una familia linealmente independiente es linealmente independiente. En efecto, sea (vi)iI una familia linealmente independiente y sea JI. Supongamos que (vi)iJ es linealmente dependiente. Entonces existe una subfamilia finita linealmente dependiente vi1,,vin con i1,,inJ, pero i1,,inI, entonces vi1,,vin es una subfamilia finita y linealmente dependiente de una familia linealmente independiente lo cual es una contradicción.
b) Si dos vectores de una familia son iguales, entonces automáticamente la familia es linealmente dependiente.

◻

Más adelante veremos ejemplos de generadores y de independencia lineal con familias infinitas de vectores.

Una relación entre independencia lineal y generados

Podemos relacionar las nociones de subespacio generado y de independencia lineal con la siguiente proposición. Básicamente nos dice que un conjunto {v1,,vn} es linealmente dependiente si y sólo si alguno sus elementos se puede expresar como combinación lineal de los demás.

Es importante mencionar que usamos la palabra «conjunto» y no «familia», puesto que con la primera nos referimos a que los vectores son distintos dos a dos, mientras que con la segunda sí pueden haber repeticiones.

Proposición. Sea S un conjunto de vectores en algún espacio vectorial V. Entonces S es linealmente dependiente si y sólo si existe vS tal que vspan(S{v}).

Demostración. Supongamos que S es linealmente dependiente. Entonces existe una cantidad finita de vectores v1,v2,,vnS y algunos escalares a1,a2,,an no todos iguales a 0, tales que
a1v1+a2v2++anvn=0.
Notemos que v1,,vn son distintos dos a dos, pues estamos suponiendo que los elementos de S también lo son.

Como no todos los escalares son 0, existe i{1,2,,n} tal que ai0. Dividiendo la igualdad anterior entre ai, obtenemos
a1aiv1++ai1aivi1+vi+ai+1aivi+1++anaivn=0,
por consiguiente
vi=a1aiv1ai1aivi1ai+1aivi+1anaivn.

De lo anterior se sigue que vi pertenece al generado de v1,,vi1,vi+1,,vn, el cual está contenido en span(S{vi}), pues {v1,,vi1,vi+1,,vn}S{vi}. Esto prueba una implicación.

Para la otra implicación, supongamos que existe vS tal que vspan(S{v}). Esto significa que existen v1,v2,,vnS{v} y escalares a1,a2,,an tales que
v=a1v1+a2v2++anvn.
Pero entonces
1v+(a1)v1++(an)vn=0
y los vectores v,v1,,vn son linealmente dependientes pues por lo menos el primer coeficiente es distinto de cero. Como v no está en {v1,,vn}, se sigue que S tiene un subconjunto finito que es linealmente dependiente y por lo tanto S también lo es.

◻

Más adelante…

Aquí ya hablamos de conjuntos generadores y de linealmente independientes. La entrada teórica que sigue es crucial y en ella se verá y formalizará la intuición de que los conjuntos generadores deben ser «grandes», mientras que los independientes deben ser «chicos». El resultado clave es el lema de intercambio de Steinitz.

Cuando un conjunto de vectores es tanto generador, como linealmente independiente, está en un equilibrio que ayuda a describir una propiedad muy importante de un espacio vectorial: la de dimensión.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Decide si el conjunto con las matrices (0100), (0101), (0111) y (1111) es un conjunto generador de M2(R).
  • Sean S1 y S2 subconjuntos de un subespacio vectorial V tales que S1S2. Demuestra que span(S1)span(S2). Concluye que si S1 es generador, entonces S2 también lo es
  • Demuestra la observación b).
  • Da un conjunto de 3 vectores de R3 linealmente independientes y tales que ninguna de sus entradas es 0. Haz lo mismo para linealmente dependientes.
  • Sean f,g:RR funciones definidas por
    f(t)=ert,g(t)=est
    con rs. Demuestra que f y g son linealmente independientes en F(R,R), el espacio de las funciones de los reales en los reales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

12 comentarios en “Álgebra Lineal I: Conjuntos generadores e independencia lineal

  1. Daniela Torija

    Hola, buenos días.
    En la parte de conjuntos generados,en el tercer ejemplo dice que la familia de las matrices canónicas de tamaño m x n es un conjunto generado de V, ¿en este caso también pasa que esta misma familia es el generador de V cuando V es el espacio de todas las matrices de m x n en F?.
    Gracias.

    Responder
    1. Ayax Calderón Autor

      Hola Daniela,
      Quise decir que el conjunto de las matrices canónicas genera a V, ya lo corregí. Gracias por la observación.

      Responder
      1. Daniela Torija

        Gracias por la aclaración.
        Perdón, otra pregunta, en la parte antes de la definición de dependencia lineal, ¿quienes son los z_{i}?
        Gracias de nuevo.

      1. Daniela Torija

        ¿Pero están en términos de los a_{i} o los b_{i}?.
        Me perdí un poco en ese paso, de donde se tiene que 0=(a_1-b_1)v1+…+(a_n+b_n)vn y de ahí pasa a los z_{i}.

      2. Ayax Calderón Autor

        No están en términos de los a__i ni b_i, lo único que estamos diciendo es que la única manera de garantizar que los escalares que te dan la combinación lineal igual a cero son únicos solamente todos son cero, es decir, si los vectores son linealmente independientes.

  2. Vale Sauz

    hola, una pregunta
    por qué en el primer ejemplo de reducción gaussiana y conjuntos generadores, tenemos v1, v2 y v3, y a la hora de pasarlo a una matriz, éstos los acomodamos como vectores filas
    pero en otras entradas, e incluso en ésta, en el problema de reducción gaussiana e independencia lineal, tenermos v1,v2,v3 y v4 y estos los acomodamos en vector columna?
    entonces, no entiendo como deben ir acomodados ya que según yo, no es lo mismo acomodarlos en vector columna que en vector fila

    Responder
    1. Ayax Calderón Autor

      Tienes razón, no es lo mismo acomodarlos como filas que como columnas, pero para algunas cosas es indistinto, una de ellas es para ver si loas vectores son linealemente independientes, que es lo que buscabamos en este ejercicio.

      Responder
  3. JP Antuna

    En el primer ejemplo de conjuntos generadores hay un error:
    En una parte dice «[…]el polinomio (1,1,1)…»; debe ser «[…]el vector (1,1,1)…», ¿no?

    Responder
  4. Daniela Torija

    Buenas noches.
    En la parte donde nos dice que podemos considerar al sistema Ax=0, nos dice que los vectores serán linealmente independientes si y sólo si el sistema homogéneo tiene una solución no trivial. Este no sería el caso para que sean linealmente dependientes?
    Según entiendo que para que sean linealmente independientes, la solución al sistema Ax=0 debe ser la solución trivial.
    Gracias

    Responder
    1. Leonardo Ignacio Martínez SandovalLeo

      Hola Daniela. En efecto, ahí hay un error. Debe decir «si y śolo si no tiene solución más que la trivial». Gracias por la lectura atenta, lo corregimos.

      Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.