Álgebra Lineal I: Conjuntos generadores e independencia lineal

Introducción

En esta entrada explicaremos cómo podemos estudiar espacios y subespacios vectoriales a partir de conjuntos más pequeños que guardan la información más relevante de ellos. A estos conjuntos les llamaremos generadores. Además estudiaremos el concepto de independencia lineal. A grandes rasgos podemos decir que un conjunto es linealmente independiente cuando no tiene “elementos redundantes” que se pueden obtener a partir de otros en el conjunto. En ambos casos, nos basaremos fuertemente en el concepto de combinaciones lineales que ya discutimos anteriormente.

Conjuntos generadores

El inciso (1) de la siguiente definición ya lo mencionamos parcialmente en una entrada anterior, para un conjunto finito de vectores. Aquí lo enunciamos de modo que también aplique para conjuntos posiblemente infinitos.

Definición. Sea V un espacio vectorial sobre F y S un subconjunto de V.

  1. El subespacio generado por S es el subconjunto de V que consiste de todas las combinaciones lineales c_1v_1+c_2v_2+\dots + c_nv_n, donde v_1,v_2,\dots,v_n es un subconjunto finito de S y c_1,c_2, \dots , c_n son escalares en F. Al subespacio generado de S lo denotamos por \text{span}(S). A menudo nos referiremos al subespacio generado de S simplemente como “el generado de S.
  2. b) Decimos que S es un conjunto generador de V si \text{span}(S)=V.

En otras palabras, un subconjunto S de V es generador cuando cualquier elemento de V se puede escribir como una combinación lineal de elementos de S.

Ejemplos.

  1. Considera el espacio vectorial \mathbb{R}^3 y el conjunto

        \begin{align*}e_1=\begin{pmatrix}1\\0\\0\end{pmatrix}, \hspace{2mm} e_2=\begin{pmatrix}0\\1\\0\end{pmatrix}, \hspace{2mm} e_3=\begin{pmatrix}0\\0\\1\end{pmatrix}.\end{align*}


    Entonces e_1,e_2,e_3 forma un conjunto generador de \mathbb{R}^3, pues cada vector X=\begin{pmatrix}x\\y\\z\end{pmatrix} se puede escribir como X=xe_1+ye_2+ze_3. Sin embargo, el conjunto conformado por únicamente e_2 y e_3 no es generador pues, por ejemplo, el vector (1,1,1) no puede ser escrito como combinación lineal de ellos.
  2. Sea \mathbb{R}_n[x] el espacio de los polinomios con coeficientes reales y de grado a los más n. La familia 1,x,\dots, x^n es un conjunto generador.
  3. Considera el espacio M_{m,n}(F). Sea E_{ij} la matriz cuya entrada (i,j) es 1 y todas sus demás entradas son 0. Entonces la familia (E_{ij})_{1\leq i\leq m, 1\leq j \leq n} es un conjunto generador de V, pues cada matriz A=[a_{ij}] puede ser escrita como

        \begin{align*}A=\displaystyle\sum_{i=1}^m \displaystyle\sum_{j=1}^n a_{ij}E_{ij}.\end{align*}


    Este ejemplo lo discutimos anteriormente, cuando hablamos de matrices y sus operaciones.
  4. Para dar un ejemplo donde un conjunto generador consiste de una cantidad infinita de elementos, considera el espacio \mathbb{R}[x] de polinomios. En este caso, el conjunto \{x^i: i \geq 0\} de todas las potencias de x es un conjunto generador. Seria imposible tener un conjunto generador finito para \mathbb{R}[x] pues si ese conjunto es S y el grado máximo de un polinomio en S es M, entonces no podremos obtener al polinomio x^{M+1} como combinación lineal de elementos de S.

\square

Reducción gaussiana y conjuntos generadores

Cuando estamos en el espacio vectorial F^n, la reducción gaussiana también resulta muy útil a la hora de estudiar el subespacio generado por los ciertos vectores v_1,v_2,\dots, v_k. Considera la matriz A\in M_{k,n}(F) obtenida por poner como vectores fila a v_1,v_2,\dots, v_k en la base canónica de F^n . Hacer operaciones elementales sobre los renglones de A no altera el subespacio generado por sus renglones, de manera que \text{span}(v_1,\dots, v_k) es precisamente el subespacio generado los renglones de A_{red}. Esto nos da una manera más sencilla de entender a \text{span}(v_1, \dots, v_k).

Ejemplo. Considera los vectores v_1=(1,2,6),\hspace{2mm} v_2=(-1,3,2), \hspace{2mm}v_3=(0,5,8) en \mathbb{R}^3. Queremos encontrar una manera sencilla de expresar V=\text{span}(v_1,v_2,v_3).
Considera la matriz

    \begin{align*}A=\begin{pmatrix}1 & 2 & 6\\-1 & 3 & 2\\0 & 5 & 8\end{pmatrix}.\end{align*}


Aplicando el algortimo de reducción gaussiana (manualmente o con una calculadora online) llegamos a que

    \begin{align*}A_{red}=\begin{pmatrix}1 & 0 & \frac{14}{5}\\0 & 1 & \frac{8}{5}\\0 & 0 & 0\end{pmatrix}.\end{align*}


De manera que

    \begin{align*}V=\text{span}\left(\left(1,0,\frac{14}{5}\right),\left(0,1,\frac{8}{5}\right)\right).\end{align*}

Siendo más explícitos todavía, V es entonces el conjunto de vectores de \mathbb{R}^3 de la forma

    \[a\left(1,0,\frac{14}{5}\right)+b\left(0,1,\frac{8}{5}\right)=\left(a,b,\frac{14a+8b}{5}\right).\]

\square

Independencia lineal

Sean V un espacio vectorial sobre un campo F, v_1, \dots ,v_n\in V y v\in \text{span}(v_1, \dots, v_n). Por definición, existen escalares c_1,c_2, \dots , c_n en F tales que

    \begin{align*}v=c_1v_1+c_2v_2+\dots + c_nv_n.\end{align*}

No hay algo en la definición de subespacio generado que nos indique que los escalares deben ser únicos, y en muchas ocasiones no lo son.

Problema. Sean v_1,v_2,v_3 tres vectores en \mathbb{R}^n tales que 3v_1+v_2+v_3=0 y sea v=v_1+v_2-2v_3. Encuentra una infinidad de maneras de expresar a v como combinación lineal de v_1,v_2,v_3.

Solución. Sea \alpha \in \mathbb{R}. Multiplicando por \alpha la igualdad 3v_1+v_2+v_3=0 y sumando la igualdad v_1+v_2+v_3=v se sigue que

    \begin{align*}v=(3\alpha + 1)v_1 + (\alpha +1)v_2 + (\alpha - 2)v_3.\end{align*}


Así, para cada \alpha \in \mathbb{R} hay una manera diferente de expresar a v como combinación lineal de v_1,v_2,v_3.

\square

Supongamos ahora que el vector v puede ser escrito como v=a_1v_1+a_2v_2+ \dots + a_nv_n. Si b_1,b_2, \dots, b_n son otros escalares tales que v=b_1v_1+b_2v_2+ \dots + b_nv_n, entonces al restar la segunda relación de la primera obtenemos

    \begin{align*}0=(a_1-b_1)v_1+ (a_2-b_2)v_2+ \dots + (a_n-b_n)v_n.\end{align*}


De manera que podríamos concluir que los escalares a_1,a_2,\dots,a_n son únicos si la ecuación

    \begin{align*}z_1v_1+z_2v_2+ \dots + z_nv_n=0\end{align*}


implica z_1=z_2=\dots=z_n=0 (con z_1,\dots ,z_n\in F), pero este no siempre es el caso (ejemplo de ello es el problema anterior).

Los vectores v_1, v_2, \dots, v_n que tienen la propiedad de generar a los vectores en \text{span}(v_1,\ldots,v_n) de manera únicason de suma importancia en el álgebra lineal y merecen un nombre formal.

Definición. Sea V un espacio vectorial sobre el campo F.
a) Decimos que los vectores v_1,v_2, \dots, v_n\in V son linealmente dependientes si existe una relación

    \begin{align*}c_1v_1+c_2v_2+\dots+c_nv_n=0\end{align*}


para la cual c_1,c_2, \dots,c_n son escalares de F y alguno es distinto de cero.
b) Decimos que los vectores v_1,v_2, \dots, v_n\in V son linealmente independientes si no son linealmente dependientes, es decir, si la relación

    \begin{align*}a_1v_1+a_2v_2+\dots+a_nv_n=0\end{align*}


implica que a_1=a_2=\dots=a_n=0.

La discusión previa a la definición muestra que un vector en \text{span}(v_1,\ldots,v_n) puede ser escrito de manera única como combinación lineal de los vectores v_1,\ldots,v_n si y sólo si estos vectores son linealmente independientes.

Ejemplos de dependencia e independencia lineal

Ejemplo. Las matrices A=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 0 & 0 \end{pmatrix}, B=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \end{pmatrix} y C=\begin{pmatrix} 0 & 0 & 0 \\0 & 1 & 1 \end{pmatrix} son linealmente independientes en M_{2,3}(\mathbb{R}). Verifiquemos esto. Supongamos que hay una combinación lineal de ellas igual a cero, es decir, que existen reales a,b,c tales que aA+bB+cC=O_{2,3}. Obtenemos entonces que

    \[\begin{pmatrix} a+b & 0 & 0 \\ a+b & b+c & c \end{pmatrix} = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}.\]

De la entrada (2,3) obtenemos que c=0. Así, de la entrada (2,2) obtenemos que b=0 y consecuentemente, de la entrada (1,1) obtenemos que a=0. De esta forma, la única combinación lineal de las matrices A, B y C que da 0 es cuando los coeficientes son iguales a cero. Concluimos que A, B y C son linealmente independientes.

\square

Ejemplo. Considera el espacio vectorial V de funciones de [0,1] a \mathbb{R}. Demuestra que las funciones f(x)=\sin^2 (x), g(x) = 3\cos^2(x), m(x)=x^2 y h(x)=-5. Veremos que estas funciones son linealmente dependientes. Para ello, debemos encontrar reales a,b,c,d no todos ellos iguales a cero tales que

    \[af+bg+cm+dh=0,\]

es decir, tales que para todo x en el intervalo [0,1] se cumpla que

    \[a\sin^2(x) + 3b\cos^2(x) + cx^2 -5d = 0.\]

Proponemos a=1, b=\frac{1}{3}, c=0 y d=\frac{1}{5}. Notemos que con esta elección de coeficientes tenemos por la identidad pitagórica que

    \begin{align*}\sin^2(x)+\cos^2(x) - 1 = 0.\end{align*}

Hemos encontrado coeficientes, no todos ellos iguales a cero, tales que una combinación lineal de las funciones es igual a la función cero. Concluimos que las funciones son linealmente dependientes.

\square

Reducción gaussiana e independencia lineal

Ahora estudiaremos una técnica para estudiar la independencia lineal. Esta nos permitirá determinar si dados algunos vectores v_1,v_2\dots,v_k\in F^n, estos son linealmente independientes. Veamos que este problema puede ser resuelto de manera sencilla por medio de un algoritmo. En efecto, necesitamos saber si podemos encontrar x_1, \dots, x_k\in F no todos iguales a 0 y tales que

    \begin{align*}x_1v_1+\dots+x_nv_n=0.\end{align*}

Sea A de n\times k la matriz cuyas columnas están dadas por los vectores v_1, \dots, v_k. Entonces la relación anterior es equivalente al sistema AX=0, donde X es el vector columna con coordenadas x_1, \dots, x_k.Por lo tanto los vectores v_1, \dots, v_k son linealmente independientes si y sólo si el sistema homogéneo AX=0 únicamente tiene a la solución trivial.

Como ya vimos anteriormente, este problema se puede resolver mediante el algoritmo de reducción gaussiana: Sea A_{red} la forma escalonada reducida de A. Si existe un pivote en cada columna de A_{red}, entonces no hay variables libres y la solución al sistema únicamente es el vector cero. Así, v_1,\dots, v_k son linealmente independientes. De lo contrario son linealmente dependientes. Siguiendo este procedimiento, es posible resolver el problema original de manera algorítimica.

Otra cosa importante que podemos deducir a partir de este análisis es que como un sistema lineal homogéneo con más variables que ecuaciones siempre tiene una solución no trivial, entonces si tenemos más de n vectores en F^n, estos nunca serán linealmente independientes.

Problema. Considera los vectores

    \begin{align*}v_1&=(1,2,3,4,5)\\v_2&=(2,3,4,5,1)\\v_3&=(1,3,5,7,9)\\v_4&=(3,5,7,9,1)\end{align*}

en \mathbb{R}^5. ¿Son linealmente independientes? Si la respuesta es negativa, da una relación no trivial de dependencia lineal entre estos vectores.

Solución. Consideremos la matriz cuyas columnas son los vectores v_1, \dots, v_4

    \begin{align*}A=\begin{pmatrix}1 & 2 & 1 & 3\\2 & 3 & 3 & 5\\3 & 4 & 5 & 7\\4 & 5 & 7 & 9\\5 & 1 & 9 & 1\end{pmatrix}.\end{align*}


Aplicando reducción gaussiana obtenemos

    \begin{align*}A_{red}=\begin{pmatrix}1 & 0 & 0 & -2\\0& 1 & 0 & 2\\ 0&0 & 1 & 1\\0 &0 & 0 & 0\\0& 0 & 0 & 0\end{pmatrix}.\end{align*}

Como no hay pivote en la última columna, ésta corresponde a una variable libre. Así, habrá por lo menos una solución no trivial y entonces los vectores v_1,v_2,v_3,v_4 son linealmente dependientes.

Para encontrar la relación no trivial de dependencia lineal resolvemos el sistema AX=0, el cual es equivalente al sistema A_{red}X=0. De la matriz anterior obtenemos las siguientes igualdades

    \begin{align*}x_1=2x_4, \hspace{3mm}, x_2=-2x_4, \hspace{3mm} x_3=-x_4.\end{align*}


Tomando x_4=1 (de hecho podemos asignarle cualquier valor distinto de cero), obtenemos la relación de dependencia lineal

    \begin{align*}2v_1-2v_2-v_3+v_4=0.\end{align*}

\square

Hagamos otro problema en el que la técnica anterior nos ayuda a estudiar la independencia lineal.

Problema. Demuestra que los vectores

    \begin{align*}v_1=(2,1,3,1), \hspace{2mm} v_2=(-1,0,1,2), \hspace{2mm} v_3=(3,2,7,4), \hspace{2mm} v_4=(1,2,0,-1), \hspace{2mm}\end{align*}


son linealmente dependientes y encuentra tres de ellos que sean linealmente independientes.

Solución. Sea A la matriz cuyas columnas son los vectores v_1, \dots , v_4

    \begin{align*}A=\begin{pmatrix}2 & -1 & 3 & 1\\1 & 0 & 2 & 2\\3 & 1 & 7 & 0\\1 & 2 & 4 & -1\end{pmatrix}.\end{align*}

Aplicando reducción gaussiana obtenemos

    \begin{align*}A_{red}=\begin{pmatrix}1 & 0 & 2 & 0\\0& 1 & 1 & 0\\0&0 & 0 & 1\\0 &0 & 0 & 0\end{pmatrix}.\end{align*}


Como la tercera columna de A_{red} no tiene al pivote de ninguna fila, deducimos que los cuatro vectores son linealmente dependientes.

Si eliminamos la tercera columna, entonces la matriz que queda es la forma escalonada reducida correspondiente al conjunto \{v_1,v_2,v_4\}. Como esta matriz sí tiene pivotes de filas en cada columna, concluimos que este es un conjunto de vectores linealmente independientes.

\square

Independencia lineal de conjuntos infinitos

Hasta este momento hemos trabajado únicamente con familias finitas de vectores, así que es natural preguntarse qué procede con las familias infinitas. Con la definición que tenemos, si tomamos una familia infinita de vectores (v_i)_{i\in I} no podríamos darle algún significado a la suma infinita \displaystyle\sum_{i\in I}c_iv_i para cualquier toda elección de escalares c_i, pues en espacios vectoriales no está en general definido cómo hacer una suma infinita. Sin embargo, si todos salvo una cantidad finita de escalares son 0, entonces la suma anterior sería una suma finita y ya tendría sentido.

De esta manera, podemos extender la definición como sigue.

Definición. La familia (v_i)_{i\in I} es linealmente dependiente si existe una familia de escalares (c_i)_{i\in I} tales que todos salvo una cantidad finita de ellos son cero, pero al menos uno no es cero y que \displaystyle\sum_{i\in I}c_iv_i=0.

De manera equivalente y para simplificar el razonamiento anterior podemos decir que una familia arbitraria de vectores es linealmente dependiente si tiene una subfamilia finita linealmente dependiente. Una familia de vectores es linealmente independiente si toda subfamilia finita es linealmente independiente. Por lo tanto, un conjunto L (posiblemente infinito) es linealmente independiente si dados elementos distintos l_1,\dots, l_n\in L y escalares a_1,a_2,\dots, a_n con a_1l_1+a_2l_2+\dots+ a_nl_n=0, entonces a_1=a_2=\dots=a_n=0.

Observación. a) Una subfamilia de una familia linealmente independiente es linealmente independiente. En efecto, sea (v_i)_{i\in I} una familia linealmente independiente y sea J\subset I. Supongamos que (v_i)_{i\in J} es linealmente dependiente. Entonces existe una subfamilia finita linealmente dependiente v_{i_1}, \dots, v_{i_n} con i_1, \dots,i_n\in J, pero i_1, \dots,i_n\in I, entonces v_{i_1}, \dots, v_{i_n} es una subfamilia finita y linealmente dependiente de una familia linealmente independiente lo cual es una contradicción.
b) Si dos vectores de una familia son iguales, entonces automáticamente la familia es linealmente dependiente.

\square

Más adelante veremos ejemplos de generadores y de independencia lineal con familias infinitas de vectores.

Una relación entre independencia lineal y generados

Podemos relacionar las nociones de subespacio generado y de independencia lineal con la siguiente proposición. Básicamente nos dice que un conjunto \{v_1, \dots, v_n\} es linealmente dependiente si y sólo si alguno sus elementos se puede expresar como combinación lineal de los demás.

Es importante mencionar que usamos la palabra “conjunto” y no “familia”, puesto que con la primera nos referimos a que los vectores son distintos dos a dos, mientras que con la segunda sí pueden haber repeticiones.

Proposición. Sea S un conjunto de vectores en algún espacio vectorial V. Entonces S es linealmente dependiente si y sólo si existe v\in S tal que v\in \text{span}(S\backslash \{v\}).

Demostración. Supongamos que S es linealmente dependiente. Entonces existe una cantidad finita de vectores v_1,v_2, \dots , v_n\in S y algunos escalares a_1,a_2, \dots, a_n no todos iguales a 0, tales que

    \begin{align*}a_1v_1+a_2v_2+ \dots + a_nv_n=0.\end{align*}


Notemos que v_1,\dots , v_n son distintos dos a dos, pues estamos suponiendo que los elementos de S también lo son.

Como no todos los escalares son 0, existe i\in \{1,2,\dots, n\} tal que a_i\neq 0. Dividiendo la igualdad anterior entre a_i, obtenemos

    \begin{align*}\frac{a_1}{a_i}v_1+ \dots + \frac{a_{i-1}}{a_i}v_{i-1}+ v_i+ \frac{a_{i+1}}{a_i}v_{i+1}+ \dots + \frac{a_n}{a_i}v_n=0,\end{align*}


por consiguiente

    \begin{align*}v_i=-\frac{a_1}{a_i}v_1- \dots - \frac{a_{i-1}}{a_i}v_{i-1}-\frac{a_{i+1}}{a_i}v_{i+1}-\dots - \frac{a_n}{a_i}v_n.\end{align*}

De lo anterior se sigue que v_i pertenece al generado de v_1, \dots , v_{i-1}, v_{i+1}, \dots , v_n, el cual está contenido en \text{span}(S \backslash \{v_i\}), pues \{v_1, \dots , v_{i-1}, v_{i+1}, \dots , v_n\}\subset S\backslash \{v_i\}. Esto prueba una implicación.

Para la otra implicación, supongamos que existe v\in S tal que v\in \text{span}(S\backslash \{v\}). Esto significa que existen v_1,v_2, \dots, v_n\in S\backslash \{v\} y escalares a_1,a_2,\dots ,a_n tales que

    \begin{align*}v=a_1v_1+a_2v_2+\dots+a_nv_n.\end{align*}


Pero entonces

    \begin{align*}1\cdot v + (-a_1)v_1+ \dots + (-a_n)v_n=0\end{align*}


y los vectores v,v_1,\dots , v_n son linealmente dependientes pues por lo menos el primer coeficiente es distinto de cero. Como v no está en \{v_1, \ldots, v_n\}, se sigue que S tiene un subconjunto finito que es linealmente dependiente y por lo tanto S también lo es.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Decide si el conjunto con las matrices \begin{pmatrix} 0 & 1 \\ 0 & 0\end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 1 & 1\end{pmatrix} y \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} es un conjunto generador de M_2(\mathbb{R}).
  • Sean S_1 y S_2 subconjuntos de un subespacio vectorial V tales que S_1\subset S_2. Demuestra que \text{span}(S_1)\subset \text{span}(S_2). Concluye que si S_1 es generador, entonces S_2 también lo es
  • Demuestra la observación b).
  • Da un conjunto de 3 vectores de \mathbb{R}^3 linealmente independientes y tales que ninguna de sus entradas es 0. Haz lo mismo para linealmente dependientes.
  • Sean f,g:\mathbb{R}\longrightarrow \mathbb{R} funciones definidas por

        \begin{align*}f(t)=e^{rt}, \hspace{4mm} g(t)=e^{st}\end{align*}


    con r\neq s. Demuestra que f y g son linealmente independientes en \mathcal{F}(\mathbb{R},\mathbb{R}), el espacio de las funciones de los reales en los reales.

Más adelante…

Aquí ya hablamos de conjuntos generadores y de linealmente independientes. La entrada teórica que sigue es crucial y en ella se verá y formalizará la intuición de que los conjuntos generadores deben ser “grandes”, mientras que los independientes deben ser “chicos”. El resultado clave es el lema de intercambio de Steinitz.

Cuando un conjunto de vectores es tanto generador, como linealmente independiente, está en un equilibrio que ayuda a describir una propiedad muy importante de un espacio vectorial: la de dimensión.

Entradas relacionadas

12 comentarios en “Álgebra Lineal I: Conjuntos generadores e independencia lineal

  1. Daniela Torija

    Hola, buenos días.
    En la parte de conjuntos generados,en el tercer ejemplo dice que la familia de las matrices canónicas de tamaño m x n es un conjunto generado de V, ¿en este caso también pasa que esta misma familia es el generador de V cuando V es el espacio de todas las matrices de m x n en F?.
    Gracias.

    Responder
    1. Ayax Calderón Autor

      Hola Daniela,
      Quise decir que el conjunto de las matrices canónicas genera a V, ya lo corregí. Gracias por la observación.

      Responder
      1. Daniela Torija

        Gracias por la aclaración.
        Perdón, otra pregunta, en la parte antes de la definición de dependencia lineal, ¿quienes son los z_{i}?
        Gracias de nuevo.

      1. Daniela Torija

        ¿Pero están en términos de los a_{i} o los b_{i}?.
        Me perdí un poco en ese paso, de donde se tiene que 0=(a_1-b_1)v1+…+(a_n+b_n)vn y de ahí pasa a los z_{i}.

      2. Ayax Calderón Autor

        No están en términos de los a__i ni b_i, lo único que estamos diciendo es que la única manera de garantizar que los escalares que te dan la combinación lineal igual a cero son únicos solamente todos son cero, es decir, si los vectores son linealmente independientes.

  2. Vale Sauz

    hola, una pregunta
    por qué en el primer ejemplo de reducción gaussiana y conjuntos generadores, tenemos v1, v2 y v3, y a la hora de pasarlo a una matriz, éstos los acomodamos como vectores filas
    pero en otras entradas, e incluso en ésta, en el problema de reducción gaussiana e independencia lineal, tenermos v1,v2,v3 y v4 y estos los acomodamos en vector columna?
    entonces, no entiendo como deben ir acomodados ya que según yo, no es lo mismo acomodarlos en vector columna que en vector fila

    Responder
    1. Ayax Calderón Autor

      Tienes razón, no es lo mismo acomodarlos como filas que como columnas, pero para algunas cosas es indistinto, una de ellas es para ver si loas vectores son linealemente independientes, que es lo que buscabamos en este ejercicio.

      Responder
  3. JP Antuna

    En el primer ejemplo de conjuntos generadores hay un error:
    En una parte dice “[…]el polinomio (1,1,1)…”; debe ser “[…]el vector (1,1,1)…”, ¿no?

    Responder
  4. Daniela Torija

    Buenas noches.
    En la parte donde nos dice que podemos considerar al sistema Ax=0, nos dice que los vectores serán linealmente independientes si y sólo si el sistema homogéneo tiene una solución no trivial. Este no sería el caso para que sean linealmente dependientes?
    Según entiendo que para que sean linealmente independientes, la solución al sistema Ax=0 debe ser la solución trivial.
    Gracias

    Responder
    1. LeoLeo

      Hola Daniela. En efecto, ahí hay un error. Debe decir “si y śolo si no tiene solución más que la trivial”. Gracias por la lectura atenta, lo corregimos.

      Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.