Álgebra Lineal I: Combinaciones lineales

Introducción

En esta entrada presentamos el concepto de combinaciones lineales en espacios vectoriales que será fundamental para nuestro estudio. De cierta manera (que se verá más claramente cuando hablemos de bases en espacios vectoriales arbitrarios) captura un aspecto de la base canónica de F^n: Todo vector lo podemos escribir como x_1 e_1+\dots+x_n e_n, lo que con nuestro lenguaje será una combinación lineal de los vectores e_i.

También hablamos del concepto de espacio generado. De manera intuitiva, el espacio generado por un conjunto de vectores es el mínimo subespacio que los tiene (y que a la vez tiene a todas las combinaciones lineales de ellos). Geometricamente, los espacios generados describen muchos de los objetos conocidos como rectas y planos. De manera algebraica, este concepto nos servirá mucho en lo que sigue del curso.

Definición de combinaciones lineales

Sea V un espacio vectorial sobre un campo F, y sean v_1, \dots, v_n vectores en V. Por definición, V contiene a todos los vectores de la forma c_1 v_1+\dots +c_n v_n con c_1, \dots, c_n \in F. La colección de los vectores de este estilo es importante y le damos una definición formal:

Definición. Sean v_1, \dots, v_n vectores en un espacio vectorial V sobre F.

  1. Un vector v es una combinación lineal de los vectores v_1, \dots, v_n si existen escalares c_1,\dots, c_n\in F tales que

        \begin{align*}v= c_1 v_1 +c_2 v_2+\dots +c_n v_n.\end{align*}

  2. El espacio generado (que a veces abreviaremos como el generado) por v_1, \dots, v_n es el subconjunto de V de todas las combinaciones lineales de v_1,\dots, v_n, y lo denotamos por \text{span}(v_1, \dots, v_n).

Ejemplo.

  1. La matriz A=\begin{pmatrix} 2 & 2 \\ 1 & 1 \end{pmatrix} es una combinación lineal de las matrices B= \begin{pmatrix} 10 & 0 \\ 5 & 0\end{pmatrix} y C=\begin{pmatrix} 0 & 1 \\ 0 & \frac{1}{2}\end{pmatrix} pues A=\frac{1}{5} B + 2 C. Así, A está en el generado por B y C.
  2. El generado \text{span}(v) de un único vector en \mathbb{R}^n consta de puras copias re-escaladas de v (también nos referimos a estos vectores como múltiplos escalares de v). Usando la interpretación geométrica de vectores en \mathbb{R}^2 o \mathbb{R}^3, si v\neq 0 entonces \text{span}(v) representa una recta por el origen en la dirección de v.
  3. Si e_1=(1,0,0) y e_2=(0,1,0), entonces

        \begin{align*}x e_1+ y e_2=(x,y,0).\end{align*}


    Como x y y fueron arbitrarios, podemos concluir que \text{span}(e_1,e_2) consta de todos los vectores en \mathbb{R}^3 cuya tercer entrada es cero. Esto es el plano xy. En general, si v_1, v_2 son dos vectores no colineales en \mathbb{R}^3 entonces su espacio generado es el único plano por el origen que los contiene.
  4. El polinomio 3x^{10}+7 del espacio vectorial \mathbb{R}_{10}[x] no puede ser escrito como combinación lineal de los polinomios x^{10}+x^2+1, x^7+3x+1, 7x^3. Para demostrar esto, debemos probar que no existen reales a,b,c tales que

        \[3x^{10}+1=a(x^{10}+x^2+1)+b(x^7+3x+1)+7cx^3.\]


    Desarrollando el producto de la derecha y observando el coeficiente de x^{10}, necesitamos que a sea igual a 3. Pero entonces a la derecha va a quedar un término 3x^2 que no se puede cancelar con ninguno otro de los sumandos, sin importar el valor de b o c.

\square

Problemas prácticos de combinaciones lineales

La definición de que un vector sea combinación de otros es existencial. Para mostrar que sí es combinación lineal, basta encontrar algunos coeficientes. Para mostrar que no es combinación lineal, hay que argumental por qué ninguna de las combinaciones lineales de los vectores es igual al vector buscado.

Problema. Muestra que el vector (1,1,1) de \mathbb{R}^3 no se puede expresar como combinación lineal de los vectores

    \begin{align*}v_1= (1,0,0), \hspace{2mm} v_2=(0,1,0)\text{ y } v_3=(1,1,0).\end{align*}

Solución: Una combinación lineal arbitraria de v_1, v_2, v_3 es de la forma

    \begin{align*}x_1 v_1 +x_2 v_2 + x_3 v_3 = (x_1 + x_3, x_2 + x_3, 0)\end{align*}

para x_1,x_2,x_3 reales. Así, las combinaciones lineales de v_1,v_2,v_2 siempre tienen a 0 como tercera coordenada. De esta forma, ninguna de ellas puede ser igual a (1,1,1).

\square

Más generalmente, consideramos el siguiente problema práctico: dada una familia de vectores v_1, v_2, \dots, v_k en F^n y un vector v\in F^n, decide si v es una combinación lineal de v_1, \dots, v_k. En otras palabras, si v\in \text{span}(v_1, \dots, v_k).

Para resolver este problema, consideramos la matriz de tamaño n\times k cuyas columnas son v_1, \dots, v_k. Decir que v\in \text{span}(v_1, \dots, v_k) es lo mismo que encontrar escalares x_1, \dots, x_k\in F tales que v= x_1 v_1 +\dots +x_k v_k. De manera equivalente, si tomamos X=(x_1,\ldots,x_k), queremos la existencia de una solución al sistema AX=v.

Esto es muy útil. Como tenemos una manera práctica de decidir si este sistema es consistente (por reducción gaussiana de la matriz aumentada (A\vert v)), tenemos una manera práctica de resolver el problema de si un vector es combinación lineal de otros. Por supuesto, esto también nos da una solución concreta al problema, es decir, no sólo decide la existencia de la combinación lineal, sino que además da una cuando existe.

Problema. Sean v_1=(1,0,1,2), v_2=(3,4,2,1) y v_3=(5,8,3,0) vectores en el espacio vectorial \mathbb{R}^4. ¿Está el vector v=(1,0,0,0) en el generado de v_1,v_2 y v_3? ¿El vector w=(4,4,3,3)?

Solución: Aplicamos el método que describimos en el párrafo anterior. Es decir, tomemos la matriz

    \begin{align*}A= \begin{pmatrix} 1  & 3 & 5\\ 0 & 4 & 8\\  1 & 2 & 3\\ 2 & 1 & 0\end{pmatrix}.\end{align*}

Queremos ver si el sistema AX=v es consistente. Haciendo reducción gaussiana a mano, o bien usando una calculadora de forma escalonada reducia (por ejemplo, la de eMathHelp), obtenemos que la forma escalonada reducida de la matriz aumentada (A\vert v) es

    \begin{align*}(A\vert v)\sim \begin{pmatrix} 1 & 0 & -1 & 0\\ 0 & 1 &2 & 0\\ 0 & 0 & 0 &1 \\ 0 & 0 & 0 &0\end{pmatrix}.\end{align*}

Viendo el tercer renglón, notamos que tiene pivote en la última columna. Deducimos que el sistema no es consistente, así que v\notin \text{span}(v_1, v_2, v_3).

Procedemos de manera similar para el vector w. Esta vez tenemos

    \begin{align*}(A\vert w)\sim \begin{pmatrix} 1 & 0 & -1 & 1\\ 0 & 1 & 2 & 1\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 &0\end{pmatrix},\end{align*}

lo que muestra que el sistema es consistente (pues ninguna fila tiene su pivote en la última columna), por lo tanto w\in \text{span}(v_1, v_2, v_3). Si queremos encontrar una combinación lineal explícita tenemos que resolver el sistema

    \begin{align*}\begin{pmatrix} 1 & 0 & -1 \\ 0 & 1  & 2\\ 0 & 0 &0 \\ 0 & 0 & 0\end{pmatrix} \cdot \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} = \begin{pmatrix} 1 \\ 1\\ 0 \\ 0\end{pmatrix}.\end{align*}

Tenemos que ninguna fila tiene su pivote en la columna 3, así que x_3 es variable libre. Las variables x_1 y x_2 son pivote. Esto nos da como solución x_1= x_3+1 y x_2=1-2x_3. Entonces podemos escribir

    \begin{align*}w= (1+x_3) v_1 + (1-2x_3) v_2+ x_3v_3\end{align*}

y esto es válido para cualquier elección de x_3. Podemos, por ejemplo, escoger x_3=0 y obtener w=v_1 + v_2.

\square

Por supuesto, en el problema anterior pudimos haber encontrado la expresión w=v_1+v_2 explorando el problema o por casualidad. Esto sería suficiente para mostrar qeu w es combinación lineal. Pero la ventaja del método sistemático que mostramos es que no se corre el riesgo de no encontrar la solución a simple vista. De me manera definitiva nos dice si hay o no hay solución, y cuando sí hay, encuentra una.

Una caracterización del espacio generado

Probamos el siguiente resultado, que explica la importancia del concepto de espacio generado. En particular, la proposición muestra que el espacio generado es un subespacio. Si te parece un poco confusa la demostración, puede ser de ayuda leer antes la observación que le sigue.

Proposición. Sea V un espacio vectorial sobre un campo F y v_1, v_2, \dots, v_n \in V. Entonces

  1. \text{span}(v_1, v_2, \dots, v_n) es la intersección de todos los subespacios vectoriales de V que contienen a todos los vectores v_1, \dots, v_n.
  2. \text{span}(v_1, v_2, \dots, v_n) es el subespacio más chico (en contención) de V que contiene a v_1,\dots, v_n.

Demostración: Como la intersección arbitraria de subespacios es un subespacio, la parte 1 implica la parte 2. Probemos entonces la parte 1.

Primero demostremos que \text{span}(v_1, v_2,\dots, v_n) está contenido en todo subespacio W de V que tiene a v_1, \dots, v_n. En otras palabras, tenemos que ver que cualquier subespacio W que tenga a v_1,\ldots,v_n tiene a todas las combinaciones lineales de ellos. Esto se sigue de que W, por ser subespacio, es cerrado bajo productos por escalar y bajo sumas. Así, si tomamos escalares \alpha_1,\ldots,\alpha_n tenemos que cada uno de \alpha_1 v_1, \ldots, \alpha_n v_n está en W y por lo tanto la combinación lineal (que es la suma de todos estos), también está en W.

La afirmación anterior implica que \text{span}(v_1, \dots, v_n) está contenido en la intersección de todos los espacios que tienen a v_1,\ldots, v_n, pues está contenido en cada uno de ellos.

Ahora, queremos ver ‘la otra contención’, es decir, que \text{span}(v_1,\ldots,v_n) contiene a la intersección de todos los espacios que tienen a v_1,\ldots,v_n. Para esto veremos primero que \text{span}(v_1, \dots, v_n) es un subespacio vectorial. Sean x,y\in \text{span}(v_1, \dots, v_n) y c\in F un escalar. Como x y y son, por definición, combinaciones lineales de v_1, \dots, v_n, podemos escribir x=a_1 v_1+\dots +a_n v_n para algunos escalares a_i y y=b_1 v_1+\dots + b_n v_n para unos escalares b_i. Así

    \begin{align*}x+cy= (a_1+cb_1) v_1 + \dots + (a_n +c b_n) v_n\end{align*}

también es una combinación lineal de v_1, \dots, v_n y por tanto un elemento del espacio generado. Se sigue que \text{span}(v_1,\dots, v_n) es uno de los subespacios que tienen a v_1, \dots, v_n. Así, este generado “aparece” en la intersección que hacemos de subespacios que tienen a estos vectores, y como la intersección de una familia de conjuntos está contenida en cada uno de esos conjuntos, concluimos que \text{span}(v_1, \dots, v_n) contiene a dicha interesección.

Argumentemos ahora la segunda parte de la proposición. Se usa el mismo argumento que arriba. Si W es cualquier subespacio que contiene a v_1, \dots, v_n, entonces “aparece” en la intersección y por tanto \text{span}(v_1, \dots, v_n) está contenido en W. Es decir, es más chico (en contención) que cualquier otro subespacio que contenga a estos vectores.

\square

Observación. Ya que la demostración previa puede resultar un poco confusa, presentamos una versión un poco más relajada de la idea que se usó. Sea \lbrace W_i\mid i\in I\rbrace la familia de todos los subespacios de V que contienen a v_1, \dots, v_n.

En el primer párrafo, probamos que

    \begin{align*}\text{span}(v_1,\dots, v_n)\subseteq W_i\end{align*}

para todo i\in I. Luego \text{span}(v_1, \dots, v_n)\subseteq \bigcap_{i\in I} W_i.

En el segundo párrafo, probamos que Span(v_1,\dots, v_n) es un subespacio que contiene a v_1, \dots, v_n. Es decir, entra en nuestra familia \lbrace W_i\mid i\in I\rbrace, es uno de los W_i, digamos W_j. Entonces

    \begin{align*}\text{span}(v_1, \dots, v_n)= W_j \supseteq \bigcap_{i\in I} W_i.\end{align*}

En ese momento ya tenemos la primer igualdad: \text{span}(v_1,\ldots,v_n)=\bigcap_{i\in I} W_i.

Ahora, la segunda conclusión de la proposición se sigue de esto con una observación más: Si W' es un subespacio que contiene a v_1, \dots, v_n entonces también entra en nuestra familia de los W_i‘s, es decir es W_{p} para algún p\in I. Ahora usando el inciso 1, tenemos que

    \begin{align*}\text{span}(v_1, \dots, v_n)= \bigcap_{i\in I} W_i \subseteq W_p=W'.\end{align*}

Esto concluye la demostración.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Se puede expresar al vector (1,3,0,5) como combinación lineal de (0,1,0,3), (0,-1,2,0) y (2, 0,-1,-6)? Si sí, encuentra una o más combinaciones lineales que den el vector (1,3,0,5)
  • ¿Se puede expresar al polinomio 1+x^2 +3x^3 -x^4 +x^5 como combinación lineal de los siguientes polinomios

        \begin{align*}x^2-3x^4,\\1+x^2-x^5,\\2x+x^4,\\2+x^2,\\5x+5x^2-x^5?\end{align*}

  • Sea P un plano en \mathbb{R}^3 por el origen y L una recta de \mathbb{R}^3 por el origen y con dirección dada por un vector v\neq 0. Demuestra que la intersección de L con P es una recta si y sólo si existen dos vectores en P tal que su suma sea v.
  • Encuentra el conjunto generado por los vectores del espacio vectorial indicado
    • Las matrices \begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix} y \begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix} del espacio M_{2}.
    • Los vectores (1,-1,0) y (1,0,-1) del espacio \mathbb{R}^3.
    • Los polinomios 1, x, x^2 y x^3 del espacio \mathbb{R}[x].
  • Sea V un espacio vectorial. Si v_1, \dots, v_n, x son vectores en un espacio vectorial V, ¿será cierto siempre que \text{span}(v_1, \dots, v_n)\subseteq \text{span}(v_1, \dots, v_n, x)? De ser así, ¿esta contención siempre es estricta? Demuestra tu respuesta o da un contraejemplo.
  • Sean v_1,\ldots, v_n y x vectores en un espacio vectorial V. Supongamos que v_n está en \text{span}(v_1,\ldots,v_{n-1},x). Muestra que

        \[\text{span}(v_1,\ldots,v_{n-1},x)=\text{span}(v_1,\ldots,v_{n-1},v_n).\]

Más adelante…

El concepto de combinación lineal es la piedra angular para definir varios otros conceptos importantes en espacios vectoriales. Es un primer paso para definir a los conjuntos de vectores generadores y a los conjuntos de vectores linealmente independientes. Una vez que hayamos desarrollado ambos conceptos, podremos hablar de bases de un espacio vectorial, y con ello hablar de la dimensión de un espacio vectorial.

Entradas relacionadas

Álgebra Lineal I: Problemas de bases y dimensión de espacios vectoriales

Introducción

En las entradas anteriores vimos cómo se puede definir la dimensión de un espacio vectorial. Para ello, necesitamos encontrar una base. En el caso finito, la dimensión del espacio es la cardinalidad de una base. Esto está bien definido pues todas las bases tienen la misma cardinalidad. A continuación solucionaremos algunos ejemplos para reforzar los temas vistos.

Recordatorio de truco para mostrar que algo es base

En varios de los problemas usamos el siguiente resultado. Ya lo enunciamos y demostramos previamente. Pero como es sumamente útil, lo volvemos a enunciar, en términos más prácticos.

Proposición. Sea V un espacio vectorial que ya sepamos que tiene dimensión finita n. Sea B=\{v_1,v_2,\dots, v_n\} un conjunto de n vectores de v. Entonces, cualquiera de las siguientes afirmaciones implica las otras dos:

  1. B es un conjunto linealmente independiente en V
  2. B es un conjunto generador para V.
  3. B es una base de V

Por supuesto, el tercer punto implica los otros dos por la definición de base. Lo que es realmente útil en situaciones teóricas y prácticas es que si ya sabemos que un espacio tiene dimensión n, y tenemos un conjunto de n vectores, entonces basta verificar que o bien (1) o bien (2). Con esto tendremos la otra afirmación gratuitamente.

Al usar este resultado, es muy importante verificar las hipótesis. Es decir, para usarlo se necesita:

  • Argumentar por qué la dimensión de un espacio vectorial es cierto entero n.
  • Argumentar que se está estudiando un conjunto con n vectores.
  • Demostrar ya sea (1) o (2).

Problemas resueltos

Problema. Muestra que las siguientes cuatro matrices A=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, B=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}, C=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}, D=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} son una base del espacio vectorial M_2(\mathbb{R}).

Solución. Ya sabemos que M_2(\mathbb{R}) es un espacio vectorial de dimensión 4, pues una base está conformada por las matrices E_{11}, E_{12}, E_{21} y E_{22} de la base canónica. El conjunto que tenemos consiste de 4 matrices. Así, para mostrar que conforman una base, es suficiente con que mostremos que son un conjunto linealmente independiente.

Supongamos que existen reales a,b,c,d tales que

    \[aA+bB+cC+dD=O_2.\]

Haciendo las operaciones entrada por entrada en esta igualdad, obtenemos que esto sucede si y sólo si a,b,c,d son soluciones al sistema de ecuaciones

    \[\begin{cases}a+c&=0\\b-d&=0\\b+d&=0\\a-c&=0.\]

Podríamos encontrar todas las soluciones a este sistema usando reducción gaussiana. Sin embargo, afortunadamente para este sistema hay una forma más sencilla de proceder. Sumando la primera y cuarta igualdad, obtenemos 2a=0, de donde a=0 y entonces por la primer ecuación c=0. De manera simétrica, b=d=0. De esta forma, la única combinación lineal de A,B,C,D que da la matriz cero es la trivial. Concluimos que A,B,C,D son linealmente independientes, y por lo tanto son una base de M_2(\mathbb{R}).

\square

En el problema anterior resultó más práctico mostrar que las matrices eran linealmente independientes, pero también pudimos simplemente mostrar que generaban a M_2(\mathbb{R}). Por la proposición que enunciamos, cualquiera de los dos implica que en este contexto las matrices forman una base.

Veamos ahora un ejemplo en el que es más conveniente mostrar que el conjunto propuesto es generador.

Problema. Encuentra una base de \mathbb{R}_4[x] que tenga al polinomio

    \[p(x)=1+x+x^2+x^3+x^4.\]

Solución. Ya sabemos que \mathbb{R}_4[x] tiene dimensión 5, pues una base es el conjunto de polinomios \mathcal{B}=\{1,x,x^2,x^3,x^4\}.

Proponemos al conjunto

    \[\mathcal{B}'=\{1,x,x^2,x^3,p(x)\}\]

como solución al problema.

Como \mathcal{B}' es un conjunto con 5 elementos, basta con mostrar que es un conjunto que genera a \mathbb{R}_4[x]. Para ello, notemos que \mathcal{B}' puede generar al polinomio x^4 pues se obtiene mediante la combinación lineal

    \[x^4=p(x)-1-x-x^2-x^3.\]

De esta forma, \mathcal{B}' puede generar todo lo que puede generar \mathcal{B}. En símbolos:

    \[\mathbb{R}_4[x]\subseteq \text{span}(\mathcal{B})\subseteq \text{span}(\mathcal{B}') \subseteq \mathbb{R}_4[x].\]

Concluimos que \text{span}(\mathcal{B}') = \mathbb{R}_4[x]. Esto muestra que \mathcal{B}' es una base de \mathbb{R}_4[x] que tiene al polinomio p(x).

\square

Problema. Exactamente uno de los vectores u=(9,5,1) y v=(9,-5,1) puede ser escrito como combinación lineal de los vectores columna de la matriz

    \[A=\begin{pmatrix} 3 & 0 & 3 \\ 2 & 1 & 1 \\ 1 & 2 & -1 \end{pmatrix}.\]

Determina cuál de ellos es y exprésalo como una combinación lineal de los vectores columna de A.

Solución. Un vector b se puede escribir como combinación lineal de las columnas de una matriz A si y sólo si el sistema lineal de ecuaciones AX=b tiene solución. En efecto, si X=(x,y,z), recordemos que

    \[AX=xC_1+yC_2+zC_3,\]

en donde C_1, C_2 y C_3 son las columnas de la matriz A.

De esta forma, una forma de proceder es plantear los sistemas de ecuaciones AX=u y AX=v, y ver cuál de ellos tiene solución. Esto se puede hacer y dará la solución al problema.

Sin embargo, aprovecharemos este problema para introducir un truco más. Como queremos resolver ambos sistemas, podemos hacer reducción gaussiana en la matriz aumentada (A|u|v), en donde estamos agregando dos vectores columna nuevos. De la forma escalonada reducida podremos leer todo lo que queremos. La matriz que nos interesa es

    \begin{align*}\begin{pmatrix}3 & 0 & 3 & 9 & 9 \\ 2 & 1 & 1 & 5 & -5\\ 1 & 2 & -1 & 1 & 1\end{pmatrix}.\end{align*}

Usando la herramienta online de eMathHelp para calcular la forma escalonada reducida de esta matriz, obtenemos

    \begin{align*}(A_{red}|u'|v')=\begin{pmatrix}1 & 0 & 1 & 3 & 0 \\ 0 & 1 & -1 & -1 & 0\\ 0 & 0 & 0 & 0 & 1\end{pmatrix}.\end{align*}

Estamos listos para hacer el análisis. Tomando la submatriz conformada por las primeras cuatro columnas (las correspondientes a A_{red} y u'), vemos que no queda pivote en la última columna. De este modo, sí hay una solución para AX=u.

Para obtener una solución, basta trabajar con esta submatriz y usar nuestros argumentos usuales de sistemas de ecuaciones lineales. La variable z es libre. Las variables x y y son pivote. Haciendo z=0 obtenemos x=3 y y=-1. Concluimos que

    \[\begin{pmatrix} 9 \\ 5 \\ 1 \end{pmatrix} = 3\begin{pmatrix} 3 \\ 2 \\ 1 \end{pmatrix} + (-1) \begin{pmatrix} 0 \\ 1 \\ 2 \end{pmatrix} + 0 \begin{pmatrix} 3 \\ 1 \\ -1 \end{pmatrix}.\]

Esto sería suficiente para terminar el problema, pues el enunciado garantiza que uno y sólo uno de los vectores es combinación lineal de las columnas.

Pero estudiemos el otro caso para ver qué sucede. Tomando la submatriz conformada por las columnas 1, 2, 3, 5 de (A_{red}|u'|v') (correspondientes a A_{red} y v'), vemos que sí hay un pivote en la última columna: el de la tercera fila. Entonces, no hay solución para AX=v.

\square

El problema anterior ayuda a fortalecer mucho nuestra intuición para resolver sistemas de ecuaciones lineales: el sistema AX=b tiene solución si y sólo si el vector b es combinación lineal de los vectores columna de A. Cada solución al sistema corresponde a una de estas combinaciones lineales.

Problema. Para n un entero positivo y k un entero de 0 a n, definimos al polinomio P_k(x)=x^k(1-x)^{(n-k)}. Muestra que P_0(x),\ldots, P_n(x) es una base para el espacio \mathbb{R}_n[x].

Solución. Como \mathbb{R}_n[x] tiene dimensión n+1 y estamos considerando un conjunto de n+1 polinomios, entonces basta mostrar que este conjunto es linealmente independiente. Supongamos que hay una combinación lineal de ellos que es igual a cero, digamos

    \[\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x) + \alpha_n x^n=0.\]

Si evaluamos la expresión anterior en x=1, casi todos los sumandos se anulan, excepto el último. De aquí, obtenemos que \alpha_n 1^n=0, de donde \alpha_n=0. La expresión se convierte entonces en

    \[\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x)=0.\]

Factorizando 1-x de todos los sumandos y usando que el polinomio 1-x\neq 0, podemos “cancelar” al factor 1-x. En otras palabras, podemos “dividir” la combinación lineal entre 1-x para obtener

    \[\alpha_0 (1-x)^{n-1} + \alpha_1 x(1-x)^{n-2} + \ldots + \alpha_{n-1} x^{n-1}=0.\]

De aquí podemos seguir aplicando el mismo argumento: evaluamos en 1, concluimos que el último coeficiente es igual a 0, y entonces podemos dividir subsecuentemente entre 1-x. De esta forma, obtenemos \alpha_n=\alpha_{n-1}=\ldots=\alpha_0=0. Concluimos entonces que los polinomios propuestos son linealmente independientes, y por lo tanto forman una base de \mathbb{R}_n[x].

\square

El argumento del último párrafo se puede formalizar todavía más usando inducción sobre n. Piensa en lo complicado que hubiera sido mostrar de manera directa que los polinomios propuestos generan a \mathbb{R}_n[x]. Gracias a la proposición que discutimos al inicio, esto lo obtenemos de manera automática.

Entradas relacionadas

Álgebra Lineal I: Problemas de combinaciones lineales, generadores e independientes

Introducción

En entradas anteriores ya hablamos de combinaciones lineales, de conjuntos generadores y de conjuntos independientes. Lo que haremos aquí es resolver problemas para reforzar el contenido de estos temas.

Problemas resueltos

Problema. Demuestra que el polinomio p(x)=x^2+x+1 no puede ser escrito en el espacio vectorial \mathbb{R}[x] como una combinación lineal de los polinomios

    \begin{align*} p_1(x)=x^2-x\\ p_2(x) = x^2-1\\ p_3(x) = x-1.\end{align*}

Solución. Para resolver este problema, podemos plantearlo en términos de sistemas de ecuaciones. Supongamos que existen reales a, b y c tales que

    \[p(x)=ap_1(x)+bp_2(x)+cp_3(x).\]

Desarrollando la expresión, tendríamos que

    \begin{align*}x^2+x+1 &= a(x^2-x)+b(x^2-1)+c(x-1)\\&= (a+b)x^2+(-a+c)x+(-b-c),\end{align*}

de donde igualando coeficientes de términos del mismo grado, obtenemos el siguiente sistema de ecuaciones:

    \[\begin{cases}a+b & = 1\\ -a + c &= 1 \\ -b-c &= 1.\end{cases}\]

Para mostrar que este sistema de ecuaciones no tiene solución, le aplicaremos reducción gaussiana a la siguiente matriz extendida:

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ -1 & 0 & 1 & 1 \\ 0 & -1 & -1 & 1 \end{pmatrix}.\]

Tras la transvección R_2+R_1, obtenemos

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & -1 & -1 & 1 \end{pmatrix}.\]

Tras la transvección R_3+R_2, obtenemos

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & 0 & 0 & 3 \end{pmatrix}.\]

De aquí se ve que la forma escalonada reducida tendrá un pivote en la última columna. Por el teorema de existencia y unicidad el sistema original no tiene solución.

\square

En el problema anterior usamos un argumento de reducción gaussiana para mostrar que el sistema no tiene solución. Este es un método general que funciona en muchas ocasiones. Una solución más sencilla para ver que el sistema del problema no tiene solución es que al sumar las tres ecuaciones se obtiene 0=3.

Problema. Sea n un entero positivo. Sea W el subconjunto de vectores en \mathbb{R}^n cuya suma de entradas es igual a 0. Sea Z el espacio generado por el vector (1,1,\ldots,1) de \mathbb{R}^n. Determina si es cierto que

    \[\mathbb{R}^n=W\oplus Z.\]

Solución. El espacio Z está generado por todas las combinaciones lineales que se pueden hacer con el vector v=(1,1,\ldots,1). Como sólo es un vector, las combinaciones lineales son de la forma av con a en \mathbb{R}, de modo que Z es precisamente

    \[Z=\{(a,a,\ldots,a): a\in\mathbb{R}\}.\]

Para obtener la igualdad

    \[\mathbb{R}^n=W\oplus Z,\]

tienen que pasar las siguientes dos cosas (aquí estamos usando un resultado de la entrada de suma y suma directa de subespacios):

  • W\cap Z = \{0\}
  • W+Z=\mathbb{R}^n

Veamos qué sucede con un vector v en W\cap Z. Como está en Z, debe ser de la forma v=(a,a,\ldots,a). Como está en W, la suma de sus entradas debe ser igual a 0. En otras palabras, 0=a+a+\ldots+a=na. Como n es un entero positivo, esta igualdad implica que a=0. De aquí obtenemos que v=(0,0,\ldots,0), y por lo tanto W\cap Z = \{0\}.

Veamos ahora si se cumple la igualdad \mathbb{R}^n=W+Z. Por supuesto, se tiene que W+Z\subseteq \mathbb{R}^n, pues los elementos de W y Z son vectores en \mathbb{R}^n. Para que la igualdad \mathbb{R}^n\subseteq W+Z se cumpla, tiene que pasar que cualquier vector v=(x_1,\ldots,x_n) en \mathbb{R}^n se pueda escribir como suma de un vector w uno con suma de entradas 0 y un vector z con todas sus entradas iguales. Veamos que esto siempre se puede hacer.

Para hacerlo, sea S=x_1+\ldots+x_n la suma de las entradas del vector v. Consideremos al vector w=\left(x_1-\frac{S}{n},\ldots, x_n-\frac{S}{n} \right) y al vector z=\left(\frac{S}{n},\ldots,\frac{S}{n}).

Por un lado, z está en Z, pues todas sus entradas son iguales. Por otro lado, la suma de las entradas de w es

    \begin{align*}\left(x_1-\frac{S}{n}\right)+\ldots + \left(x_n-\frac{S}{n}\right)&=(x_1+\ldots+x_n)-n\cdot \frac{S}{n}\\ &= S-S=0,\end{align*}

lo cual muestra que w está en W. Finalmente, notemos que la igualdad w+z=v se puede comprobar haciendo la suma entrada a entrada. Con esto mostramos que cualquier vector de V es suma de vectores en W y Z y por lo tanto concluimos la igualdad \mathbb{R}^n=W\oplus Z.

\square

En el problema anterior puede parecer algo mágico la propuesta de vectores w y z. ¿Qué es lo que motiva la elección de \frac{S}{n}? Una forma de enfrentar los problemas de este estilo es utilizar la heurística de trabajar hacia atrás. Sabemos que el vector w debe tener todas sus entradas iguales a cierto número a y queremos que z=v-w tenga suma de entradas igual a 0. La suma de las entradas de v-w es

    \[(x_1-a)+\ldots+(x_n-a)= S -na.\]

La elección de a=\frac{S}{n} está motivada en que queremos que esto sea cero.

Problema. Considera las siguientes tres matrices en M_2(\mathbb{C}):

    \begin{align*} A&= \begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix}\\B&= \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}\\C&= \begin{pmatrix} i & -7  \\ 12 & 7 \end{pmatrix}.\end{align*}

Demuestra que A, B y C son matrices linealmente dependientes. Da una combinación lineal no trivial de ellas que sea igual a 0.

Solución. Para mostrar que son linealmente dependientes, basta dar la combinación lineal no trivial buscada. Buscamos entonces a,b,c números complejos no cero tales que aA+bB+cC=O_2, la matriz cero en M_2(\mathbb{C}). Para que se de esta igualdad, es necesario que suceda entrada a entrada. Tenemos entonces el siguiente sistema de ecuaciones:

    \[\begin{cases}-i a + 2i b + ic &= 0\\-3a + b -7c &=0\\2a + 3b + 12c &= 0\\3a -b +7c &=0.\end{cases}\]

En este sistema de ecuaciones tenemos números complejos, pero se resuelve exactamente de la misma manera que en el caso real. Para ello, llevamos la matriz correspondiente al sistema a su forma escalonada reducida. Comenzamos dividiendo el primer renglón por -i y aplicando transvecciones para hacer el resto de las entradas de la columna iguales a 0. Luego intercambiamos la tercera y cuarta filas.

    \begin{align*}&\begin{pmatrix}-i & 2i & i \\-3 & 1 & -7 \\2 & 3 & 12 \\3 & -1 & 7\end{pmatrix}\\\to&\begin{pmatrix}1 & -2 & -1 \\0 & -5 & -10 \\0 & 7 & 14 \\0 & 5 & 10\end{pmatrix}\end{align*}

Ahora reescalamos con factor -\frac{1}{5} la segunda fila y hacemos transvecciones para hacer igual a cero el resto de entradas de la columna 2:

    \begin{align*}&\begin{pmatrix}1 & 0& 3 \\0 & 1 & 2 \\0 & 0 & 0 \\0 & 0 & 0\end{pmatrix}\end{align*}

Con esto llegamos a la forma escalonada reducida de la matriz. De acuerdo al procedimiento que discutimos en la entrada de sistemas lineales homogéneos, concluimos que las variables a y b son pivote y la variable c es libre. Para poner a a y b en términos de c, usamos la primera y segunda ecuaciones. Nos queda

    \begin{align*} a &= -3c \\ b &= -2c. \end{align*}

En resumen, concluimos que para cualqueir número complejo c en \mathbb{C} se tiene la combinación lineal

    \[-3c\begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix} - 2c \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}  + c\begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.\]

Una posible combinación lineal no trivial se obtiene tomando c=1.

\square

En el problema anterior bastaba encontrar una combinación lineal no trivial para acabar el ejercicio. Por supuesto, esto también se puede hacer por prueba y error. Sin embargo, la solución que dimos da una manera sistemática de resolver problemas de este estilo.

Problema. Consideremos el espacio vectorial V de funciones f:\mathbb{R}\to \mathbb{R}. Para cada real a en (0,\infty), definimos a la función f_a\in V dada por

    \[f_a(x)=e^{ax}.\]

Tomemos reales distintos 0<a_1<a_2<\ldots<a_n. Supongamos que existe una combinación lineal de las funciones f_{a_1},\ldots,f_{a_n} que es igual a 0, es decir, que existen reales \alpha_1,\ldots,\alpha_n tales que

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0\]

para todo real x\geq 0.

Muestra que \alpha_1=\ldots=\alpha_n=0. Concluye que la familia (f_a)_{a\in \mathbb{R}} es linealmente independiente en V.

Solución. Procedemos por inducción sobre n. Para n=1, si tenemos la igualdad \alpha e^{ax}=0 para toda x, entonces \alpha=0, pues e^{ax} siempre es un número positivo. Supongamos ahora que sabemos el resultado para cada que elijamos n-1 reales cualesquiera. Probaremos el resultado para n reales cualesquiera.

Supongamos que tenemos la combinación lineal

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0\]

para todo real x\geq 0.

Dividamos esta igualdad que tenemos entre e^{a_nx}:

    \[\alpha_1 e^{(a_1-a_n)x} + \alpha_2e^{(a_2-a_n)x} + \ldots + \alpha_{n-1}e^{(a_{n-1}-a_n)x}+\alpha_n = 0.\]

¿Qué sucede cuando hacemos x\to \infty? Cada uno de los sumandos de la forma \alpha_i e^{(a_i-a_n)x} se hace cero, pues a_i<a_n y entonces el exponente es negativo y se va a -\infty. De esta forma, queda la igualdad \alpha_n=0. Así, nuestra combinación lineal se ve ahora de la forma

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_{n-1} e^{a_{n-1}x} = 0.\]

Por la hipótesis inductiva, \alpha_1=\ldots=\alpha_{n-1}=0. Como también ya demostramos \alpha_n=0, hemos terminado el paso inductivo.

Concluimos que la familia (infinita) (f_a)_{a\in \mathbb{R}} es linealmente independiente en V pues cualquier subconjunto finito de ella es linealmente independiente.

\square

El problema anterior muestra que la razón por la cual ciertos objetos son linealmente independientes puede deberse a una propiedad analítica o de cálculo. A veces dependiendo del contexto en el que estemos, hay que usar herramientas de ese contexto para probar afirmaciones de álgebra lineal.

Entradas relacionadas

Álgebra Lineal I: Bases y dimensión de espacios vectoriales

Introducción

Ya hablamos de conjuntos generadores y de independencia lineal. Además, ya platicamos también del lema de intercambio de Steinitz. Con estas herramientas, tenemos todo a nuestra disposición para desarrollar la teoría de dimensión de espacios vectoriales.

Para espacios vectoriales en general, esto puede no resultar tan sencillo. Por esta razón, para este tema nos enfocaremos en el caso en el que la dimensión es finita. Sin embargo, también veremos ejemplos de espacios que no son así, y hablaremos un poco de cómo son.

Espacios de dimensión finita

Definición. Se dice que un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos.

Otra forma de interpretar la definición anterior es la siguiente:
V es un espacio vectorial de dimensión finita si existe una familia finita de vectores v_1, v_2, \dots , v_n \in V tal que todos los vectores en V se pueden expresar como combinación lineal de dicha familia. Por ejemplo, los espacios F^n, \hspace{2mm} M_{m,n}(F), \hspace{2mm} y \hspace{2mm} \mathbb{R}_n[x] son de dimensión finita. Sin embargo, no todos los espacios vectoriales son de dimensión finita, de hecho la mayoría no lo son.

Problema. Demuestra que el espacio vectorial V de todos los polinomios con coeficientes reales no es un espacio vectorial sobre \mathbb{R} de dimensión finita.

Demostración. Supongamos que V tiene un conjunto generador finito, entonces existen polinomios p_1,p_2,\dots,p_n\in V tales que V=\text{span}(p_1,p_2,\dots,p_n). Sea d=\max\{deg(p_1), \dots, deg(p_n)\}. Como todos los p_i tienen grado a lo más d, entonces cualquier combinación lineal de p_1,p_2,\dots,p_n también tiene grado a lo más d. Se sigue que todo vector en V tiene grado a lo más d, pero eso es imposible, pues deg(x^{d+1})=d+1>d. Por lo tanto V no es de dimensión finita.

\square

Nos gustaría definir la dimensión de un espacio vectorial. Para ilustrar esto es bueno pensar primero en \mathbb{R}^n para distintos valores de n. Una linea (digamos \mathbb{R}) debería tener dimensión 1, un plano (digamos \mathbb{R}^2) debería tener dimensión 2, y en general \mathbb{R}^n debería tener dimensión n.

Antes de profundizar más en esto, es conveniente mencionar algunas definiciones y problemas prácticos para generar una mejor intuición sobre el rumbo que estamos a punto de tomar.

Definición. Una base de un espacio vectorial V es un subconjunto B de V tal que B es linealmente independiente y generador.

Ejemplos.

  • El conjunto B=\{e_1,\ldots,e_n\} de vectores canónicos en \mathbb{F}^n es una base. Esto se puede verificar con lo que hicimos al inicio del curso, cuando mostramos que cualquier vector v en \mathbb{F}^n se puede escribir de manera única como v=x_1e_1+\ldots+x_ne_n con x_1,\ldots,x_n escalares. Como existe al menos una forma, entonces \text{span}(B)=F^n. Como es única, en particular la única forma de escribir al vector 0 es si x_1=\ldots=x_n=0. Esto muestra que B es generador y linealmente independiente.
  • El conjunto B=\{E_{ij}\} de matrices canónicas en M_{m,n}(F) es una base.
  • El conjunto 1,x,\ldots,x^n es una base de \mathbb{R}_n[x].

Encontrar bases de subespacios

Como los subespacios de espacios vectoriales también son espacios vectoriales, entonces también tiene sentido hablar de si un conjunto de vectores es base para un subespacio. Veamos ahora varios problemas para entender mejor esto.

Problema. Dada la matriz A\in M_2(\mathbb{R})

    \begin{align*}A=\begin{pmatrix}2 & 0\\0 & 3\end{pmatrix}\end{align*}


encuentra una base para el subespacio U de M_2(\mathbb{R}) definido por

    \begin{align*}U=\{X\in M_2(\mathbb{R}): XA=AX\}.\end{align*}

Solución. Considera la matriz X=\begin{pmatrix}a_1 & a_2\\a_3 & a_4\end{pmatrix}. Entonces X\in U si y sólo si XA=AX, lo anterior lo escribimos como

    \begin{align*}\begin{pmatrix}2a_1 & 3 a_2\\2a_3 & 3a_4\end{pmatrix} = \begin{pmatrix}2a_1 & 2 a_2\\3a_3 & 3a_4\end{pmatrix}.\end{align*}


De la igualdad anterior obtenemos que a_2=a_3=0. Por lo tanto

    \begin{align*}U=\left\{\begin{pmatrix}a_1 & 0\\0 & a_4\end{pmatrix}:a_1,a_4\in \mathbb{R}\right\}.\end{align*}


Este es un primer paso, pues nos permite poner al subespacio U en una forma en la que es más fácil de entender. Ahora es más fácil encontrar una base para U. Proponemos al siguiente conjunto de dos matrices:

    \begin{align*}B=\left\{ \begin{pmatrix}1 & 0\\0 & 0\end{pmatrix} , \begin{pmatrix}0&0\\0 & 1\end{pmatrix}\right\}.\end{align*}

Por un lado, este es un conjunto generador para U, pues cualquier elemento de U se puede escribir como combinación lineal de elementos en B como sigue:

    \[\begin{pmatrix} a_1 & 0 \\ 0 & a_4 \end{pmatrix}=a_1 \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + a_4 \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}.\]

Por otro lado, B es un conjunto linealmente independiente pues si a y b son escalares que tan una combinación lineal igual a cero entonces tendríamos

    \[\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = a \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + b \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}.\]

Igualando la primera y última matriz entrada a entrada, tenemos que a=b=0.

\square

Es importante que revises el problema anterior con profundidad, pues da una idea de cómo encontrar una base B de un subespacio U de un espacio vectorial V. Una receta que funciona en algunos casos es la siguiente:

  • Entender bien el subespacio U del que hay que dar una base.
  • Expresar a U en términos simples.
  • Ver cómo son los vectores de U, y de ahí proponer una base B. Para esta parte hay que jugar un poco con conjuntos de vectores, para ver si son suficientes para generar y no son demasiados como para ya no ser linealmente independientes.
  • Mostrar que B genera a U.
  • Mostrar que B es linealmente independiente en V.

Veamos más ejemplos.

Problema. Determina una base para el subespacio U de \mathbb{R}^4 dado por

    \begin{align*}U=\{(a,b,c,d)\in \mathbb{R}^4:a+b=0, c=2d\}.\end{align*}

Solución. Como b=-a y c=2d, entonces

    \begin{align*}U=\{(a,-a,2d,d)\in \mathbb{R}^4:a,d\in \mathbb{R}\}=\{av_1+dv_2|a,d\in \mathbb{R}\},\end{align*}


donde v_1=(1,-1,0,0) y v_2=(0,0,2,1). Por lo tanto v_1,v_2 generan a U. También son linealmente independientes, pues la relación av_1+dv_2=0 es equivalente a (a,-a,2d,d)=(0,0,0,0) e implica a=d=0.Se sigue que \{v_1,v_2\} es una base para U.

\square

Problema. Considera los subespacios U,V de \mathbb{R}^4 definidos por

    \begin{align*}U=\{(x,y,z,w)\in\mathbb{R}^4:y+z+w=0\}\end{align*}


y

    \begin{align*}V=\{(x,y,z,w)\in\mathbb{R}^4:x=-y, \hspace{2mm}z=2w\}.\end{align*}


Encuentra una base para cada uno de los subespacios U,V y U\cap V de \mathbb{R}^4.

Solución. Expresando a w en términos de y y z, obtenemos

    \begin{align*}U&=\{(x,y,z,-y-z)|y,z\in\mathbb{R}\}\\&=\{xu_1+yu_2+zu_3|x,y,z \in \mathbb{R}\},\end{align*}


donde u_1=(1,0,0,0), u_2=(0,1,0,-1) y u_3=(0,0,1,-1).

Veamos si u_1,u_2,u_3 son linealmente independientes. La igualdad xu_1+yu_2+zu_3=0 es equivalente a (x,y,z,-y-z)=(0,0,0,0) e implica x=y=z=0. Por lo tanto, los vectores u_1,u_2,u_3 son linealmente independientes y forman una base de U.

Ahora, para V. Es fácil ver que

    \begin{align*}V&=\{(-y,y,2w,w)| y,w\in\mathbb{R}\}\\&=\{yv_1+wv_2| y,w\in \mathbb{R}\},\end{align*}


donde v_1=(-1,1,0,0) \hspace{2mm} y v_2=(0,0,2,1).

Nuevamente, v_1, v_2 son linealmente independientes, pues la relación yv_1+wv_2=0 es equivalente a (-y,y,2w,w)=(0,0,0,0) e implica y=w=0. Por lo tanto v_1,v_2 forman una base de V.

Finalmente, el vector (x,y,z,w)\in\mathbb{R}^4 pertenece a U\cap V si y sólo si

    \begin{align*}x=-y, \hspace{3mm} z=2w, \hspace{3mm} y+z+w=0.\end{align*}


Se sigue que x=3w, \hspace{2mm} z=2w \hspace{2mm} y y=-3w, o bien

    \begin{align*}(x,y,z,w)=(3w,-3w,2w,w)=w(3,-3,2,1).\end{align*}


Por lo tanto \{(3,-3,2,1)\} es una base de U \cap V.

\square

Problema. Sea V el espacio de funciones f:\mathbb{R}\longrightarrow \mathbb{R} generado por las funciones en B=\{1,x\mapsto \sin (2x), x\mapsto \cos(2x)\}.

a) Demuestra que B es una base de V.
b) Demuestra que x\mapsto \sin ^2 (x) es una función en V y exprésala como combinación lineal de los elementos de B.

Solución. a) . Como V es el generado de B, por definición B es generador. Así, basta demostrar que los vectores en B son linealmente independientes. En otras palabras, queremos ver que si a,b,c son números reales tales que

    \begin{align*}a+b\sin (2x) + c\cos (2x)=0\end{align*}


para todo x\in \mathbb{R}, entonces a=b=c=0.

Tomando x=0 se obtiene que a+c=0. Si tomamos x=\frac{\pi}{2} obtenemos a-c=0. Por lo tanto a=c=0. Finalmente, si tomamos x=\frac{\pi}{4} obtenemos b=0.

b) Para cada x\in\mathbb{R} se tiene

    \begin{align*}\cos (2x)&=2\cos^2(x)-1\\&=2(1-\sin^2(x))-1\\&=1-2\sin^2(x),\end{align*}


por lo tanto

    \begin{align*}\sin^2(x)=\frac{1-\cos (2x)}{2}.\end{align*}


Por lo tanto x\mapsto \sin^2(x) pertence a V y lo expresamos como combinación lineal de los elementos de B de la siguiente manera:

    \begin{align*}\sin^2(x)=\frac{1}{2}\cdot 1 + 0\cdot \sin(2x) - \frac{1}{2} \cos (2x).\end{align*}

\square

Dimensión finita y bases

Ahora veamos un teorema muy importante en la teoría de la dimensión de espacios vectoriales.

Teorema. Sea V un espacio vectorial de dimensión finita. Entonces
a) V contiene una base con una cantidad finita de elementos.
b) Cualesquiera dos bases de V tienen el mismo número de elementos (en particular, cualquier base tiene una cantidad finita de elementos).

Demostración. a) Como V es de dimensión finita, entonces tiene al menos un conjunto generador finito. Sea B un conjunto generador de V con el menor número posible de elementos. Vamos a demostrar que B es una base para V. B ya es conjunto generador porque así lo escogimos, sólo falta probar que es linealmente independiente.

Supongamos por el contrario que B no es linealmente independiente, entonces existe v\in B tal que v\in \text{span}(B\backslash \{v\}). Por lo tanto

    \[\text{span}(B\setminus\{v\})=\text{span}(B)=V.\]

Pero eso es imposible pues B se tomó de tamaño mínimo. Por lo tanto B es linealmente independiente. Se sigue el resultado deseado.

b) Sea B una base con una cantidad finita de elementos, digamos n. Sea B' otra base de V. Por definición de base, B' es linealmente independiente y B es un conjunto generador con n elementos.

Por el lema de Steinitz, B' es finito y tiene a lo más n elementos. Lo anterior nos muestra que cualquier base tiene a lo más n elementos. De hecho, si B' tiene d elementos, el lema de Steinitz garantiza que n\leq d.

Ahora volvemos a aplicar el mismo argumento que antes, pero pensando a B como linealmente independiente y a B' como generador. Concluimos que k\leq d. De este modo, k=d y por lo tanto toda base de V tiene la misma cantidad de elementos.

\square

El resultado anterior justifica que la siguiente definición esté bien hecha.

Definición. Sea V un espacio vectorial de dimensión finita. Definimos la dimensión dim V de V como el número de elementos de una base de V.

Ejemplos y problemas de dimensión

Ejemplo. Considera el espacio vectorial \mathbb{R}^n y su base canónica B=\{e_1,e_2,\dots , e_n\}. Como B es base y tiene n elementos, entonces dim(\mathbb{R}^n)=n.

\square

Ejemplo. Considera el espacio vectorial \mathbb{R}_n[x] de polinomios con coeficientes reales y grado a lo más n. Una base para \mathbb{R}_n[x] es \{1,x,\dots, x^n\}, por lo tanto dim(\mathbb{R}_n[x])=n+1.

\square

Ejemplo. Considera el espacio vectorial M_{m,n}(\mathbb{R}). Sea E_{ij}\in M_{m,n}(\mathbb{R}) la matriz cuya entrada (i,j) es 1 y el resto de sus entradas son 0. Entonces B=\{E_{ij}| 1\leq i \leq m, 1\leq j \leq n \} es una base para M_{m,n}(\mathbb{R}). Así, \dim(M_{m,n}(\mathbb{R}))=mn.

\square

Problema. Encuentra una base y la dimensión del subespacio

    \begin{align*}V=\{(a,2a)|a\in \mathbb{R}\}\subset \mathbb{R}^2.\end{align*}

Solución. Notemos que V=\text{span}((1,2)), pues (a,2a)=a(1,2). Como (1,2)\neq (0,0), entonces B=\{(1,2)\} es una base de V. Por lo tanto \dim(V)=1.

\square

Un lema útil para demostrar que algo es base

Para finalizar esta entrada demostraremos otro teorema muy importante en la teoría de la dimensión de espacios vectoriales. En este resultado usamos de nuevo de manera repetida el lema de intercambio de Steinitz.

Teorema. Sea V un espacio vectorial de dimensión finita n. Entonces
a) Cualquier conjunto linealmente independiente de vectores de V tiene a lo más n elementos.
b) Cualquier conjunto generador de V tiene al menos n elementos.
c) Si S es un subconjunto de V con n elementos, entonces las siguientes afirmaciones son equivalentes:

  1. S es linealmente independiente.
  2. S es un conjunto generador.
  3. S es una base de V.

Demostración. Sea V una base de B. Por definición B tiene n elementos.

a) Como B es un conjunto generador con n elementos, por el lema de intercambio se tiene que cualquier conjunto linealmente independiente tiene a lo más n elementos.

b) Sea S un conjunto generador de V y supongamos que S tiene d<n elementos. Como B es linealmente independiente, entonces por el lema de intercambio se tiene que n \leq d, lo cual sería una contradicción.

c) Es claro que (3) implica (1) y (2), por lo que solamente probaremos que (1) implica (3) y que (2) implica (3).

Supongamos que S es linealmente independiente, entonces por el lema de intercambio de Steintz podemos agregar n-n=0 vectores a S de manera que el nuevo conjunto es generador. Claramente el nuevo conjunto es S mismo, pues no le agregamos nada. Por lo tanto S es un conjunto generador y como estamos bajo el supuesto de que S es linealmente independiente, entonces S es una base de V.

Ahora supongamos que S es un conjunto generador que no es linealmente independiente. Entonces existe v\in S tal que v\in \text{span}(S\setminus \{v\}). Se sigue que S\setminus \{v\} es un conjunto generador de n-1 elementos (al generar a v, genera todo lo que generaba S). Pero esto contradice el inciso b). Por lo tanto S es linealmente independiente y por lo tanto es una base de V.

\square

El resultado anterior nos permite pensar a las bases de un espacio vectorial como los conjuntos linealmente independientes “más grandes”, o bien como los conjuntos generadores “más chicos”. En la siguiente entrada veremos ejemplos prácticos del uso del teorema anterior.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En todos los problemas en donde se hable de subespacios, verifica que en efecto los conjuntos dados son subespacios del espacio vectorial mencionado.
  • En todos los ejemplos y problemas en los que se menciona que algo es base, verifica que en efecto se tiene un conjunto que es generador y linealmente independiente.
  • Sea V un espacio vectorial sobre \mathbb{C} y de dimensión n. Demuestra que si ves a V como un espacio vectorial sobre \mathbb{R}, entonces \dim(V)=2n.
  • Sea V un espacio vectorial de dimensión finita y W un subespacio de V. Demuestra que W es de dimensión finita, que \dim(W)\leq \dim(V) y que la igualdad se da si y sólo si W=V.
  • Sean W_1,W_2 subespacios de un espacio vectorial V con dimensiones m y n, respectivamente, con m\geq n.
    a) Demuestra que \dim(W_1\cap W_2)\leq n.
    b) Demuestra que \dim(W_1 + W_2)\leq m+n.
  • Encuentra la dimensión del subespacio de matrices en M_n(\mathbb{R}) que son simétricas.

Más adelante…

A partir de la definición de dimensión, más adelante construiremos la noción de rango, que nos permite decir “qué tanta información guarda una matriz”. La dimensión ayuda también a comprender cuándo hay cierto tipo de transformaciones lineales entre espacios vectoriales. Una aplicación más de la dimensión es que en muchos casos queremos probar afirmaciones para todos los espacios vectoriales de dimensión finita. Como la dimensión nos permite asociar a cada uno de estos un entero, muchas de estas demostraciones se pueden hacer por inducción.

Entradas relacionadas

Álgebra Lineal I: Conjuntos generadores e independencia lineal

Introducción

En esta entrada explicaremos cómo podemos estudiar espacios y subespacios vectoriales a partir de conjuntos más pequeños que guardan la información más relevante de ellos. A estos conjuntos les llamaremos generadores. Además estudiaremos el concepto de independencia lineal. A grandes rasgos podemos decir que un conjunto es linealmente independiente cuando no tiene “elementos redundantes” que se pueden obtener a partir de otros en el conjunto. En ambos casos, nos basaremos fuertemente en el concepto de combinaciones lineales que ya discutimos anteriormente.

Conjuntos generadores

El inciso (1) de la siguiente definición ya lo mencionamos parcialmente en una entrada anterior, para un conjunto finito de vectores. Aquí lo enunciamos de modo que también aplique para conjuntos posiblemente infinitos.

Definición. Sea V un espacio vectorial sobre F y S un subconjunto de V.

  1. El subespacio generado por S es el subconjunto de V que consiste de todas las combinaciones lineales c_1v_1+c_2v_2+\dots + c_nv_n, donde v_1,v_2,\dots,v_n es un subconjunto finito de S y c_1,c_2, \dots , c_n son escalares en F. Al subespacio generado de S lo denotamos por \text{span}(S). A menudo nos referiremos al subespacio generado de S simplemente como “el generado de S.
  2. b) Decimos que S es un conjunto generador de V si \text{span}(S)=V.

En otras palabras, un subconjunto S de V es generador cuando cualquier elemento de V se puede escribir como una combinación lineal de elementos de S.

Ejemplos.

  1. Considera el espacio vectorial \mathbb{R}^3 y el conjunto

        \begin{align*}e_1=\begin{pmatrix}1\\0\\0\end{pmatrix}, \hspace{2mm} e_2=\begin{pmatrix}0\\1\\0\end{pmatrix}, \hspace{2mm} e_3=\begin{pmatrix}0\\0\\1\end{pmatrix}.\end{align*}


    Entonces e_1,e_2,e_3 forma un conjunto generador de \mathbb{R}^3, pues cada vector X=\begin{pmatrix}x\\y\\z\end{pmatrix} se puede escribir como X=xe_1+ye_2+ze_3. Sin embargo, el conjunto conformado por únicamente e_2 y e_3 no es generador pues, por ejemplo, el vector (1,1,1) no puede ser escrito como combinación lineal de ellos.
  2. Sea \mathbb{R}_n[x] el espacio de los polinomios con coeficientes reales y de grado a los más n. La familia 1,x,\dots, x^n es un conjunto generador.
  3. Considera el espacio M_{m,n}(F). Sea E_{ij} la matriz cuya entrada (i,j) es 1 y todas sus demás entradas son 0. Entonces la familia (E_{ij})_{1\leq i\leq m, 1\leq j \leq n} es un conjunto generador de V, pues cada matriz A=[a_{ij}] puede ser escrita como

        \begin{align*}A=\displaystyle\sum_{i=1}^m \displaystyle\sum_{j=1}^n a_{ij}E_{ij}.\end{align*}


    Este ejemplo lo discutimos anteriormente, cuando hablamos de matrices y sus operaciones.
  4. Para dar un ejemplo donde un conjunto generador consiste de una cantidad infinita de elementos, considera el espacio \mathbb{R}[x] de polinomios. En este caso, el conjunto \{x^i: i \geq 0\} de todas las potencias de x es un conjunto generador. Seria imposible tener un conjunto generador finito para \mathbb{R}[x] pues si ese conjunto es S y el grado máximo de un polinomio en S es M, entonces no podremos obtener al polinomio x^{M+1} como combinación lineal de elementos de S.

\square

Reducción gaussiana y conjuntos generadores

Cuando estamos en el espacio vectorial F^n, la reducción gaussiana también resulta muy útil a la hora de estudiar el subespacio generado por los ciertos vectores v_1,v_2,\dots, v_k. Considera la matriz A\in M_{k,n}(F) obtenida por poner como vectores fila a v_1,v_2,\dots, v_k en la base canónica de F^n . Hacer operaciones elementales sobre los renglones de A no altera el subespacio generado por sus renglones, de manera que \text{span}(v_1,\dots, v_k) es precisamente el subespacio generado los renglones de A_{red}. Esto nos da una manera más sencilla de entender a \text{span}(v_1, \dots, v_k).

Ejemplo. Considera los vectores v_1=(1,2,6),\hspace{2mm} v_2=(-1,3,2), \hspace{2mm}v_3=(0,5,8) en \mathbb{R}^3. Queremos encontrar una manera sencilla de expresar V=\text{span}(v_1,v_2,v_3).
Considera la matriz

    \begin{align*}A=\begin{pmatrix}1 & 2 & 6\\-1 & 3 & 2\\0 & 5 & 8\end{pmatrix}.\end{align*}


Aplicando el algortimo de reducción gaussiana (manualmente o con una calculadora online) llegamos a que

    \begin{align*}A_{red}=\begin{pmatrix}1 & 0 & \frac{14}{5}\\0 & 1 & \frac{8}{5}\\0 & 0 & 0\end{pmatrix}.\end{align*}


De manera que

    \begin{align*}V=\text{span}\left(\left(1,0,\frac{14}{5}\right),\left(0,1,\frac{8}{5}\right)\right).\end{align*}

Siendo más explícitos todavía, V es entonces el conjunto de vectores de \mathbb{R}^3 de la forma

    \[a\left(1,0,\frac{14}{5}\right)+b\left(0,1,\frac{8}{5}\right)=\left(a,b,\frac{14a+8b}{5}\right).\]

\square

Independencia lineal

Sean V un espacio vectorial sobre un campo F, v_1, \dots ,v_n\in V y v\in \text{span}(v_1, \dots, v_n). Por definición, existen escalares c_1,c_2, \dots , c_n en F tales que

    \begin{align*}v=c_1v_1+c_2v_2+\dots + c_nv_n.\end{align*}

No hay algo en la definición de subespacio generado que nos indique que los escalares deben ser únicos, y en muchas ocasiones no lo son.

Problema. Sean v_1,v_2,v_3 tres vectores en \mathbb{R}^n tales que 3v_1+v_2+v_3=0 y sea v=v_1+v_2-2v_3. Encuentra una infinidad de maneras de expresar a v como combinación lineal de v_1,v_2,v_3.

Solución. Sea \alpha \in \mathbb{R}. Multiplicando por \alpha la igualdad 3v_1+v_2+v_3=0 y sumando la igualdad v_1+v_2+v_3=v se sigue que

    \begin{align*}v=(3\alpha + 1)v_1 + (\alpha +1)v_2 + (\alpha - 2)v_3.\end{align*}


Así, para cada \alpha \in \mathbb{R} hay una manera diferente de expresar a v como combinación lineal de v_1,v_2,v_3.

\square

Supongamos ahora que el vector v puede ser escrito como v=a_1v_1+a_2v_2+ \dots + a_nv_n. Si b_1,b_2, \dots, b_n son otros escalares tales que v=b_1v_1+b_2v_2+ \dots + b_nv_n, entonces al restar la segunda relación de la primera obtenemos

    \begin{align*}0=(a_1-b_1)v_1+ (a_2-b_2)v_2+ \dots + (a_n-b_n)v_n.\end{align*}


De manera que podríamos concluir que los escalares a_1,a_2,\dots,a_n son únicos si la ecuación

    \begin{align*}z_1v_1+z_2v_2+ \dots + z_nv_n=0\end{align*}


implica z_1=z_2=\dots=z_n=0 (con z_1,\dots ,z_n\in F), pero este no siempre es el caso (ejemplo de ello es el problema anterior).

Los vectores v_1, v_2, \dots, v_n que tienen la propiedad de generar a los vectores en \text{span}(v_1,\ldots,v_n) de manera únicason de suma importancia en el álgebra lineal y merecen un nombre formal.

Definición. Sea V un espacio vectorial sobre el campo F.
a) Decimos que los vectores v_1,v_2, \dots, v_n\in V son linealmente dependientes si existe una relación

    \begin{align*}c_1v_1+c_2v_2+\dots+c_nv_n=0\end{align*}


para la cual c_1,c_2, \dots,c_n son escalares de F y alguno es distinto de cero.
b) Decimos que los vectores v_1,v_2, \dots, v_n\in V son linealmente independientes si no son linealmente dependientes, es decir, si la relación

    \begin{align*}a_1v_1+a_2v_2+\dots+a_nv_n=0\end{align*}


implica que a_1=a_2=\dots=a_n=0.

La discusión previa a la definición muestra que un vector en \text{span}(v_1,\ldots,v_n) puede ser escrito de manera única como combinación lineal de los vectores v_1,\ldots,v_n si y sólo si estos vectores son linealmente independientes.

Ejemplos de dependencia e independencia lineal

Ejemplo. Las matrices A=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 0 & 0 \end{pmatrix}, B=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \end{pmatrix} y C=\begin{pmatrix} 0 & 0 & 0 \\0 & 1 & 1 \end{pmatrix} son linealmente independientes en M_{2,3}(\mathbb{R}). Verifiquemos esto. Supongamos que hay una combinación lineal de ellas igual a cero, es decir, que existen reales a,b,c tales que aA+bB+cC=O_{2,3}. Obtenemos entonces que

    \[\begin{pmatrix} a+b & 0 & 0 \\ a+b & b+c & c \end{pmatrix} = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}.\]

De la entrada (2,3) obtenemos que c=0. Así, de la entrada (2,2) obtenemos que b=0 y consecuentemente, de la entrada (1,1) obtenemos que a=0. De esta forma, la única combinación lineal de las matrices A, B y C que da 0 es cuando los coeficientes son iguales a cero. Concluimos que A, B y C son linealmente independientes.

\square

Ejemplo. Considera el espacio vectorial V de funciones de [0,1] a \mathbb{R}. Demuestra que las funciones f(x)=\sin^2 (x), g(x) = 3\cos^2(x), m(x)=x^2 y h(x)=-5. Veremos que estas funciones son linealmente dependientes. Para ello, debemos encontrar reales a,b,c,d no todos ellos iguales a cero tales que

    \[af+bg+cm+dh=0,\]

es decir, tales que para todo x en el intervalo [0,1] se cumpla que

    \[a\sin^2(x) + 3b\cos^2(x) + cx^2 -5d = 0.\]

Proponemos a=1, b=\frac{1}{3}, c=0 y d=\frac{1}{5}. Notemos que con esta elección de coeficientes tenemos por la identidad pitagórica que

    \begin{align*}\sin^2(x)+\cos^2(x) - 1 = 0.\end{align*}

Hemos encontrado coeficientes, no todos ellos iguales a cero, tales que una combinación lineal de las funciones es igual a la función cero. Concluimos que las funciones son linealmente dependientes.

\square

Reducción gaussiana e independencia lineal

Ahora estudiaremos una técnica para estudiar la independencia lineal. Esta nos permitirá determinar si dados algunos vectores v_1,v_2\dots,v_k\in F^n, estos son linealmente independientes. Veamos que este problema puede ser resuelto de manera sencilla por medio de un algoritmo. En efecto, necesitamos saber si podemos encontrar x_1, \dots, x_k\in F no todos iguales a 0 y tales que

    \begin{align*}x_1v_1+\dots+x_nv_n=0.\end{align*}

Sea A de n\times k la matriz cuyas columnas están dadas por los vectores v_1, \dots, v_k. Entonces la relación anterior es equivalente al sistema AX=0, donde X es el vector columna con coordenadas x_1, \dots, x_k.Por lo tanto los vectores v_1, \dots, v_k son linealmente independientes si y sólo si el sistema homogéneo AX=0 únicamente tiene a la solución trivial.

Como ya vimos anteriormente, este problema se puede resolver mediante el algoritmo de reducción gaussiana: Sea A_{red} la forma escalonada reducida de A. Si existe un pivote en cada columna de A_{red}, entonces no hay variables libres y la solución al sistema únicamente es el vector cero. Así, v_1,\dots, v_k son linealmente independientes. De lo contrario son linealmente dependientes. Siguiendo este procedimiento, es posible resolver el problema original de manera algorítimica.

Otra cosa importante que podemos deducir a partir de este análisis es que como un sistema lineal homogéneo con más variables que ecuaciones siempre tiene una solución no trivial, entonces si tenemos más de n vectores en F^n, estos nunca serán linealmente independientes.

Problema. Considera los vectores

    \begin{align*}v_1&=(1,2,3,4,5)\\v_2&=(2,3,4,5,1)\\v_3&=(1,3,5,7,9)\\v_4&=(3,5,7,9,1)\end{align*}

en \mathbb{R}^5. ¿Son linealmente independientes? Si la respuesta es negativa, da una relación no trivial de dependencia lineal entre estos vectores.

Solución. Consideremos la matriz cuyas columnas son los vectores v_1, \dots, v_4

    \begin{align*}A=\begin{pmatrix}1 & 2 & 1 & 3\\2 & 3 & 3 & 5\\3 & 4 & 5 & 7\\4 & 5 & 7 & 9\\5 & 1 & 9 & 1\end{pmatrix}.\end{align*}


Aplicando reducción gaussiana obtenemos

    \begin{align*}A_{red}=\begin{pmatrix}1 & 0 & 0 & -2\\0& 1 & 0 & 2\\ 0&0 & 1 & 1\\0 &0 & 0 & 0\\0& 0 & 0 & 0\end{pmatrix}.\end{align*}

Como no hay pivote en la última columna, ésta corresponde a una variable libre. Así, habrá por lo menos una solución no trivial y entonces los vectores v_1,v_2,v_3,v_4 son linealmente dependientes.

Para encontrar la relación no trivial de dependencia lineal resolvemos el sistema AX=0, el cual es equivalente al sistema A_{red}X=0. De la matriz anterior obtenemos las siguientes igualdades

    \begin{align*}x_1=2x_4, \hspace{3mm}, x_2=-2x_4, \hspace{3mm} x_3=-x_4.\end{align*}


Tomando x_4=1 (de hecho podemos asignarle cualquier valor distinto de cero), obtenemos la relación de dependencia lineal

    \begin{align*}2v_1-2v_2-v_3+v_4=0.\end{align*}

\square

Hagamos otro problema en el que la técnica anterior nos ayuda a estudiar la independencia lineal.

Problema. Demuestra que los vectores

    \begin{align*}v_1=(2,1,3,1), \hspace{2mm} v_2=(-1,0,1,2), \hspace{2mm} v_3=(3,2,7,4), \hspace{2mm} v_4=(1,2,0,-1), \hspace{2mm}\end{align*}


son linealmente dependientes y encuentra tres de ellos que sean linealmente independientes.

Solución. Sea A la matriz cuyas columnas son los vectores v_1, \dots , v_4

    \begin{align*}A=\begin{pmatrix}2 & -1 & 3 & 1\\1 & 0 & 2 & 2\\3 & 1 & 7 & 0\\1 & 2 & 4 & -1\end{pmatrix}.\end{align*}

Aplicando reducción gaussiana obtenemos

    \begin{align*}A_{red}=\begin{pmatrix}1 & 0 & 2 & 0\\0& 1 & 1 & 0\\0&0 & 0 & 1\\0 &0 & 0 & 0\end{pmatrix}.\end{align*}


Como la tercera columna de A_{red} no tiene al pivote de ninguna fila, deducimos que los cuatro vectores son linealmente dependientes.

Si eliminamos la tercera columna, entonces la matriz que queda es la forma escalonada reducida correspondiente al conjunto \{v_1,v_2,v_4\}. Como esta matriz sí tiene pivotes de filas en cada columna, concluimos que este es un conjunto de vectores linealmente independientes.

\square

Independencia lineal de conjuntos infinitos

Hasta este momento hemos trabajado únicamente con familias finitas de vectores, así que es natural preguntarse qué procede con las familias infinitas. Con la definición que tenemos, si tomamos una familia infinita de vectores (v_i)_{i\in I} no podríamos darle algún significado a la suma infinita \displaystyle\sum_{i\in I}c_iv_i para cualquier toda elección de escalares c_i, pues en espacios vectoriales no está en general definido cómo hacer una suma infinita. Sin embargo, si todos salvo una cantidad finita de escalares son 0, entonces la suma anterior sería una suma finita y ya tendría sentido.

De esta manera, podemos extender la definición como sigue.

Definición. La familia (v_i)_{i\in I} es linealmente dependiente si existe una familia de escalares (c_i)_{i\in I} tales que todos salvo una cantidad finita de ellos son cero, pero al menos uno no es cero y que \displaystyle\sum_{i\in I}c_iv_i=0.

De manera equivalente y para simplificar el razonamiento anterior podemos decir que una familia arbitraria de vectores es linealmente dependiente si tiene una subfamilia finita linealmente dependiente. Una familia de vectores es linealmente independiente si toda subfamilia finita es linealmente independiente. Por lo tanto, un conjunto L (posiblemente infinito) es linealmente independiente si dados elementos distintos l_1,\dots, l_n\in L y escalares a_1,a_2,\dots, a_n con a_1l_1+a_2l_2+\dots+ a_nl_n=0, entonces a_1=a_2=\dots=a_n=0.

Observación. a) Una subfamilia de una familia linealmente independiente es linealmente independiente. En efecto, sea (v_i)_{i\in I} una familia linealmente independiente y sea J\subset I. Supongamos que (v_i)_{i\in J} es linealmente dependiente. Entonces existe una subfamilia finita linealmente dependiente v_{i_1}, \dots, v_{i_n} con i_1, \dots,i_n\in J, pero i_1, \dots,i_n\in I, entonces v_{i_1}, \dots, v_{i_n} es una subfamilia finita y linealmente dependiente de una familia linealmente independiente lo cual es una contradicción.
b) Si dos vectores de una familia son iguales, entonces automáticamente la familia es linealmente dependiente.

\square

Más adelante veremos ejemplos de generadores y de independencia lineal con familias infinitas de vectores.

Una relación entre independencia lineal y generados

Podemos relacionar las nociones de subespacio generado y de independencia lineal con la siguiente proposición. Básicamente nos dice que un conjunto \{v_1, \dots, v_n\} es linealmente dependiente si y sólo si alguno sus elementos se puede expresar como combinación lineal de los demás.

Es importante mencionar que usamos la palabra “conjunto” y no “familia”, puesto que con la primera nos referimos a que los vectores son distintos dos a dos, mientras que con la segunda sí pueden haber repeticiones.

Proposición. Sea S un conjunto de vectores en algún espacio vectorial V. Entonces S es linealmente dependiente si y sólo si existe v\in S tal que v\in \text{span}(S\backslash \{v\}).

Demostración. Supongamos que S es linealmente dependiente. Entonces existe una cantidad finita de vectores v_1,v_2, \dots , v_n\in S y algunos escalares a_1,a_2, \dots, a_n no todos iguales a 0, tales que

    \begin{align*}a_1v_1+a_2v_2+ \dots + a_nv_n=0.\end{align*}


Notemos que v_1,\dots , v_n son distintos dos a dos, pues estamos suponiendo que los elementos de S también lo son.

Como no todos los escalares son 0, existe i\in \{1,2,\dots, n\} tal que a_i\neq 0. Dividiendo la igualdad anterior entre a_i, obtenemos

    \begin{align*}\frac{a_1}{a_i}v_1+ \dots + \frac{a_{i-1}}{a_i}v_{i-1}+ v_i+ \frac{a_{i+1}}{a_i}v_{i+1}+ \dots + \frac{a_n}{a_i}v_n=0,\end{align*}


por consiguiente

    \begin{align*}v_i=-\frac{a_1}{a_i}v_1- \dots - \frac{a_{i-1}}{a_i}v_{i-1}-\frac{a_{i+1}}{a_i}v_{i+1}-\dots - \frac{a_n}{a_i}v_n.\end{align*}

De lo anterior se sigue que v_i pertenece al generado de v_1, \dots , v_{i-1}, v_{i+1}, \dots , v_n, el cual está contenido en \text{span}(S \backslash \{v_i\}), pues \{v_1, \dots , v_{i-1}, v_{i+1}, \dots , v_n\}\subset S\backslash \{v_i\}. Esto prueba una implicación.

Para la otra implicación, supongamos que existe v\in S tal que v\in \text{span}(S\backslash \{v\}). Esto significa que existen v_1,v_2, \dots, v_n\in S\backslash \{v\} y escalares a_1,a_2,\dots ,a_n tales que

    \begin{align*}v=a_1v_1+a_2v_2+\dots+a_nv_n.\end{align*}


Pero entonces

    \begin{align*}1\cdot v + (-a_1)v_1+ \dots + (-a_n)v_n=0\end{align*}


y los vectores v,v_1,\dots , v_n son linealmente dependientes pues por lo menos el primer coeficiente es distinto de cero. Como v no está en \{v_1, \ldots, v_n\}, se sigue que S tiene un subconjunto finito que es linealmente dependiente y por lo tanto S también lo es.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Decide si el conjunto con las matrices \begin{pmatrix} 0 & 1 \\ 0 & 0\end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 1 & 1\end{pmatrix} y \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} es un conjunto generador de M_2(\mathbb{R}).
  • Sean S_1 y S_2 subconjuntos de un subespacio vectorial V tales que S_1\subset S_2. Demuestra que \text{span}(S_1)\subset \text{span}(S_2). Concluye que si S_1 es generador, entonces S_2 también lo es
  • Demuestra la observación b).
  • Da un conjunto de 3 vectores de \mathbb{R}^3 linealmente independientes y tales que ninguna de sus entradas es 0. Haz lo mismo para linealmente dependientes.
  • Sean f,g:\mathbb{R}\longrightarrow \mathbb{R} funciones definidas por

        \begin{align*}f(t)=e^{rt}, \hspace{4mm} g(t)=e^{st}\end{align*}


    con r\neq s. Demuestra que f y g son linealmente independientes en \mathcal{F}(\mathbb{R},\mathbb{R}), el espacio de las funciones de los reales en los reales.

Más adelante…

Aquí ya hablamos de conjuntos generadores y de linealmente independientes. La entrada teórica que sigue es crucial y en ella se verá y formalizará la intuición de que los conjuntos generadores deben ser “grandes”, mientras que los independientes deben ser “chicos”. El resultado clave es el lema de intercambio de Steinitz.

Cuando un conjunto de vectores es tanto generador, como linealmente independiente, está en un equilibrio que ayuda a describir una propiedad muy importante de un espacio vectorial: la de dimensión.

Entradas relacionadas