Archivo de la etiqueta: vectores

Álgebra Lineal I: Problemas de combinaciones lineales, generadores e independientes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya hablamos de combinaciones lineales, de conjuntos generadores y de conjuntos independientes. Lo que haremos aquí es resolver problemas para reforzar el contenido de estos temas.

Problemas resueltos

Problema 1. Demuestra que el polinomio $p(x)=x^2+x+1$ no puede ser escrito en el espacio vectorial $\mathbb{R}[x]$ como una combinación lineal de los polinomios \begin{align*} p_1(x)=x^2-x\\ p_2(x) = x^2-1\\ p_3(x) = x-1.\end{align*}

Solución. Para resolver este problema, podemos plantearlo en términos de sistemas de ecuaciones. Supongamos que existen reales $a$, $b$ y $c$ tales que $$p(x)=ap_1(x)+bp_2(x)+cp_3(x).$$

Desarrollando la expresión, tendríamos que
\begin{align*}
x^2+x+1 &= a(x^2-x)+b(x^2-1)+c(x-1)\\
&= (a+b)x^2+(-a+c)x+(-b-c),
\end{align*}

de donde igualando coeficientes de términos del mismo grado, obtenemos el siguiente sistema de ecuaciones: $$\begin{cases}a+b & = 1\\ -a + c &= 1 \\ -b-c &= 1.\end{cases}$$

Para mostrar que este sistema de ecuaciones no tiene solución, le aplicaremos reducción gaussiana a la siguiente matriz extendida: $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ -1 & 0 & 1 & 1 \\ 0 & -1 & -1 & 1 \end{pmatrix}.$$

Tras la transvección $R_2+R_1$, obtenemos $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & -1 & -1 & 1 \end{pmatrix}.$$

Tras la transvección $R_3+R_2$, obtenemos $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & 0 & 0 & 3 \end{pmatrix}.$$

De aquí se ve que la forma escalonada reducida tendrá un pivote en la última columna. Por el teorema de existencia y unicidad el sistema original no tiene solución.

$\square$

En el problema anterior usamos un argumento de reducción gaussiana para mostrar que el sistema no tiene solución. Este es un método general que funciona en muchas ocasiones. Una solución más sencilla para ver que el sistema del problema no tiene solución es que al sumar las tres ecuaciones se obtiene $0=3$.

Problema 2. Sea $n$ un entero positivo. Sea $W$ el subconjunto de vectores en $\mathbb{R}^n$ cuya suma de entradas es igual a $0$. Sea $Z$ el espacio generado por el vector $(1,1,\ldots,1)$ de $\mathbb{R}^n$. Determina si es cierto que $$\mathbb{R}^n=W\oplus Z.$$

Solución. El espacio $Z$ está generado por todas las combinaciones lineales que se pueden hacer con el vector $v=(1,1,\ldots,1)$. Como sólo es un vector, las combinaciones lineales son de la forma $av$ con $a$ en $\mathbb{R}$, de modo que $Z$ es precisamente $$Z=\{(a,a,\ldots,a): a\in\mathbb{R}\}.$$

Para obtener la igualdad $$\mathbb{R}^n=W\oplus Z,$$ tienen que pasar las siguientes dos cosas (aquí estamos usando un resultado de la entrada de suma y suma directa de subespacios):

  • $W\cap Z = \{0\}$
  • $W+Z=\mathbb{R}^n$

Veamos qué sucede con un vector $v$ en $W\cap Z$. Como está en $Z$, debe ser de la forma $v=(a,a,\ldots,a)$. Como está en $W$, la suma de sus entradas debe ser igual a $0$. En otras palabras, $0=a+a+\ldots+a=na$. Como $n$ es un entero positivo, esta igualdad implica que $a=0$. De aquí obtenemos que $v=(0,0,\ldots,0)$, y por lo tanto $W\cap Z = \{0\}$.

Veamos ahora si se cumple la igualdad $\mathbb{R}^n=W+Z$. Por supuesto, se tiene que $W+Z\subseteq \mathbb{R}^n$, pues los elementos de $W$ y $Z$ son vectores en $\mathbb{R}^n$. Para que la igualdad $\mathbb{R}^n\subseteq W+Z$ se cumpla, tiene que pasar que cualquier vector $v=(x_1,\ldots,x_n)$ en $\mathbb{R}^n$ se pueda escribir como suma de un vector $w$ uno con suma de entradas $0$ y un vector $z$ con todas sus entradas iguales. Veamos que esto siempre se puede hacer.

Para hacerlo, sea $S=x_1+\ldots+x_n$ la suma de las entradas del vector $v$. Consideremos al vector $w=\left(x_1-\frac{S}{n},\ldots, x_n-\frac{S}{n} \right)$ y al vector $z=\left(\frac{S}{n},\ldots,\frac{S}{n}\right)$.

Por un lado, $z$ está en $Z$, pues todas sus entradas son iguales. Por otro lado, la suma de las entradas de $w$ es
\begin{align*}
\left(x_1-\frac{S}{n}\right)+\ldots + \left(x_n-\frac{S}{n}\right)&=(x_1+\ldots+x_n)-n\cdot \frac{S}{n}\\ &= S-S=0,
\end{align*}

lo cual muestra que $w$ está en $W$. Finalmente, notemos que la igualdad $w+z=v$ se puede comprobar haciendo la suma entrada a entrada. Con esto mostramos que cualquier vector de $V$ es suma de vectores en $W$ y $Z$ y por lo tanto concluimos la igualdad $\mathbb{R}^n=W\oplus Z$.

$\square$

En el problema anterior puede parecer algo mágico la propuesta de vectores $w$ y $z$. ¿Qué es lo que motiva la elección de $\frac{S}{n}$? Una forma de enfrentar los problemas de este estilo es utilizar la heurística de trabajar hacia atrás. Sabemos que el vector $w$ debe tener todas sus entradas iguales a cierto número $a$ y queremos que $z=v-w$ tenga suma de entradas igual a $0$. La suma de las entradas de $v-w$ es $$(x_1-a)+\ldots+(x_n-a)= S -na.$$ La elección de $a=\frac{S}{n}$ está motivada en que queremos que esto sea cero.

Problema 3. Considera las siguientes tres matrices en $M_2(\mathbb{C})$:
\begin{align*}
A&= \begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix}\\
B&= \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}\\
C&= \begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix}.
\end{align*}

Demuestra que $A$, $B$ y $C$ son matrices linealmente dependientes. Da una combinación lineal no trivial de ellas que sea igual a $0$.

Solución. Para mostrar que son linealmente dependientes, basta dar la combinación lineal no trivial buscada. Buscamos entonces $a,b,c$ números complejos no cero tales que $aA+bB+cC=O_2$, la matriz cero en $M_2(\mathbb{C})$. Para que se de esta igualdad, es necesario que suceda entrada a entrada. Tenemos entonces el siguiente sistema de ecuaciones:
$$\begin{cases}
-i a + 2i b + ic &= 0\\
-3a + b -7c &=0\\
2a + 3b + 12c &= 0\\
3a -b +7c &=0.
\end{cases}$$

En este sistema de ecuaciones tenemos números complejos, pero se resuelve exactamente de la misma manera que en el caso real. Para ello, llevamos la matriz correspondiente al sistema a su forma escalonada reducida. Comenzamos dividiendo el primer renglón por $-i$ y aplicando transvecciones para hacer el resto de las entradas de la columna iguales a $0$. Luego intercambiamos la tercera y cuarta filas.

\begin{align*}
&\begin{pmatrix}
-i & 2i & i \\
-3 & 1 & -7 \\
2 & 3 & 12 \\
3 & -1 & 7
\end{pmatrix}\\
\to&\begin{pmatrix}
1 & -2 & -1 \\
0 & -5 & -10 \\
0 & 7 & 14 \\
0 & 5 & 10
\end{pmatrix}
\end{align*}

Ahora reescalamos con factor $-\frac{1}{5}$ la segunda fila y hacemos transvecciones para hacer igual a cero el resto de entradas de la columna 2:

\begin{align*}
&\begin{pmatrix}
1 & 0& 3 \\
0 & 1 & 2 \\
0 & 0 & 0 \\
0 & 0 & 0
\end{pmatrix}
\end{align*}

Con esto llegamos a la forma escalonada reducida de la matriz. De acuerdo al procedimiento que discutimos en la entrada de sistemas lineales homogéneos, concluimos que las variables $a$ y $b$ son pivote y la variable $c$ es libre. Para poner a $a$ y $b$ en términos de $c$, usamos la primera y segunda ecuaciones. Nos queda \begin{align*} a &= -3c \\ b &= -2c. \end{align*}

En resumen, concluimos que para cualqueir número complejo $c$ en $\mathbb{C}$ se tiene la combinación lineal $$-3c\begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix} – 2c \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix} + c\begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.$$

Una posible combinación lineal no trivial se obtiene tomando $c=1$.

$\square$

En el problema anterior bastaba encontrar una combinación lineal no trivial para acabar el ejercicio. Por supuesto, esto también se puede hacer por prueba y error. Sin embargo, la solución que dimos da una manera sistemática de resolver problemas de este estilo.

Problema 4. Consideremos el espacio vectorial $V$ de funciones $f:\mathbb{R}\to \mathbb{R}$. Para cada real $a$ en $(0,\infty)$, definimos a la función $f_a\in V$ dada por $$f_a(x)=e^{ax}.$$

Tomemos reales distintos $0<a_1<a_2<\ldots<a_n$. Supongamos que existe una combinación lineal de las funciones $f_{a_1},\ldots,f_{a_n}$ que es igual a $0$, es decir, que existen reales $\alpha_1,\ldots,\alpha_n$ tales que $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0$$ para todo real $x\geq 0$.

Muestra que $\alpha_1=\ldots=\alpha_n=0$. Concluye que la familia $(f_a)_{a\in \mathbb{R}}$ es linealmente independiente en $V$.

Solución. Procedemos por inducción sobre $n$. Para $n=1$, si tenemos la igualdad $\alpha e^{ax}=0$ para toda $x$, entonces $\alpha=0$, pues $e^{ax}$ siempre es un número positivo. Supongamos ahora que sabemos el resultado para cada que elijamos $n-1$ reales cualesquiera. Probaremos el resultado para $n$ reales cualesquiera.

Supongamos que tenemos la combinación lineal $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0$$ para todo real $x\geq 0$.

Dividamos esta igualdad que tenemos entre $e^{a_nx}$:

$$\alpha_1 e^{(a_1-a_n)x} + \alpha_2e^{(a_2-a_n)x} + \ldots + \alpha_{n-1}e^{(a_{n-1}-a_n)x}+\alpha_n = 0.$$

¿Qué sucede cuando hacemos $x\to \infty$? Cada uno de los sumandos de la forma $\alpha_i e^{(a_i-a_n)x}$ se hace cero, pues $a_i<a_n$ y entonces el exponente es negativo y se va a $-\infty$. De esta forma, queda la igualdad $\alpha_n=0$. Así, nuestra combinación lineal se ve ahora de la forma $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_{n-1} e^{a_{n-1}x} = 0.$$

Por la hipótesis inductiva, $\alpha_1=\ldots=\alpha_{n-1}=0$. Como también ya demostramos $\alpha_n=0$, hemos terminado el paso inductivo.

Concluimos que la familia (infinita) $(f_a)_{a\in \mathbb{R}}$ es linealmente independiente en $V$ pues cualquier subconjunto finito de ella es linealmente independiente.

$\square$

El problema anterior muestra que la razón por la cual ciertos objetos son linealmente independientes puede deberse a una propiedad analítica o de cálculo. A veces dependiendo del contexto en el que estemos, hay que usar herramientas de ese contexto para probar afirmaciones de álgebra lineal.

Entradas relacionadas

Agradecimiento

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Bases y dimensión de espacios vectoriales

Por Ayax Calderón

Introducción

Ya hablamos de conjuntos generadores y de independencia lineal. Además, ya platicamos también del lema de intercambio de Steinitz. Con estas herramientas, tenemos todo a nuestra disposición para desarrollar la teoría de dimensión de espacios vectoriales.

Para espacios vectoriales en general, esto puede no resultar tan sencillo. Por esta razón, para este tema nos enfocaremos en el caso en el que la dimensión es finita. Sin embargo, también veremos ejemplos de espacios que no son así, y hablaremos un poco de cómo son.

Espacios de dimensión finita

Definición. Se dice que un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos.

Otra forma de interpretar la definición anterior es la siguiente:
$V$ es un espacio vectorial de dimensión finita si existe una familia finita de vectores $v_1, v_2, \dots , v_n \in V$ tal que todos los vectores en $V$ se pueden expresar como combinación lineal de dicha familia. Por ejemplo, los espacios $F^n, \hspace{2mm} M_{m,n}(F), \hspace{2mm}$ y $\hspace{2mm} \mathbb{R}_n[x]$ son de dimensión finita. Sin embargo, no todos los espacios vectoriales son de dimensión finita, de hecho la mayoría no lo son.

Problema. Demuestra que el espacio vectorial $V$ de todos los polinomios con coeficientes reales no es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.

Demostración. Supongamos que $V$ tiene un conjunto generador finito, entonces existen polinomios $p_1,p_2,\dots,p_n\in V$ tales que $V=\text{span}(p_1,p_2,\dots,p_n)$. Sea $d=\max\{deg(p_1), \dots, deg(p_n)\}$. Como todos los $p_i$ tienen grado a lo más $d$, entonces cualquier combinación lineal de $p_1,p_2,\dots,p_n$ también tiene grado a lo más $d$. Se sigue que todo vector en $V$ tiene grado a lo más $d$, pero eso es imposible, pues $deg(x^{d+1})=d+1>d$. Por lo tanto $V$ no es de dimensión finita.

$\square$

Nos gustaría definir la dimensión de un espacio vectorial. Para ilustrar esto es bueno pensar primero en $\mathbb{R}^n$ para distintos valores de $n$. Una linea (digamos $\mathbb{R}$) debería tener dimensión $1$, un plano (digamos $\mathbb{R}^2$) debería tener dimensión 2, y en general $\mathbb{R}^n$ debería tener dimensión $n$.

Antes de profundizar más en esto, es conveniente mencionar algunas definiciones y problemas prácticos para generar una mejor intuición sobre el rumbo que estamos a punto de tomar.

Definición. Una base de un espacio vectorial $V$ es un subconjunto $B$ de $V$ tal que $B$ es linealmente independiente y generador.

Ejemplos.

  • El conjunto $B=\{e_1,\ldots,e_n\}$ de vectores canónicos en $\mathbb{F}^n$ es una base. Esto se puede verificar con lo que hicimos al inicio del curso, cuando mostramos que cualquier vector $v$ en $\mathbb{F}^n$ se puede escribir de manera única como $v=x_1e_1+\ldots+x_ne_n$ con $x_1,\ldots,x_n$ escalares. Como existe al menos una forma, entonces $\text{span}(B)=F^n$. Como es única, en particular la única forma de escribir al vector $0$ es si $x_1=\ldots=x_n=0$. Esto muestra que $B$ es generador y linealmente independiente.
  • El conjunto $B=\{E_{ij}\}$ de matrices canónicas en $M_{m,n}(F)$ es una base.
  • El conjunto $1,x,\ldots,x^n$ es una base de $\mathbb{R}_n[x]$.

Encontrar bases de subespacios

Como los subespacios de espacios vectoriales también son espacios vectoriales, entonces también tiene sentido hablar de si un conjunto de vectores es base para un subespacio. Veamos ahora varios problemas para entender mejor esto.

Problema 1. Dada la matriz $A\in M_2(\mathbb{R})$
\begin{align*}
A=\begin{pmatrix}
2 & 0\\
0 & 3
\end{pmatrix}
\end{align*}
encuentra una base para el subespacio $U$ de $M_2(\mathbb{R})$ definido por
\begin{align*}
U=\{X\in M_2(\mathbb{R}): XA=AX\}.
\end{align*}

Solución. Considera la matriz $X=\begin{pmatrix}
a_1 & a_2\\
a_3 & a_4\end{pmatrix}$. Entonces $X\in U$ si y sólo si $XA=AX$, lo anterior lo escribimos como
\begin{align*}
\begin{pmatrix}
2a_1 & 3 a_2\\
2a_3 & 3a_4
\end{pmatrix} = \begin{pmatrix}
2a_1 & 2 a_2\\
3a_3 & 3a_4
\end{pmatrix}.
\end{align*}
De la igualdad anterior obtenemos que $a_2=a_3=0$. Por lo tanto
\begin{align*}
U=\left\{\begin{pmatrix}
a_1 & 0\\
0 & a_4\end{pmatrix}:a_1,a_4\in \mathbb{R}\right\}.
\end{align*}

Este es un primer paso, pues nos permite poner al subespacio $U$ en una forma en la que es más fácil de entender. Ahora es más fácil encontrar una base para $U$. Proponemos al siguiente conjunto de dos matrices:
\begin{align*}
B=\left\{ \begin{pmatrix}
1 & 0\\
0 & 0\end{pmatrix} , \begin{pmatrix}
0&0\\
0 & 1\end{pmatrix}\right\}.
\end{align*}

Por un lado, este es un conjunto generador para $U$, pues cualquier elemento de $U$ se puede escribir como combinación lineal de elementos en $B$ como sigue: $$\begin{pmatrix} a_1 & 0 \\ 0 & a_4 \end{pmatrix}=a_1 \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + a_4 \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}.$$

Por otro lado, $B$ es un conjunto linealmente independiente pues si $a$ y $b$ son escalares que tan una combinación lineal igual a cero entonces tendríamos $$\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = a \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + b \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}.$$

Igualando la primera y última matriz entrada a entrada, tenemos que $a=b=0$.

$\triangle$

Es importante que revises el problema anterior con profundidad, pues da una idea de cómo encontrar una base $B$ de un subespacio $U$ de un espacio vectorial $V$. Una receta que funciona en algunos casos es la siguiente:

  • Entender bien el subespacio $U$ del que hay que dar una base.
  • Expresar a $U$ en términos simples.
  • Ver cómo son los vectores de $U$, y de ahí proponer una base $B$. Para esta parte hay que jugar un poco con conjuntos de vectores, para ver si son suficientes para generar y no son demasiados como para ya no ser linealmente independientes.
  • Mostrar que $B$ genera a $U$.
  • Mostrar que $B$ es linealmente independiente en $V$.

Veamos más ejemplos.

Problema 2. Determina una base para el subespacio $U$ de $\mathbb{R}^4$ dado por
\begin{align*}
U=\{(a,b,c,d)\in \mathbb{R}^4:a+b=0, c=2d\}.
\end{align*}

Solución. Como $b=-a$ y $c=2d$, entonces
\begin{align*}
U=\{(a,-a,2d,d)\in \mathbb{R}^4:a,d\in \mathbb{R}\}=\{av_1+dv_2|a,d\in \mathbb{R}\},
\end{align*}
donde $v_1=(1,-1,0,0)$ y $v_2=(0,0,2,1)$. Por lo tanto $v_1,v_2$ generan a $U$. También son linealmente independientes, pues la relación $av_1+dv_2=0$ es equivalente a $(a,-a,2d,d)=(0,0,0,0)$ e implica $a=d=0$.Se sigue que $\{v_1,v_2\}$ es una base para $U$.

$\triangle$

Problema 3. Considera los subespacios $U,V$ de $\mathbb{R}^4$ definidos por
\begin{align*}
U=\{(x,y,z,w)\in\mathbb{R}^4:y+z+w=0\}
\end{align*}
y
\begin{align*}
V=\{(x,y,z,w)\in\mathbb{R}^4:x=-y, \hspace{2mm}z=2w\}.
\end{align*}
Encuentra una base para cada uno de los subespacios $U,V$ y $U\cap V$ de $\mathbb{R}^4$.

Solución. Expresando a $w$ en términos de $y$ y $z$, obtenemos
\begin{align*}
U&=\{(x,y,z,-y-z)|y,z\in\mathbb{R}\}\\
&=\{xu_1+yu_2+zu_3|x,y,z \in \mathbb{R}\},
\end{align*}
donde $u_1=(1,0,0,0), u_2=(0,1,0,-1)$ y $u_3=(0,0,1,-1)$.

Veamos si $u_1,u_2,u_3$ son linealmente independientes. La igualdad $xu_1+yu_2+zu_3=0$ es equivalente a $(x,y,z,-y-z)=(0,0,0,0)$ e implica $x=y=z=0$. Por lo tanto, los vectores $u_1,u_2,u_3$ son linealmente independientes y forman una base de $U$.

Ahora, para $V$. Es fácil ver que
\begin{align*}
V&=\{(-y,y,2w,w)| y,w\in\mathbb{R}\}\\
&=\{yv_1+wv_2| y,w\in \mathbb{R}\},
\end{align*}
donde $v_1=(-1,1,0,0) \hspace{2mm}$ y $v_2=(0,0,2,1)$.

Nuevamente, $v_1, v_2$ son linealmente independientes, pues la relación $yv_1+wv_2=0$ es equivalente a $(-y,y,2w,w)=(0,0,0,0)$ e implica $y=w=0$. Por lo tanto $v_1,v_2$ forman una base de $V$.

Finalmente, el vector $(x,y,z,w)\in\mathbb{R}^4$ pertenece a $U\cap V$ si y sólo si
\begin{align*}
x=-y, \hspace{3mm} z=2w, \hspace{3mm} y+z+w=0.
\end{align*}
Se sigue que $x=3w, \hspace{2mm} z=2w \hspace{2mm}$ y $y=-3w$, o bien
\begin{align*}
(x,y,z,w)=(3w,-3w,2w,w)=w(3,-3,2,1).
\end{align*}
Por lo tanto $\{(3,-3,2,1)\}$ es una base de $U \cap V$.

$\triangle$

Problema 4. Sea $V$ el espacio de funciones $f:\mathbb{R}\longrightarrow \mathbb{R}$ generado por las funciones en $B=\{1,x\mapsto \sin (2x), x\mapsto \cos(2x)\}$.

a) Demuestra que $B$ es una base de $V$.
b) Demuestra que $x\mapsto \sin ^2 (x)$ es una función en $V$ y exprésala como combinación lineal de los elementos de $B$.

Solución. a) . Como $V$ es el generado de $B$, por definición $B$ es generador. Así, basta demostrar que los vectores en $B$ son linealmente independientes. En otras palabras, queremos ver que si $a,b,c$ son números reales tales que
\begin{align*}
a+b\sin (2x) + c\cos (2x)=0
\end{align*}
para todo $x\in \mathbb{R}$, entonces $a=b=c=0$.

Tomando $x=0$ se obtiene que $a+c=0$. Si tomamos $x=\frac{\pi}{2}$ obtenemos $a-c=0$. Por lo tanto $a=c=0$. Finalmente, si tomamos $x=\frac{\pi}{4}$ obtenemos $b=0$.

b) Para cada $x\in\mathbb{R}$ se tiene
\begin{align*}
\cos (2x)&=2\cos^2(x)-1\\
&=2(1-\sin^2(x))-1\\
&=1-2\sin^2(x),
\end{align*}
por lo tanto
\begin{align*}
\sin^2(x)=\frac{1-\cos (2x)}{2}.
\end{align*}
Por lo tanto $x\mapsto \sin^2(x)$ pertence a $V$ y lo expresamos como combinación lineal de los elementos de $B$ de la siguiente manera:
\begin{align*}
\sin^2(x)=\frac{1}{2}\cdot 1 + 0\cdot \sin(2x) – \frac{1}{2} \cos (2x).
\end{align*}

$\square$

Dimensión finita y bases

Ahora veamos un teorema muy importante en la teoría de la dimensión de espacios vectoriales.

Teorema. Sea $V$ un espacio vectorial de dimensión finita. Entonces
a) $V$ contiene una base con una cantidad finita de elementos.
b) Cualesquiera dos bases de $V$ tienen el mismo número de elementos (en particular, cualquier base tiene una cantidad finita de elementos).

Demostración. a) Como $V$ es de dimensión finita, entonces tiene al menos un conjunto generador finito. Sea $B$ un conjunto generador de $V$ con el menor número posible de elementos. Vamos a demostrar que $B$ es una base para $V$. $B$ ya es conjunto generador porque así lo escogimos, sólo falta probar que es linealmente independiente.

Supongamos por el contrario que $B$ no es linealmente independiente, entonces existe $v\in B$ tal que $v\in \text{span}(B\backslash \{v\})$. Por lo tanto $$\text{span}(B\setminus\{v\})=\text{span}(B)=V.$$

Pero eso es imposible pues $B$ se tomó de tamaño mínimo. Por lo tanto $B$ es linealmente independiente. Se sigue el resultado deseado.

b) Sea $B$ una base con una cantidad finita de elementos, digamos $n$. Sea $B’$ otra base de $V$. Por definición de base, $B’$ es linealmente independiente y $B$ es un conjunto generador con $n$ elementos.

Por el lema de Steinitz, $B’$ es finito y tiene a lo más $n$ elementos. Lo anterior nos muestra que cualquier base tiene a lo más $n$ elementos. De hecho, si $B’$ tiene $d$ elementos, el lema de Steinitz garantiza que $n\leq d$.

Ahora volvemos a aplicar el mismo argumento que antes, pero pensando a $B$ como linealmente independiente y a $B’$ como generador. Concluimos que $k\leq d$. De este modo, $k=d$ y por lo tanto toda base de $V$ tiene la misma cantidad de elementos.

$\square$

El resultado anterior justifica que la siguiente definición esté bien hecha.

Definición. Sea $V$ un espacio vectorial de dimensión finita. Definimos la dimensión $dim V$ de $V$ como el número de elementos de una base de $V$.

Ejemplos y problemas de dimensión

Ejemplo 1. Considera el espacio vectorial $\mathbb{R}^n$ y su base canónica $B=\{e_1,e_2,\dots , e_n\}$. Como $B$ es base y tiene $n$ elementos, entonces $dim(\mathbb{R}^n)=n$.

$\triangle$

Ejemplo 2. Considera el espacio vectorial $\mathbb{R}_n[x]$ de polinomios con coeficientes reales y grado a lo más $n$. Una base para $\mathbb{R}_n[x]$ es $\{1,x,\dots, x^n\}$, por lo tanto $dim(\mathbb{R}_n[x])=n+1$.

$\triangle$

Ejemplo 3. Considera el espacio vectorial $M_{m,n}(\mathbb{R})$. Sea $E_{ij}\in M_{m,n}(\mathbb{R})$ la matriz cuya entrada $(i,j)$ es $1$ y el resto de sus entradas son $0$. Entonces $B=\{E_{ij}| 1\leq i \leq m, 1\leq j \leq n \}$ es una base para $M_{m,n}(\mathbb{R})$. Así, $\dim(M_{m,n}(\mathbb{R}))=mn$.

$\triangle$

Problema 4. Encuentra una base y la dimensión del subespacio
\begin{align*}
V=\{(a,2a)|a\in \mathbb{R}\}\subset \mathbb{R}^2.
\end{align*}

Solución. Notemos que $V=\text{span}((1,2))$, pues $(a,2a)=a(1,2)$. Como $(1,2)\neq (0,0)$, entonces $B=\{(1,2)\}$ es una base de $V$. Por lo tanto $\dim(V)=1$.

$\triangle$

Un lema útil para demostrar que algo es base

Para finalizar esta entrada demostraremos otro teorema muy importante en la teoría de la dimensión de espacios vectoriales. En este resultado usamos de nuevo de manera repetida el lema de intercambio de Steinitz.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$. Entonces
a) Cualquier conjunto linealmente independiente de vectores de $V$ tiene a lo más $n$ elementos.
b) Cualquier conjunto generador de $V$ tiene al menos $n$ elementos.
c) Si $S$ es un subconjunto de $V$ con $n$ elementos, entonces las siguientes afirmaciones son equivalentes:

  1. $S$ es linealmente independiente.
  2. $ S $ es un conjunto generador.
  3. $S$ es una base de $V$.

Demostración. Sea $V$ una base de $B$. Por definición $B$ tiene $n$ elementos.

a) Como $B$ es un conjunto generador con $n$ elementos, por el lema de intercambio se tiene que cualquier conjunto linealmente independiente tiene a lo más $n$ elementos.

b) Sea $S$ un conjunto generador de $V$ y supongamos que $S$ tiene $d<n$ elementos. Como $B$ es linealmente independiente, entonces por el lema de intercambio se tiene que $n \leq d$, lo cual sería una contradicción.

c) Es claro que (3) implica (1) y (2), por lo que solamente probaremos que (1) implica (3) y que (2) implica (3).

Supongamos que $S$ es linealmente independiente, entonces por el lema de intercambio de Steintz podemos agregar $n-n=0$ vectores a $S$ de manera que el nuevo conjunto es generador. Claramente el nuevo conjunto es $S$ mismo, pues no le agregamos nada. Por lo tanto $S$ es un conjunto generador y como estamos bajo el supuesto de que $S$ es linealmente independiente, entonces $S$ es una base de $V$.

Ahora supongamos que $S$ es un conjunto generador que no es linealmente independiente. Entonces existe $v\in S$ tal que $v\in \text{span}(S\setminus \{v\})$. Se sigue que $S\setminus \{v\}$ es un conjunto generador de $n-1$ elementos (al generar a $v$, genera todo lo que generaba $S$). Pero esto contradice el inciso b). Por lo tanto $S$ es linealmente independiente y por lo tanto es una base de $V$.

$\square$

El resultado anterior nos permite pensar a las bases de un espacio vectorial como los conjuntos linealmente independientes «más grandes», o bien como los conjuntos generadores «más chicos». En la siguiente entrada veremos ejemplos prácticos del uso del teorema anterior.

Más adelante…

A partir de la definición de dimensión, más adelante construiremos la noción de rango, que nos permite decir «qué tanta información guarda una matriz». La dimensión ayuda también a comprender cuándo hay cierto tipo de transformaciones lineales entre espacios vectoriales. Una aplicación más de la dimensión es que en muchos casos queremos probar afirmaciones para todos los espacios vectoriales de dimensión finita. Como la dimensión nos permite asociar a cada uno de estos un entero, muchas de estas demostraciones se pueden hacer por inducción.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En todos los problemas en donde se hable de subespacios, verifica que en efecto los conjuntos dados son subespacios del espacio vectorial mencionado.
  • En todos los ejemplos y problemas en los que se menciona que algo es base, verifica que en efecto se tiene un conjunto que es generador y linealmente independiente.
  • Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y de dimensión $n$. Demuestra que si ves a $V$ como un espacio vectorial sobre $\mathbb{R}$, entonces $\dim(V)=2n$.
  • Sea $V$ un espacio vectorial de dimensión finita y $W$ un subespacio de $V$. Demuestra que $W$ es de dimensión finita, que $\dim(W)\leq \dim(V)$ y que la igualdad se da si y sólo si $W=V$.
  • Sean $W_1,W_2$ subespacios de un espacio vectorial $V$ con dimensiones $m$ y $n$, respectivamente, con $m\geq n$.
    a) Demuestra que $\dim(W_1\cap W_2)\leq n$.
    b) Demuestra que $\dim(W_1 + W_2)\leq m+n$.
  • Encuentra la dimensión del subespacio de matrices en $M_n(\mathbb{R})$ que son simétricas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Conjuntos generadores e independencia lineal

Por Ayax Calderón

Introducción

En esta entrada explicaremos cómo podemos estudiar espacios y subespacios vectoriales a partir de conjuntos más pequeños que guardan la información más relevante de ellos. A estos conjuntos les llamaremos generadores. Además estudiaremos el concepto de independencia lineal. A grandes rasgos podemos decir que un conjunto es linealmente independiente cuando no tiene «elementos redundantes» que se pueden obtener a partir de otros en el conjunto. En ambos casos, nos basaremos fuertemente en el concepto de combinaciones lineales que ya discutimos anteriormente.

Conjuntos generadores

El inciso (1) de la siguiente definición ya lo mencionamos parcialmente en una entrada anterior, para un conjunto finito de vectores. Aquí lo enunciamos de modo que también aplique para conjuntos posiblemente infinitos.

Definición. Sea $V$ un espacio vectorial sobre $F$ y $S$ un subconjunto de $V$.

  1. El subespacio generado por $S$ es el subconjunto de $V$ que consiste de todas las combinaciones lineales $c_1v_1+c_2v_2+\dots + c_nv_n$, donde $v_1,v_2,\dots,v_n$ es un subconjunto finito de $S$ y $c_1,c_2, \dots , c_n$ son escalares en $F$. Al subespacio generado de $S$ lo denotamos por $\text{span}(S)$. A menudo nos referiremos al subespacio generado de $S$ simplemente como «el generado de $S$».
  2. b) Decimos que $S$ es un conjunto generador de $V$ si $\text{span}(S)=V$.

En otras palabras, un subconjunto $S$ de $V$ es generador cuando cualquier elemento de $V$ se puede escribir como una combinación lineal de elementos de $S$.

Ejemplos.

  1. Considera el espacio vectorial $\mathbb{R}^3$ y el conjunto
    \begin{align*}
    e_1=\begin{pmatrix}
    1\\
    0\\
    0\end{pmatrix}, \hspace{2mm} e_2=\begin{pmatrix}
    0\\
    1\\
    0\end{pmatrix}, \hspace{2mm} e_3=\begin{pmatrix}
    0\\
    0\\
    1\end{pmatrix}.
    \end{align*}
    Entonces $e_1,e_2,e_3$ forma un conjunto generador de $\mathbb{R}^3$, pues cada vector $X=\begin{pmatrix}
    x\\
    y\\
    z\end{pmatrix}$ se puede escribir como $X=xe_1+ye_2+ze_3$. Sin embargo, el conjunto conformado por únicamente $e_2$ y $e_3$ no es generador pues, por ejemplo, el vector $(1,1,1)$ no puede ser escrito como combinación lineal de ellos.
  2. Sea $\mathbb{R}_n[x]$ el espacio de los polinomios con coeficientes reales y de grado a los más $n$. La familia $1,x,\dots, x^n$ es un conjunto generador.
  3. Considera el espacio $M_{m,n}(F)$. Sea $E_{ij}$ la matriz cuya entrada $(i,j)$ es $1$ y todas sus demás entradas son $0$. Entonces la familia $(E_{ij})_{1\leq i\leq m, 1\leq j \leq n}$ es un conjunto generador de $V$, pues cada matriz $A=[a_{ij}]$ puede ser escrita como
    \begin{align*}
    A=\displaystyle\sum_{i=1}^m \displaystyle\sum_{j=1}^n a_{ij}E_{ij}.
    \end{align*}
    Este ejemplo lo discutimos anteriormente, cuando hablamos de matrices y sus operaciones.
  4. Para dar un ejemplo donde un conjunto generador consiste de una cantidad infinita de elementos, considera el espacio $\mathbb{R}[x]$ de polinomios. En este caso, el conjunto $\{x^i: i \geq 0\}$ de todas las potencias de $x$ es un conjunto generador. Seria imposible tener un conjunto generador finito para $\mathbb{R}[x]$ pues si ese conjunto es $S$ y el grado máximo de un polinomio en $S$ es $M$, entonces no podremos obtener al polinomio $x^{M+1}$ como combinación lineal de elementos de $S$.

$\triangle$

Reducción gaussiana y conjuntos generadores

Cuando estamos en el espacio vectorial $F^n$, la reducción gaussiana también resulta muy útil a la hora de estudiar el subespacio generado por los ciertos vectores $v_1,v_2,\dots, v_k$. Considera la matriz $A\in M_{k,n}(F)$ obtenida por poner como vectores fila a $v_1,v_2,\dots, v_k$ en la base canónica de $F^n$ . Hacer operaciones elementales sobre los renglones de $A$ no altera el subespacio generado por sus renglones, de manera que $\text{span}(v_1,\dots, v_k)$ es precisamente el subespacio generado los renglones de $A_{red}$. Esto nos da una manera más sencilla de entender a $\text{span}(v_1, \dots, v_k)$.

Ejemplo. Considera los vectores $v_1=(1,2,6),\hspace{2mm} v_2=(-1,3,2), \hspace{2mm}v_3=(0,5,8)$ en $\mathbb{R}^3$. Queremos encontrar una manera sencilla de expresar $V=\text{span}(v_1,v_2,v_3)$.
Considera la matriz
\begin{align*}
A=\begin{pmatrix}
1 & 2 & 6\\
-1 & 3 & 2\\
0 & 5 & 8\end{pmatrix}.
\end{align*}
Aplicando el algortimo de reducción gaussiana (manualmente o con una calculadora online) llegamos a que
\begin{align*}
A_{red}=\begin{pmatrix}
1 & 0 & \frac{14}{5}\\
0 & 1 & \frac{8}{5}\\
0 & 0 & 0\end{pmatrix}.
\end{align*}
De manera que
\begin{align*}
V=\text{span}\left(\left(1,0,\frac{14}{5}\right),\left(0,1,\frac{8}{5}\right)\right).
\end{align*}

Siendo más explícitos todavía, $V$ es entonces el conjunto de vectores de $\mathbb{R}^3$ de la forma $$a\left(1,0,\frac{14}{5}\right)+b\left(0,1,\frac{8}{5}\right)=\left(a,b,\frac{14a+8b}{5}\right).$$

$\triangle$

Independencia lineal

Sean $V$ un espacio vectorial sobre un campo $F$, $v_1, \dots ,v_n\in V$ y $v\in \text{span}(v_1, \dots, v_n)$. Por definición, existen escalares $c_1,c_2, \dots , c_n$ en $F$ tales que
\begin{align*}
v=c_1v_1+c_2v_2+\dots + c_nv_n.
\end{align*}

No hay algo en la definición de subespacio generado que nos indique que los escalares deben ser únicos, y en muchas ocasiones no lo son.

Problema. Sean $v_1,v_2,v_3$ tres vectores en $\mathbb{R}^n$ tales que $3v_1+v_2+v_3=0$ y sea $v=v_1+v_2-2v_3$. Encuentra una infinidad de maneras de expresar a $v$ como combinación lineal de $v_1,v_2,v_3$.

Solución. Sea $\alpha \in \mathbb{R}$. Multiplicando por $\alpha$ la igualdad $3v_1+v_2+v_3=0$ y sumando la igualdad $v_1+v_2+v_3=v$ se sigue que
\begin{align*}
v=(3\alpha + 1)v_1 + (\alpha +1)v_2 + (\alpha – 2)v_3.
\end{align*}
Así, para cada $\alpha \in \mathbb{R}$ hay una manera diferente de expresar a $v$ como combinación lineal de $v_1,v_2,v_3$.

$\triangle$

Supongamos ahora que el vector $v$ puede ser escrito como $v=a_1v_1+a_2v_2+ \dots + a_nv_n$. Si $b_1,b_2, \dots, b_n$ son otros escalares tales que $v=b_1v_1+b_2v_2+ \dots + b_nv_n$, entonces al restar la segunda relación de la primera obtenemos
\begin{align*}
0=(a_1-b_1)v_1+ (a_2-b_2)v_2+ \dots + (a_n-b_n)v_n.
\end{align*}
De manera que podríamos concluir que los escalares $a_1,a_2,\dots,a_n$ son únicos si la ecuación
\begin{align*}
z_1v_1+z_2v_2+ \dots + z_nv_n=0
\end{align*}
implica $z_1=z_2=\dots=z_n=0$ (con $z_1,\dots ,z_n\in F$), pero este no siempre es el caso (ejemplo de ello es el problema anterior).

Los vectores $v_1, v_2, \dots, v_n$ que tienen la propiedad de generar a los vectores en $\text{span}(v_1,\ldots,v_n)$ de manera única de suma importancia en el álgebra lineal y merecen un nombre formal.

Definición. Sea $V$ un espacio vectorial sobre el campo $F$.
a) Decimos que los vectores $v_1,v_2, \dots, v_n\in V$ son linealmente dependientes si existe una relación
\begin{align*}
c_1v_1+c_2v_2+\dots+c_nv_n=0
\end{align*}
para la cual $c_1,c_2, \dots,c_n$ son escalares de $F$ y alguno es distinto de cero.
b) Decimos que los vectores $v_1,v_2, \dots, v_n\in V$ son linealmente independientes si no son linealmente dependientes, es decir, si la relación
\begin{align*}
a_1v_1+a_2v_2+\dots+a_nv_n=0
\end{align*}
implica que $a_1=a_2=\dots=a_n=0.$

La discusión previa a la definición muestra que un vector en $\text{span}(v_1,\ldots,v_n)$ puede ser escrito de manera única como combinación lineal de los vectores $v_1,\ldots,v_n$ si y sólo si estos vectores son linealmente independientes.

Ejemplos de dependencia e independencia lineal

Ejemplo 1. Las matrices $A=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 0 & 0 \end{pmatrix}$, $B=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \end{pmatrix}$ y $C=\begin{pmatrix} 0 & 0 & 0 \\0 & 1 & 1 \end{pmatrix}$ son linealmente independientes en $M_{2,3}(\mathbb{R})$. Verifiquemos esto. Supongamos que hay una combinación lineal de ellas igual a cero, es decir, que existen reales $a,b,c$ tales que $aA+bB+cC=O_{2,3}$. Obtenemos entonces que $$\begin{pmatrix} a+b & 0 & 0 \\ a+b & b+c & c \end{pmatrix} = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}.$$

De la entrada $(2,3)$ obtenemos que $c=0$. Así, de la entrada $(2,2)$ obtenemos que $b=0$ y consecuentemente, de la entrada $(1,1)$ obtenemos que $a=0$. De esta forma, la única combinación lineal de las matrices $A$, $B$ y $C$ que da $0$ es cuando los coeficientes son iguales a cero. Concluimos que $A$, $B$ y $C$ son linealmente independientes.

$\triangle$

Ejemplo 2. Considera el espacio vectorial $V$ de funciones de $[0,1]$ a $\mathbb{R}$. Demuestra que las funciones $f(x)=\sin^2 (x)$, $g(x) = 3\cos^2(x)$, $m(x)=x^2$ y $h(x)=-5$. Veremos que estas funciones son linealmente dependientes. Para ello, debemos encontrar reales $a,b,c,d$ no todos ellos iguales a cero tales que $$af+bg+cm+dh=0,$$ es decir, tales que para todo $x$ en el intervalo $[0,1]$ se cumpla que $$a\sin^2(x) + 3b\cos^2(x) + cx^2 -5d = 0.$$

Proponemos $a=1$, $b=\frac{1}{3}$, $c=0$ y $d=\frac{1}{5}$. Notemos que con esta elección de coeficientes tenemos por la identidad pitagórica que
\begin{align*}
\sin^2(x)+\cos^2(x) – 1 = 0.
\end{align*}

Hemos encontrado coeficientes, no todos ellos iguales a cero, tales que una combinación lineal de las funciones es igual a la función cero. Concluimos que las funciones son linealmente dependientes.

$\square$

Reducción gaussiana e independencia lineal

Ahora estudiaremos una técnica para estudiar la independencia lineal. Esta nos permitirá determinar si dados algunos vectores $v_1,v_2\dots,v_k\in F^n$, estos son linealmente independientes. Veamos que este problema puede ser resuelto de manera sencilla por medio de un algoritmo. En efecto, necesitamos saber si podemos encontrar $x_1, \dots, x_k\in F$ no todos iguales a $0$ y tales que
\begin{align*}
x_1v_1+\dots+x_nv_n=0.
\end{align*}

Sea $A$ de $n\times k$ la matriz cuyas columnas están dadas por los vectores $v_1, \dots, v_k$. Entonces la relación anterior es equivalente al sistema $AX=0$, donde $X$ es el vector columna con coordenadas $x_1, \dots, x_k$.Por lo tanto los vectores $v_1, \dots, v_k$ son linealmente independientes si y sólo si el sistema homogéneo $AX=0$ únicamente tiene a la solución trivial.

Como ya vimos anteriormente, este problema se puede resolver mediante el algoritmo de reducción gaussiana: Sea $A_{red}$ la forma escalonada reducida de $A$. Si existe un pivote en cada columna de $A_{red}$, entonces no hay variables libres y la solución al sistema únicamente es el vector cero. Así, $v_1,\dots, v_k$ son linealmente independientes. De lo contrario son linealmente dependientes. Siguiendo este procedimiento, es posible resolver el problema original de manera algorítimica.

Otra cosa importante que podemos deducir a partir de este análisis es que como un sistema lineal homogéneo con más variables que ecuaciones siempre tiene una solución no trivial, entonces si tenemos más de $n$ vectores en $F^n$, estos nunca serán linealmente independientes.

Problema 1. Considera los vectores
\begin{align*}
v_1&=(1,2,3,4,5)\\
v_2&=(2,3,4,5,1)\\
v_3&=(1,3,5,7,9)\\
v_4&=(3,5,7,9,1)
\end{align*} en $\mathbb{R}^5$. ¿Son linealmente independientes? Si la respuesta es negativa, da una relación no trivial de dependencia lineal entre estos vectores.

Solución. Consideremos la matriz cuyas columnas son los vectores $v_1, \dots, v_4$
\begin{align*}
A=\begin{pmatrix}
1 & 2 & 1 & 3\\
2 & 3 & 3 & 5\\
3 & 4 & 5 & 7\\
4 & 5 & 7 & 9\\
5 & 1 & 9 & 1
\end{pmatrix}.
\end{align*}
Aplicando reducción gaussiana obtenemos
\begin{align*}
A_{red}=\begin{pmatrix}
1 & 0 & 0 & -2\\
0& 1 & 0 & 2\\
0&0 & 1 & 1\\
0 &0 & 0 & 0\\
0& 0 & 0 & 0
\end{pmatrix}.
\end{align*}

Como no hay pivote en la última columna, ésta corresponde a una variable libre. Así, habrá por lo menos una solución no trivial y entonces los vectores $v_1,v_2,v_3,v_4$ son linealmente dependientes.

Para encontrar la relación no trivial de dependencia lineal resolvemos el sistema $AX=0$, el cual es equivalente al sistema $A_{red}X=0$. De la matriz anterior obtenemos las siguientes igualdades
\begin{align*}
x_1=2x_4, \hspace{3mm}, x_2=-2x_4, \hspace{3mm} x_3=-x_4.
\end{align*}
Tomando $x_4=1$ (de hecho podemos asignarle cualquier valor distinto de cero), obtenemos la relación de dependencia lineal
\begin{align*}
2v_1-2v_2-v_3+v_4=0.
\end{align*}

$\triangle$

Hagamos otro problema en el que la técnica anterior nos ayuda a estudiar la independencia lineal.

Problema 2. Demuestra que los vectores
\begin{align*}
v_1=(2,1,3,1), \hspace{2mm} v_2=(-1,0,1,2), \hspace{2mm} v_3=(3,2,7,4), \hspace{2mm} v_4=(1,2,0,-1), \hspace{2mm}
\end{align*}
son linealmente dependientes y encuentra tres de ellos que sean linealmente independientes.

Solución. Sea $A$ la matriz cuyas columnas son los vectores $v_1, \dots , v_4$
\begin{align*}
A=\begin{pmatrix}
2 & -1 & 3 & 1\\
1 & 0 & 2 & 2\\
3 & 1 & 7 & 0\\
1 & 2 & 4 & -1
\end{pmatrix}.
\end{align*}

Aplicando reducción gaussiana obtenemos
\begin{align*}
A_{red}=\begin{pmatrix}
1 & 0 & 2 & 0\\
0& 1 & 1 & 0\\
0&0 & 0 & 1\\
0 &0 & 0 & 0
\end{pmatrix}.
\end{align*}
Como la tercera columna de $A_{red}$ no tiene al pivote de ninguna fila, deducimos que los cuatro vectores son linealmente dependientes.

Si eliminamos la tercera columna, entonces la matriz que queda es la forma escalonada reducida correspondiente al conjunto $\{v_1,v_2,v_4\}$. Como esta matriz sí tiene pivotes de filas en cada columna, concluimos que este es un conjunto de vectores linealmente independientes.

$\square$

Independencia lineal de conjuntos infinitos

Hasta este momento hemos trabajado únicamente con familias finitas de vectores, así que es natural preguntarse qué procede con las familias infinitas. Con la definición que tenemos, si tomamos una familia infinita de vectores $(v_i)_{i\in I}$ no podríamos darle algún significado a la suma infinita $\displaystyle\sum_{i\in I}c_iv_i$ para cualquier toda elección de escalares $c_i$, pues en espacios vectoriales no está en general definido cómo hacer una suma infinita. Sin embargo, si todos salvo una cantidad finita de escalares son $0$, entonces la suma anterior sería una suma finita y ya tendría sentido.

De esta manera, podemos extender la definición como sigue.

Definición. La familia $(v_i)_{i\in I}$ es linealmente dependiente si existe una familia de escalares $(c_i)_{i\in I}$ tales que todos salvo una cantidad finita de ellos son cero, pero al menos uno no es cero y que $\displaystyle\sum_{i\in I}c_iv_i=0$.

De manera equivalente y para simplificar el razonamiento anterior podemos decir que una familia arbitraria de vectores es linealmente dependiente si tiene una subfamilia finita linealmente dependiente. Una familia de vectores es linealmente independiente si toda subfamilia finita es linealmente independiente. Por lo tanto, un conjunto $L$ (posiblemente infinito) es linealmente independiente si dados elementos distintos $l_1,\dots, l_n\in L$ y escalares $a_1,a_2,\dots, a_n$ con $a_1l_1+a_2l_2+\dots+ a_nl_n=0$, entonces $a_1=a_2=\dots=a_n=0.$

Observación. a) Una subfamilia de una familia linealmente independiente es linealmente independiente. En efecto, sea $(v_i)_{i\in I}$ una familia linealmente independiente y sea $J\subset I$. Supongamos que $(v_i)_{i\in J}$ es linealmente dependiente. Entonces existe una subfamilia finita linealmente dependiente $v_{i_1}, \dots, v_{i_n}$ con $i_1, \dots,i_n\in J $, pero $i_1, \dots,i_n\in I $, entonces $v_{i_1}, \dots, v_{i_n}$ es una subfamilia finita y linealmente dependiente de una familia linealmente independiente lo cual es una contradicción.
b) Si dos vectores de una familia son iguales, entonces automáticamente la familia es linealmente dependiente.

$\square$

Más adelante veremos ejemplos de generadores y de independencia lineal con familias infinitas de vectores.

Una relación entre independencia lineal y generados

Podemos relacionar las nociones de subespacio generado y de independencia lineal con la siguiente proposición. Básicamente nos dice que un conjunto $\{v_1, \dots, v_n\}$ es linealmente dependiente si y sólo si alguno sus elementos se puede expresar como combinación lineal de los demás.

Es importante mencionar que usamos la palabra «conjunto» y no «familia», puesto que con la primera nos referimos a que los vectores son distintos dos a dos, mientras que con la segunda sí pueden haber repeticiones.

Proposición. Sea $S$ un conjunto de vectores en algún espacio vectorial $V$. Entonces $S$ es linealmente dependiente si y sólo si existe $v\in S$ tal que $v\in \text{span}(S\backslash \{v\})$.

Demostración. Supongamos que $S$ es linealmente dependiente. Entonces existe una cantidad finita de vectores $v_1,v_2, \dots , v_n\in S$ y algunos escalares $a_1,a_2, \dots, a_n$ no todos iguales a $0$, tales que
\begin{align*}
a_1v_1+a_2v_2+ \dots + a_nv_n=0.
\end{align*}
Notemos que $v_1,\dots , v_n$ son distintos dos a dos, pues estamos suponiendo que los elementos de $S$ también lo son.

Como no todos los escalares son $0$, existe $i\in \{1,2,\dots, n\}$ tal que $a_i\neq 0$. Dividiendo la igualdad anterior entre $a_i$, obtenemos
\begin{align*}
\frac{a_1}{a_i}v_1+ \dots + \frac{a_{i-1}}{a_i}v_{i-1}+ v_i+ \frac{a_{i+1}}{a_i}v_{i+1}+ \dots + \frac{a_n}{a_i}v_n=0,
\end{align*}
por consiguiente
\begin{align*}
v_i=-\frac{a_1}{a_i}v_1- \dots – \frac{a_{i-1}}{a_i}v_{i-1}-\frac{a_{i+1}}{a_i}v_{i+1}-\dots – \frac{a_n}{a_i}v_n.
\end{align*}

De lo anterior se sigue que $v_i$ pertenece al generado de $v_1, \dots , v_{i-1}, v_{i+1}, \dots , v_n$, el cual está contenido en $\text{span}(S \backslash \{v_i\})$, pues $\{v_1, \dots , v_{i-1}, v_{i+1}, \dots , v_n\}\subset S\backslash \{v_i\}$. Esto prueba una implicación.

Para la otra implicación, supongamos que existe $v\in S$ tal que $v\in \text{span}(S\backslash \{v\})$. Esto significa que existen $v_1,v_2, \dots, v_n\in S\backslash \{v\}$ y escalares $a_1,a_2,\dots ,a_n$ tales que
\begin{align*}
v=a_1v_1+a_2v_2+\dots+a_nv_n.
\end{align*}
Pero entonces
\begin{align*}
1\cdot v + (-a_1)v_1+ \dots + (-a_n)v_n=0
\end{align*}
y los vectores $v,v_1,\dots , v_n$ son linealmente dependientes pues por lo menos el primer coeficiente es distinto de cero. Como $v$ no está en $\{v_1, \ldots, v_n\}$, se sigue que $S$ tiene un subconjunto finito que es linealmente dependiente y por lo tanto $S$ también lo es.

$\square$

Más adelante…

Aquí ya hablamos de conjuntos generadores y de linealmente independientes. La entrada teórica que sigue es crucial y en ella se verá y formalizará la intuición de que los conjuntos generadores deben ser «grandes», mientras que los independientes deben ser «chicos». El resultado clave es el lema de intercambio de Steinitz.

Cuando un conjunto de vectores es tanto generador, como linealmente independiente, está en un equilibrio que ayuda a describir una propiedad muy importante de un espacio vectorial: la de dimensión.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Decide si el conjunto con las matrices $\begin{pmatrix} 0 & 1 \\ 0 & 0\end{pmatrix}$, $\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}$, $\begin{pmatrix} 0 & 1 \\ 1 & 1\end{pmatrix}$ y $\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix}$ es un conjunto generador de $M_2(\mathbb{R})$.
  • Sean $S_1$ y $S_2$ subconjuntos de un subespacio vectorial $V$ tales que $S_1\subset S_2$. Demuestra que $\text{span}(S_1)\subset \text{span}(S_2)$. Concluye que si $S_1$ es generador, entonces $S_2$ también lo es
  • Demuestra la observación b).
  • Da un conjunto de $3$ vectores de $\mathbb{R}^3$ linealmente independientes y tales que ninguna de sus entradas es $0$. Haz lo mismo para linealmente dependientes.
  • Sean $f,g:\mathbb{R}\longrightarrow \mathbb{R}$ funciones definidas por
    \begin{align*}
    f(t)=e^{rt}, \hspace{4mm} g(t)=e^{st}
    \end{align*}
    con $r\neq s$. Demuestra que $f$ y $g$ son linealmente independientes en $\mathcal{F}(\mathbb{R},\mathbb{R})$, el espacio de las funciones de los reales en los reales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Suma y suma directa de subespacios

Por Ayax Calderón

Introducción

En esta entrada nos apoyaremos fuertemente en las nociones de espacios y subespacios vectoriales que estudiamos en entradas anteriores. Lo primero que haremos es hablar de cómo podemos sumar subespacios. Esta es una operación distinta a la suma del espacio vectorial, pues sucede en términos de subconjuntos. Luego, veremos cómo mediante una elección cuidadosa de subespacios, podemos expresar a un espacio vectorial en términos de la suma de subespacios más sencillos. A una descomposición de este tipo le llamamos suma directa. Estudiaremos también algunas de sus propiedades.

Suma de subespacios

En esta sección hablamos de cómo sumar subespacios de un espacio vectorial. Para entender la intuición, pensemos primero en el caso de dos subespacios $W_1$ y $W_2$ de un espacio vectorial. Queremos definir un conjunto $W_1+W_2$. Para hacer esto, lo que haremos es sumar cada elemento de $W_1$ con cada elemento de $W_2$.

Ejemplo. Si estamos en el espacio vectorial $\mathbb{R}^3$, podemos considerar los siguientes dos subespacios:
\begin{align*}
W_1&= \{(a,0,0): a\in \mathbb{R}\}\\
W_2&=\{(0,b,0): b \in \mathbb{R}\}.
\end{align*}

Para encontrar el conjunto $W_1+W_2$, lo que haremos es sumar a cada elemento de $W_1$ con cada elemento de $W_2$, considerando todas las posiblidades. En general, tenemos que una de estas sumas es de la forma $$(a,0,0)+(0,b,0)=(a,b,0).$$ Así, concluimos que $$W_1+W_2=\{(a,b,0): a,b \in \mathbb{R}\}.$$

$\triangle$

Para más subespacios la intuición es similar. A continuación damos la definición formal para la suma de una cantidad finita de subespacios.

Definición. Sea $n$ un entero positivo y $W_1, W_2, \dots , W_n$ subespacios de un espacio vectorial $V$. Su suma $$W_1+ W_2+ \dots + W_n$$ es el subconjunto de $V$ que consiste de todos los vectores de la forma $$w_1+w_2+\dots + w_n$$ con $w_i \in W_i$ para todo $1\leq i \leq n$.

La definición anterior sólo habla de cómo sumar una cantidad finita de subespacios. También se puede dar una definición para una familia arbitraria $(W_i)_{i\in I}$ de subespacios de $V$, pero tenemos que ser más cuidadosos para que la teoría posterior funcione bien. Lo que se hace es considerar todas las sumas «con una cantidad finita de términos». Esto lo decimos de manera formal como sigue. El conjunto $\displaystyle\sum_{i\in I}W_i$ consiste de todas las sumas $\displaystyle\sum_{i\in I}w_i$ con $w_i\in W_i$ para todo $i \in I$ y todos los vectores $w_i$ salvo una cantidad finita son iguales a cero. Esto ayuda a dar una definición incluso si $I$ es finito.

La mayor parte de los resultados que demostraremos para la suma de una cantidad finita de subespacios también se vale para la suma de una cantidad infinita. Por simplicidad, usualmente nos enfocaremos en el caso finito, pero te recomendamos pensar en cómo serían los argumentos para el caso infinito.

La suma de subespacios es subespacio

El siguiente resultado dice que «la suma de subespacios es subespacio».

Proposición. Si $W_1, W_2, \dots , W_n$ son subespacios de un espacio vectorial $V$, entonces $W_1 + W_2 + \dots + W_n$ es un subespacio de $V$.

Demostración. Para facilitar la escritura denotaremos $S=W_1+ W_2 + \dots + W_n$. Sean $s,s’\in S$ y $c$ un escalar. Por una equivalencia de subespacios, basta demostrar que $s+cs’\in S$.

Por definición de $S$, existen $w_1,\dots, w_n, w_1′,\dots , w_n’ $ con $w_i, w_i’\in W_i$ para $1\leq i \leq n$, tales que
\begin{align*}
s&=w_1+ w_2+ \dots + w_n\\ s’&=w_1’+ w_2’+ \dots + w_n’.
\end{align*}
Entonces
\begin{align*}
s+cs’&=w_1+w_2+\dots + w_n + c(w_1’+w_2’+\dots + w_n’)\\
&=w_1+w_2+\dots + w_n + cw_1’+cw_2’+\dots + cw_n’\\
&=(w_1 +cw_1′)+ \dots + (w_n+cw_n’).
\end{align*}
Como $W_i$ es un subespacio de $V$ y $w_i,w_i’$ son elementos de $W_i$, entonces $(w_i+cw_i’)\in W_i$ para cada $1\leq i \leq n$. Así, la expresión que encontramos es la suma de un vector en $W_1$, uno en $W_2$, … , uno en $W_n$ y por lo tant $s+cs’\in S$. Esto muestra lo que queríamos y así $S$ es subespacio de $V$.

$\square$

De hecho la suma de subespacios $W_1+\ldots+W_n$ no sólo es un subespacio de $V$, sino que además es especial, en el sentido de que es el subespacio «más chiquito» de $V$ que contiene a cada subespacio $W_1,\ldots,W_n$. El siguiente problema enuncia esto de manera formal.

Problema. Sean $W_1,\ldots,W_n$ subespacios de un espacio vectorial $V$. Sea $S=W_1+W_2+ \dots + W_n$. Demuestra que:

  • Para cada $i=1,\ldots,n$, se tiene que $W_i\subseteq S$.
  • Si se tiene un subespacio $W$ tal que para cada $i=1,\ldots,n$ se tiene que $W_i\subseteq W$ entonces $S\subseteq W$

Demostración.

  • En vista de que cada vector $w_i\in W_i$ puede ser escrito como $0+0+\dots + 0 + w_i +0+\dots +0$ y $0 \in \displaystyle\bigcap_{i=1}^n W_i$, entonces $W_i \subset W_1+ \dots +W_n$ para todo $1\leq i \leq n$.
  • Sea $W$ un subespacio de $V$ tal que $W$ contiene a los subespacios $W_1, \dots W_n$. Mostremos que $W$ contiene a la suma $S$. Sea $v\in S = W_1 +\dots + W_n$. Por definición, $v=w_1+\dots + w_n$ para algunos $w_i\in W_i$. Como $W$ contiene a los subespacios $W_1, \dots W_n$, entonces $w_1, \dots w_n\in W$. Como $W$ es cerrado bajo sumas (por ser subespacio) entonces $w_1+\dots + w_n\in W$ y así $W_1 + \dots +W_n \subset W$.

$\square$

Subespacios en posición de suma directa

Ya definimos qué es la suma de subespacios. Ahora queremos definir qué es la suma directa. En realidad, la suma directa es simplemente una suma de subespacios en la que los subespacios son especiales en un sentido muy específico. Comenzamos dando esta definición. Es un concepto muy importante que nos será útil varias veces en el curso.

Definición. Sean $W_1, W_2, \dots , W_n$ subespacios de un espacio vectorial $V$. Decimos que $W_1,W_2,\dots, W_n$ están en posición de suma directa si la única forma de obtener la igualdad
\begin{align*}
w_1+w_2+\dots+w_n=0
\end{align*}
con $w_i\in W_i$ para todo $1\leq i \leq n$, es cuando
\begin{align*}
w_1=w_2=\dots =w_n =0.
\end{align*}

Ejemplo. Consideremos el espacio vectorial de polinomios en $\mathbb{R}_2[x]$, es decir, aquellos de la forma $ax^2+bx+c$ con $a,b,c$ reales. Consideremos los siguientes subespacios de $\mathbb{R}_2[x]$:

\begin{align*}
W_1&=\{ax^2: a \in \mathbb{R}\}\\
W_2&=\{bx: b \in \mathbb{R}\}\\
W_3&=\mathbb{R}=\{c: c \in \mathbb{R}\}\\
W_4&=\mathbb{R}_1[x]=\{bx+c: b,c \in \mathbb{R}\}\\
W_5&=\{ax^2+c: a,c \in \mathbb{R}\}\\
W_6&=\{ax^2+bx: a,b \in \mathbb{R}\}\\
\end{align*}

Los tres subespacios $W_1, W_2, W_3$ están en posición de suma directa, pues si tomamos $ax^2$ en $W_1$, $bx$ en $W_2$ y $c$ en $W_3$, la única forma de que su suma $ax^2+bx+c$ sea igual al polinomio cero es si $a=b=c=0$, y por lo tanto en realidad sólo estamos tomando el vector $0$ de cada uno de los subespacios.

Los subespacios $W_4$, $W_5$ y $W_6$ no están en posición de suma directa, pues hay formas de tomar elementos no cero en cada uno de ellos, cuya suma sí es el vector cero. Por ejemplo, el polinomio $x-8$ está en $W_4$, el polinomio $-5x^2+8$ está en $W_5$ y el polinomio $5x^2-x$ está en $W_6$. Ninguno de estos vectores es el polinomio cero, pero la suma de los tres sí es cero.

$\square$

Existen otras manera de expresar la condición anterior, una de ellas es la siguiente.

Proposición. Los subespacios $W_1, \dots W_n$ del espacio vectorial $V$ están en posición de suma directa si y sólo si cada elemento de $$W_1+W_2+\dots +W_n$$ puede ser escirto de manera única como una suma $$w_1+\dots + w_n$$ con $w_i\in W_i$ para todo $1\leq i \leq n$.

Demostración. Primero supongamos que los subespacios $W_1,W_2, \dots, W_n$ están en posición de suma directa y tomemos un elemento $v$ de $$W_1+\dots + W_n.$$ Por definición, dicho elemento puede ser expresado como $v=w_1 + \dots + w_n$ con $w_i \in W_i $ para todo $1\leq i \leq n$. Supongamos también que $v$ puede ser escrito como $v=w_1’+\dots + w_n’$ con $w_i’ \in W_i$. Queremos demostrar que $w_i=w_i’$ para todo $1 \leq i \leq n$. Restando las dos relaciones anteriores se tiene
\begin{align*}
0=v-v=\displaystyle\sum_{i=1}^n (w_i-w_i’).
\end{align*}
Sea $u_i=w_i-w_i’$. Como $W_i$ es subespacio de $V$, entonces es cerrado bajo inversos y bajo suma, por lo tanto $u_i\in W_i$. Así $u_1 + \dots + u_n$ es una suma de elementos igual a cero.Como $W_1, \dots, W_n$ están en posición de suma directa, entonces necesariamente $u_1=\dots =u_n=0$ y así $w_i=w_i’$ para todo $1 \leq i \leq n$.

Ahora supongamos que cada elemento de $W_1+\dots + W_n$ puede ser escrito de manera única como suma de elementos de $W_1, \dots , W_n$. En particular el cero se descompone de manera única como $$0=0+0+\ldots +0.$$ De manera que dados $w_i \in W_i$ con $1 \leq i \leq n$ tales que $w_1+w_2+ \dots + w_n =0$, necesariamente $w_1=w_2=\dots =w_n=0$. Por lo tanto $W_1, W_2, \dots ,W_n$ están en posición de suma directa.

$\square$

Suma directa de subespacios

Estamos listos para dar una definición clave.

Definición. a) Decimos que un espacio vectorial $V$ es suma directa de sus subespacios $W_1, W_2, \dots , W_n$ si $W_1, W_2, \dots , W_n$ están en posición de suma directa y $V=W_1+W_2 + \dots + W_n$. En símbolos, escribimos y escribimos
\begin{align*}
V=W_1 \oplus W_2 \oplus \dots \oplus W_n.
\end{align*}
b) Si $V_1, V_2$ son subespacios de un espacio vectorial $V$, decimos que $V_2$ es complemento de $V_1$ si
\begin{align*}
V=V_1 \oplus V_2.
\end{align*}

Por los resultados anteriores se tiene que $V=W_1 \oplus \dots \oplus W_n$ si y sólo si cada vector $v\in V$ puede ser escrito de manera única como una suma de la forma $w_1+ \dots + w_n$, con $w_i \in W_i$ para todo $i$. Por consiguiente, si $V_1, V_2$ son subespacios de $V$, entonces $V_2$ es complemento de $V_1$ si y sólo si cada vector $v \in V$ puede ser escrito de manera única como $v=v_1+v_2$ con $v_1 \in V_1, \hspace{2mm} v_2 \in V_2$.

El siguiente resultado es extremadamente útil a la hora de resolver problemas con sumas directas con dos subespacios.

Problema. Demuestra que $V_2$ es complemento de $V_1$ si y sólo si $V_1+V_2=V$ y $V_1 \cap V_2 = \{0\}$.

Demostración. Supongamos que $V_2$ es complemento de $V_1$, entonces $V=V_1+V_2$. Falta mostrar que $V_1\cap V_2 = \{0\}$.

Sea $v\in V_1 \cap V_2$, entonces $v=v+0=0+v$, y por la unicidad que ya se demostró en la proposición anterior se tiene que $v=0$, entonces $V_1\cap V_2\subset\{0\}$. Como $V_1, V_2$ son subespacios de $V$, cada uno de ellos tiene al vector $0$. Así, $\{0\}\subset V_1 \cap V_2$. Por lo tanto $V_1\cap V_2=\{0\}$.

Ahora supongamos que $V_1 + V_2 =V$ y $V_1\cap V_2=\{0\}$. Supongamos que existe un vector $v \in V$ tal que
\begin{align*}
v_1+v_2=v=v_1’+v_2′
\end{align*}
con $v_1,v_1’\in V_1$ y $v_2,v_2’\in V_2$.
Entonces
\begin{align*}
v_1-v_1’=v_2′-v_2
\end{align*}
El lado izquierdo de la igualdad anterior pertenece a $V_1$, mientras que el lado derecho pertenece a $V_2$, pero como son iguales, necesariamente ambos pertencen a $V_1 \cap V_2=\{0\}$ y así $v_1=v_1’$ y $v_2=v_2’$, que es lo que queríamos demostrar.

$\square$

Más ejemplos de suma y suma directa de subespacios.

  1. El espacio vectorial $V=\mathbb{R}^2$ es suma directa de los subespacios
    \begin{align*}
    V_1=\{(x,0)|x \in \mathbb{R} \}
    \end{align*}
    y
    \begin{align*}
    V_2=\{(0,y)|y \in \mathbb{R} \}.
    \end{align*}
    En efecto, cada $(x,y)\in \mathbb{R}^2$ puede ser escrito de manera única en la forma
    \begin{align*}
    (a,0)+(0,b)
    \end{align*}
    via $a=x, \hspace{2mm} b=y.$
  2. Sea $V=M_n(\mathbb{R})$ el espacio vectorial de las matrices de $n\times n$ con entradas reales. Si $V_1,V_2$ son los subespacios de las matrices simétricas y de las matrices antisimétricas, respectivamente, entonces $V=V_1 \oplus V_2$.
    En efecto, cada matriz $A\in V$ puede ser escrita de manera única como suma de una matriz simétrica y de una matriz antisimétrica de la siguiente forma:
    $A=B+C$ con
    \begin{align*}
    B&=\frac{1}{2}(A+ \ ^tA)\\C&=\frac{1}{2}(A- \ ^tA).
    \end{align*}
  3. Sea $V=\{f:\mathbb{R}\longrightarrow \mathbb{R} \}$ el espacio vectorial de funciones de $\mathbb{R}$ en $\mathbb{R}$. Sea $V_1$ el subespacio de todas las funciones pares (recuerda que una función es par si satisface $f(x)=f(-x)$ para toda $x$) y $V_2$ el subespacio de todas las funciones impares (las que satisfacen $f(x)=-f(-x)$ para toda $x$).
    Entonces $V=V_1 \oplus V_2$.
    En efecto, dada $f\in V$, la única manera de expresarla como $f=g+h$ con $g$ par y $h$ impar es tomando
    \begin{align*}
    g(x)=\frac{f(x)+f(-x)}{2} \hspace{2mm} y \hspace{2mm} h(x)=\frac{f(x)-f(-x)}{2}.
    \end{align*}

$\square$

Un problema de suma directa de subespacios

Problema. Sea $V=\{f:[-1,1]\to \mathbb{R}: \text{f es continua}\}.$ Sean
\begin{align*}
V_1=\left\{f\in V: \int_{-1}^1 f(t)dt=0\right\}
\end{align*}
y $V_2$ el subconjunto de $V$ de todas las funciones constantes.
a) Demuestra que $V_1, V_2$ son subespacios de $V$.
b) Demuestra que $V=V_1\oplus V_2$.

Demostración. a) Sean $f_1,f_2 \in V_1$ y $c\in \mathbb{R}$, entonces $cf_1+f_2$ es continua y
\begin{align*}
\int_{-1}^1(cf_1+f_2)(t)dt = c\int_{-1}^1f_1(t)dt + \int_{-1}^1 f_2(t) dt =0,
\end{align*}
por lo tanto $cf_1+f_2\in V_1$ y así $V_1$ es un subespacio de $V$.

De manera similar veamos que $V_2$ es subespacio. Sean $f,g\in V_2$ y $c\in \mathbb{R}$, entonces $f(x)=a$ y $g(x)=b$ para toda $x$. Luego
\begin{align*}
(f+c\cdot g)(x)=a+c\cdot b
\end{align*}
para toda $x$. Por lo tanto $V_2$ es subespacio de $V$.

b) Por el problema de la sección anterior, basta con demostrar que $V_1\cap V_2=\{0\}$ y $V=V_1+V_2$. Sea $f$ una función en $V_1 \cap V_2$. Por un lado tenemos que $f$ es constante, y por otro lado que $f$ integra $0$ sobre $[-1,1]$ Digamos que $f(t)=c$ para todo $t\in [-1,1]$, entonces
\begin{align*}
0=\int_{-1}^1f(t)dt=2c.
\end{align*}
De aquí, $c=0$ y así $f=0$ (la función cero). Por lo tanto $V_1\cap V_2=\{0\}$.

Ahora, para probar que $V=V_1 + V_2$ tomamos $f\in V$ y tratemos de escribirla como $f=c+g$ con $c$ constante y $g\in V_1$. Queremos asegurarnos de que
\begin{align*}
\int_{-1}^1 g(t)dt=0,
\end{align*}
esto es
\begin{align*}
\int_{-1}^1 (f(t)-c)dt=0\\
\int_{-1}^1f(t)dt=2c.
\end{align*}
Esto ya nos dice cómo proponer a $c$ y a $g$. Lo hacemos a continuación.
\begin{align*}
c&=\frac{1}{2}\int_{-1}^1f(t)dt \\ g&=f-c.
\end{align*}

$\square$

Más adelante…

Los conceptos de suma y suma de subespacios serán utilizados repetidamente. Por ejemplo, a partir de la suma de subespacios se pueden definir las proyecciones, un tipo de transformaciones lineales particulares.

El concepto de suma directa de subespacios también es muy importante en el sentido de que permite descomponer a un espacio en espacios vectoriales más pequeños. Esta idea será de mucha utilidad cuando hablemos de la teoría de dualidad y de diagonalización de matrices.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica en todos los ejemplos de la entrada que los subespacios que se mencionan en efecto son subespacios.
  • Sea $V$ el conjunto de las matrices triangulares superiores de $n\times n$ y sea $W_1$ el espacio de las matrices diagonales. Demuestra que $V$ es espacio vectorial, $W_1$ es subespacio de $V$ y que $V=W_1\oplus W_2$, donde $W_2=\{A\in V | A_{ij}=0$ cuando $i \geq j \}$.
  • Sea $F$ un campo de característica distinta de $2$,
    \begin{align*}
    W_1=\{A\in M_n(F)|A_{ij}=0, i\leq j\}
    \end{align*}
    y $W_2$ el conjunto de todas las matrices simétricas de $n \times n$ con entradas en $F$. Demuestra que $M_n(F)=W_1\oplus W_2$
  • En el ejemplo 2, verifica que $B$ es una matriz simétrica y $C$ una matriz antisimétrica.
  • En el ejemplo 3 ,verifica $g$ es par y $h$ es impar.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de espacios, subespacios y sumas directas

Por Julio Sampietro

Introducción

En esta entrada resolvemos más problemas para reforzar y aclarar los conceptos vistos anteriormente. Específicamente, resolvemos problemas acerca de espacios vectoriales, subespacios vectoriales y sumas directas.

Problemas resueltos

Problema 1. Muestra que el conjunto de las funciones continuas $f:[0,1]\to \mathbb{R}$ tales que $f\left(\frac{1}{2}\right)=0$ con las operaciones usuales es un espacio vectorial.

Solución: Primero observamos que nuestras operaciones están bien definidas: sabemos que la suma de funciones continuas es continua y si $f$ es continua y $\lambda\in \mathbb{R}$ es un escalar, entonces $\lambda f$ es continua. Más aún, si $f\left(\frac{1}{2}\right)=0$ y $g\left(\frac{1}{2}\right)=0$, entonces $(f+g) \left( \frac{1}{2}\right) =f\left( \frac{1}{2}\right) + g\left( \frac{1}{2}\right)=0+0=0$ y $\lambda f\left(\frac{1}{2}\right)=\lambda \cdot 0 =0$. En otras palabras, estos argumentos muestran que el conjunto es cerrado bajo las operaciones propuestas.

Ahora veamos que se cumplen los axiomas de espacio vectorial. Recuerda que para mostrar la igualdad de dos funciones, basta con mostrar que son iguales al evaluarlas en cada uno de los elementos de su dominio. En las siguientes demostraciones, $x$ es un real arbitrario en $[0,1]$

  1. Si $f,g,h$ son parte de nuestro conjunto, entonces
    \begin{align*}
    \left(f+(g+h)\right)(x)&= f(x)+(g+h)(x)\\ &= f(x)+g(x)+h(x) \\ &= (f+g)(x) +h(x)\\ &= ((f+g)+h)(x).
    \end{align*}
    Aquí estamos usando la asociatividad de la suma en $\mathbb{R}$
  2. Si $f,g$ son como en las condiciones, dado que la suma en números reales es conmutativa, $(f+g)(x)= f(x)+g(x)= g(x)+f(x)=(g+f)(x)$.
  3. La función constante $0$ es un neutro para la suma. Sí está en el conjunto pues la función $0$ en cualquier número (en particular en $\frac{1}{2}$) tiene evaluación $0$.
  4. Dada $f$ continua que se anula en $\frac{1}{2}$, $-f$ también es continua y se anula en $\frac{1}{2}$ y $f+(-f)= (-f)+f=0$.
  5. Si $a,b\in \mathbb{R}$ entonces $a(bf)(x)= a(bf(x))= (ab)f(x)$, por la asociatividad del producto en $\mathbb{R}$.
  6. Es claro que la constante $1$ satisface que $1\cdot f=f$, pues $1$ es una identidad para el producto en $\mathbb{R}$.
  7. $(a+b)f(x)= af(x)+bf(x)$, por la distributividad de la suma en $\mathbb{R}$
  8. $a\cdot (f+g)(x) = a\cdot (f(x)+g(x))= a\cdot f(x)+a\cdot g(x)$, también por la distributividad de la suma en $\mathbb{R}$.

Observa como las propiedades se heredan de las propiedades de los números reales: En cada punto usamos que las operaciones se definen puntualmente, luego aplicamos las propiedades para los números reales, y luego concluimos el resultado (como por ejemplo, en la prueba de la conmutatividad).

$\square$

Problema 2. Muestra que ninguno de los siguientes es un subespacio vectorial de $\mathbb{R}^3$.

  1. El conjunto $U$ de los vectores $x=(x_1, x_2, x_3)$ tales que $x_1^2+x_2^2+x_3^2=1$.
  2. El conjunto $V$ de todos los vectores en $\mathbb{R}^3$ con números enteros por coordenadas.
  3. El conjunto $W$ de todos los vectores en $\mathbb{R}^3$ que tienen al menos una coordenada igual a cero.

Solución:

  1. Notamos que el conjunto $U$ no es cerrado bajo sumas: En efecto, el vector $(1,0,0)\in U$, pues $1^2+0^2+0^2=1$, así como $(-1,0,0)\in U$, pues $(-1)^2+0^2+0^2=1$. Sin embargo su suma es $(0,0,0)$, que no es un elemento de $U$.
  2. Mientras que $V$ si es cerrado bajo sumas, no es cerrado bajo producto por escalares. Por ejemplo, $(2,8,1)\in V$, sin embargo $\frac{1}{2} (2,8,1)= \left(1,4,\frac{1}{2}\right)\notin V$, pues la última coordenada no es un número entero.
  3. El conjunto si es cerrado bajo producto por escalares, pero no bajo sumas: Tomando $(1,1,0)$ y $(0,0,1)$ en $W$, tenemos que $(1,1,0)+(0,0,1)=(1,1,1)\notin W$.

$\square$

Problema 3. Sea $V$ el conjunto de todas las funciones $f:\mathbb{R}\to \mathbb{R}$ dos veces diferenciables (es decir, que tienen segunda derivada) que cumplen para todo $x\in \mathbb{R}$:

\begin{align*}
f»(x)+x^2 f'(x)-3f(x)=0.
\end{align*}

¿Es $V$ un subespacio de las funciones de $\mathbb{R}$ en $\mathbb{R}$ ?

Solución: En efecto, podemos verificar que $V$ cumple las condiciones de subespacio:

  1. Observamos que la función $f\equiv 0$ es dos veces diferenciable y satisface
    \begin{align*}
    f»(x)+x^2 f'(x)-3f(x)=0+x^2 \cdot 0 -3\cdot 0=0.
    \end{align*}
    Es decir $0\in V$. Esto muestra que $V$ es no vacío.
  2. Sean $f,g\in V$. Sabemos que entonces $f+g$ también es dos veces diferenciable (por ejemplo, de un curso de cálculo). Además
    \begin{align*}
    &(f+g)»(x)+x^2 (f+g)'(x)-3(f+g)(x)\\ & = f»(x)+g»(x)+x^2 f'(x)+x^2 g'(x)-3f(x)-3g(x)\\& = f»(x)+x^2f(x)-3f(x)+ g»(x)+x^2g(x)-3g(x)\\& =0+0=0.
    \end{align*}
    Así $f+g\in V$.
  3. Finalmente sea $f\in V$ y sea $\lambda \in \mathbb{R}$ un escalar. Sabemos que $\lambda f$ es dos veces diferenciable, y además
    \begin{align*}
    &\left(\lambda f\right)»(x)+x^2\left(\lambda f\right)(x)-3(\lambda f)(x)\\ &= \lambda f»(x)+\lambda x^2 f'(x)-\lambda 3f(x)\\ &= \lambda (f»(x)+x^2f'(x)-3f(x))\\ &= \lambda \cdot 0 =0.
    \end{align*}
    Luego $\lambda f\in V$.

$\square$

El ejemplo anterior es crucial para la intuición de tu formación matemática posterior. En él aparece una ecuación diferencial lineal homogénea. La moraleja es que «las soluciones a una ecuación diferencial lineal homogénea son un subespacio vectorial». En este curso no nos enfocaremos en cómo resolver estas ecuaciones, pues esto corresponde a un curso del tema. Sin embargo, lo que aprendas de álgebra lineal te ayudará mucho para cuando llegues a ese punto.

Problema 4. Sea $V$ el espacio de todas las funciones de $\mathbb{R}$ en $\mathbb{R}$ y sea $W$ el subconjunto de $V$ formado por todas las funciones $f$ tales que $f(0)+f(1)=0$.

  1. Verifica que $W$ es un subespacio de $V$.
  2. Encuentra un subespacio $S$ de $W$ tal que $V=W\oplus S$.

Solución:

  1. Verificamos los axiomas de subespacio vectorial:
    1. Tenemos que $0\in W$, pues $0(0)+0(1)=0+0=0$. Entonces $W$ no es vacío.
    2. Si $f,g\in W$ entonces $(f+g)(0)+(f+g)(1)= f(1)+f(0)+g(1)+g(0)=0+0=0$.
    3. Si $f\in W$ y $\lambda \in \mathbb{R}$ entonces $\lambda f(0)+\lambda f(1)= \lambda(f(0)+f(1))=\lambda \cdot 0=0$.
  2. Proponemos $S$ como el subespacio de todas las funciones $h$ tales que $h(x)=ax$ con $a\in \mathbb{R}$. Verifiquemos que $V=W\oplus S$.
    1. Si $F\in W\cap S$ entonces $F(0)+F(1)=0$, es decir $F(0)=-F(1)$, pero como $F(x)=ax$ para algún $a\in \mathbb{R}$ entonces $F(0)=0=F(1)=a$. Luego $F(x)=0\cdot x=0$.
    2. Dada $f\in V$, definimos
      \begin{align*}
      \hat{f}(x)= f(x)-(f(0)+f(1))x.
      \end{align*}
      Observamos que $\hat{f}\in W$, pues
      \begin{align*}
      \hat{f}(0)+\hat{f}(1)= f(0)+f(1)-f(0)-f(1)=0.
      \end{align*}
      Además es claro que
      \begin{align*}
      f(x)&= f(x)-(f(0)+f(1))x+(f(0)+f(1))x\\&= \hat{f}(x)+\left(f(0)+f(1)\right)x
      \end{align*}
      donde el sumando de la derecha es de la forma $a\cdot x$. Así $S+W=V$.

$\triangle$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

Sea $A$ un conjunto no vacío. Sea $\mathcal{P}(A)$ el conjunto de todos los subconjuntos de $A$. Definimos las siguientes operaciones:
\begin{align*}
X+Y= X\Delta Y,\hspace{5mm} 1\cdot X=X,\hspace{5mm} 0\cdot X= \emptyset,\end{align*}
dónde $\Delta$ denota la operación de diferencia simétrica. Demuestra que así definido, $\mathcal{P}(A)$ es un espacio vectorial sobre el campo de dos elementos $\mathbb{F}_2$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»