(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)
INTRODUCCIÓN
¿Por qué el uso de la palabra «transformación»? Como veremos, una transformación lineal es una función que va de un espacio lineal a otro espacio lineal. Y toda función, básica e informalmente, transforma un elemento del dominio en uno del rango.
Al igual que en una máquina se introducen los ingredientes o materiales y son transformados para obtener un resultado final, en una función se introduce un elemento del dominio y se transforma mediante la regla de correspondencia en uno del rango
Ahora bien, no es una función «cualquiera». Y aunque sólo son dos condiciones las que se piden, estas transformaciones de un espacio vectorial en sí mismo o en otro espacio vectorial tienen un comportamiento que permite aplicaciones muy útiles tanto en matemáticas, como en física, ingenierías e incluso arte digital. Sus propiedades gracias a esas dos condiciones hacen de este tipo de funciones sea un punto esencial del Álgebra lineal.
TRANSFORMACIÓN LINEAL
Definición: Sean $V$ y $W$ $K$ – espacios vectoriales. Una función $T:V\longrightarrow W$ es una transformación lineal de $V$ en $W$ si: $1)$ $\forall u,v\in V(T(u+v)=T(u)+T(v))$ $2)$ $\forall \lambda\in K(\forall v\in V(T(\lambda v)=\lambda T(v)))$
Nota: Al conjunto de las transformaciones lineales de $V$ a $W$ se le denota como $\mathcal{L}(V,W)$. Cuando una función cumple la condición $1)$ diremos que abre sumas, y si cumple la condición $2)$ diremos que saca escalares.
Observación: Si $T$ abre sumas, entonces manda al neutro de $V$ en el neutro de $W$, pues $\theta_W+T(\theta_V)=T(\theta_V)=T(\theta_V+\theta_V)=T(\theta_V)+T(\theta_V)$ $\Rightarrow\theta_W+T(\theta_V)=T(\theta_V)+T(\theta_V)$ $\Rightarrow\theta_W=T(\theta_V)$ En otras palabras, las transformaciones lineales envían el neutro del dominio en el neutro del codominio.
Ejemplos
Sea $V$ un $K$ – espacio vectorial. $T:V\longrightarrow V$ donde $\forall v\in V(T(v)=\theta_V)$ es una transformación lineal de $V$ en $V$
Proposición (2.1.1.): Sean $V,W$ $K$ – espacios vectoriales, $T:V\longrightarrow W$. $T$ es lineal si y sólo si $\forall\lambda\in K , \forall u,v\in V$ $(T(\lambda u+v)=\lambda T(u)+T(v))$
$T:\mathbb{R}^3\longrightarrow\mathbb{R}^2$ donde $\forall (x,y,z)\in\mathbb{R}^3(T(x,y,z)=(x+y+z,2x-7y))$ es una transformación lineal de $\mathbb{R}^3$ en $\mathbb{R}^3$.
Justificación. Sean $(x,y,z),(u,v,w)\in\mathbb{R}^3$ y $\lambda\in\mathbb{R}$.
$T(\lambda(x,y,z)+(u,v,w))=T((\lambda x,\lambda y,\lambda z)+(u,v,w))$$=T(\lambda x + u,\lambda y + v,\lambda z + w)$$=(\lambda x + u+\lambda y + v+\lambda z + w,2(\lambda x + u)-7(\lambda y + v))$$=(\lambda(x+y+z)+u+v+w,2\lambda x-7\lambda y+2u-7v)$$=\lambda (x+y+z,2x-7y)+(u+v+w,2u-7v)$$=\lambda T(x,y,z)+T(u,v,w)$
Sea $K$ un campo. Si $A\in\mathcal{M}_{m\times n}(K)$, entonces $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$ es una transformación lineal de $K^n$ en $K^m$.
Sean $V$ y $W$ espacios vectoriales sobre un campo $F$. Sea $T: V \longrightarrow W$ una transformación lineal. Demuestra que para todo $v_1,v_2,…,v_n\in V$ y para todo $\lambda_1, \lambda_2,…,\lambda_n\in F$ con $n\in\mathbb{N}^{+}$ se tiene que $T(\lambda_1 v_1 + \lambda_2 v_2 + … + \lambda_n v_n) = \lambda_1 T(v_1) + \lambda_2 T(v_2) + … + \lambda_n T(v_n)$.
Sea $T:\mathbb{R}^2 \longrightarrow \mathbb{R}^2$ una transformación lineal tal que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. Determina si es posible hallar la regla de correspondencia de $T$, es decir, $T(x,y)$ para todo $(x,y)\in\mathbb{R}^2$. Si no es posible argumenta por qué y si es posible encuéntrala.
¿Existe una transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ tal que $T(1,2,4)=(1,2)$ y $T(-2,-4,-8)=(-2,1)$?
Más adelante…
Veremos ahora cuatro elementos que surgen de una transformación lineal: Núcleo e imagen, que son dos conjuntos relevantes para dominio y codominio. Nulidad y rango, que son dos números que nos revelan dimensiones. Comenzaremos por definir el núcleo y la imagen de una transformación lineal y probando que son subespacios vectoriales.
(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)
INTRODUCCIÓN
La suma entre espacios vectoriales se construye con la suma de vectores, sin embargo, al ser subespacios, lo que resulta de esta operación, dónde vive y cómo se comporta es algo que debe analizarse de forma particular.
La suma de subespacios consiste en la suma de sus vectores, ¿será que esa operación también da como resultado un subespacio vectorial?
La suma directa, una vez que aprendemos a distinguirla y manejarla, nos permite expresar a nuestro espacio vectorial en términos de algunos de sus subespacios. De este modo es más clara la estructura que tienen todos los elementos del espacio.
SUMA DE SUBESPACIOS
Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. La suma de $U$ y $W$ es $U+W=\{u+w|u\in U, w\in W\}$ (donde $+$ es la suma del espacio $V$).
Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es: $U_1+U_2+…+U_m=\{u_1+u_2+…+u_m|u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$
Propiedades
$U+W\leqslant V$
Justificación. Veamos que $U+W$ contiene a $\theta_V$ y conserva suma y producto por escalar.
P.D. $\theta_V\in U+W$
Como $U,W\leqslant V$, entonces $\theta_V\in U,W$. Así, $\theta_V =\theta_V+\theta_V\in U+W$ $\therefore \theta_V\in U+W$
Sean $u_1+w_1,u_2+w_2\in U+W$ con $u_1,u_2\in U$, $w_1,w_2\in W$ y $\lambda\in K$ P.D. $(u_1+w_1)+\lambda(u_2+w_2)\in U+W$
Como $U,W\subseteq V$, entonces $u_1,u_2,w_1,w_2\in V$, así que $$(u_1+w_1)+\lambda (u_2+w_2)=(u_1+w_1)+(\lambda u_2 + \lambda_2 w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) $$ y como $U,W\leqslant V$, entonces tanto $U$ como $W$ conservan suma y producto por escalar así que $u_1+\lambda u_2 \in U$ y $w_1+\lambda w_2 \in W$. Por lo cual, $(u_1+w_1)+\lambda(u_2+w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) \in U+W$ $\therefore (u_1+w_1)+\lambda(u_2+w_2)\in U+W$
$U\subseteq U+W$ y $W\subseteq U+W$
Justificación. Recordando que $\theta_V\in U,W$ (porque $U,V\leqslant V$) tenemos que $\forall u\in U(u=u+\theta_V\in U+W)$ y $\forall w\in W(w=\theta_V+w\in U+W)$
Si $\tilde{V}\leqslant V$ es tal que $U,W\subseteq\tilde{V}$, entonces $U+W\subseteq\tilde{V}$
Justificación. Sea $\tilde{V}\leqslant V$ tal que $U,W\subseteq \tilde{V}$ Sea $u+w\in U+W$ con $u\in U$ y $w\in W$. Entonces $u\in U\subseteq \tilde{V}$ y $w\in W\subseteq \tilde{V}$. De donde $u,w\in\tilde{V}$ y como $\tilde{V}\leqslant V$, entonces $\tilde{V}$ es cerrado bajo suma. Así, $u+w\in\tilde{V}$. $\therefore U+W\subseteq\tilde{V}$
Teorema (1.11.1.): Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$
Demostración: Sea $\beta=\{v_1,v_2,…,v_m\}$ una base de $U\cap W$ con $dim_K U\cap W=m$. Podemos completar a una base de $U$ y a una base de $W$:
Sea $A=\{v_1,v_2,…,v_m,u_1,u_2,…,u_r\}$ una base de $U$. Sea $\Gamma =\{v_1,v_2,…,v_m,w_1,w_2,…,w_s\}$ una base de $W$.
donde $dim_K U=m+r$ y $dim_K W =m+s$.
Veamos que $\Delta =A\cup\Gamma =\{v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s\}$ es base de $U+W$ con $m+r+s$ elementos.
P.D. $\langle\Delta\rangle =U+W$
Tenemos que $A$ es base de $U$, por lo que $A\subseteq U$. Tenemos que $\Gamma$ es base de $W$, por lo que $\Delta\subseteq W$. Así, $\Delta =A\cup\Gamma \subseteq U\cup W$. Y como $U,W\subseteq U+W$, entonces $U\cup W\subseteq U+W$. Por lo tanto $\Delta\subseteq U+W$ y como $U+W\leqslant V$ concluimos que $\langle\Delta\rangle\subseteq U+W.$
Ahora bien, sea $u+w\in U+W$ con $u\in U$ y $w\in W$. Entonces $u\in U=\langle A\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$ y $w\in W=\langle\Gamma\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$. De donde $u,w\in\langle\Delta\rangle$ y como $\langle\Delta\rangle\leqslant V$, entonces $u+w\in\langle\Delta\rangle$. Por lo tanto, $U+W\subseteq\langle\Delta\rangle$.
$\therefore\langle\Delta\rangle =U+W$
P.D. $\Delta$ es linealmente independiente
Veamos que la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. Como consecuencia de ello se tendrá que $\Delta$ es linealmente independiente y $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ son distintos y por lo tanto son $m+r+s$ elementos.
Sean $\kappa_1,\kappa_2,…,\kappa_m,\lambda_1,\lambda_2,…,\lambda_r,\mu_1,\mu_2,…,\mu_s\in K$ tales que: $\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(1)$
Como $W\leqslant V$, entonces $\sum_{i=1}^s\mu_iw_i\in W$ $…(2)$ Como $U=\langle A\rangle$, entonces $-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i\in U$ $…(3)$
De $(1)$ tenemos que $\sum_{i=1}^s\mu_iw_i=-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i$ y en consecuencia, por $(2)$ y $(3)$, concluimos que $\sum_{i=1}^s\mu_iw_i$ es un elemento que está tanto en $U$ como en $W$.
Así, $\sum_{i=1}^s\mu_iw_i\in U\cap W=\langle\beta\rangle$ y por tanto existen $\gamma_1,\gamma_2,…,\gamma_m\in K$ tales que $\sum_{i=1}^s\mu_iw_i=\sum_{i=1}^m\gamma_iv_i$ $…(4)$
De $(4)$ tenemos que $\sum_{i=1}^s\mu_iw_i-\sum_{i=1}^m\gamma_iv_i=\theta_V$, y como $\Gamma$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,s\}(\mu_i=0_K)$ y $\forall i\in\{1,2,…,m\}(-\gamma_i=0_K)$. Por lo tanto, $\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(5)$
De $(1)$ y $(5)$ tenemos que $\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\theta_V=\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i+\sum_{i=1}^s\mu_iw_i=\theta_V$. De donde $\sum_{i=1}^m\kappa_iv_i+\sum_{i=1}^r\lambda_iu_i=\theta_V$, y como $A$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,m\}(\kappa_i=0_K)$ y $\forall i\in\{1,2,…,r\}(-\lambda_i=0_K)$ $…(6)$
Hemos probado que $\kappa_1,=\kappa_2=…=\kappa_m=\lambda_1=\lambda_2=…=\lambda_r=\mu_1=\mu_2=…=\mu_s=0_K$.
Así, la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. y en consecuencia $\Delta$ es un conjunto l.i. con $m+r+s$ elementos.
$\therefore\Delta$ es l.i.
Concluimos que $\Delta$ es base de $U+W$ con $m+r+s$ elementos.
Finalmente sabemos que $dim_KU=m+r$, $dim_KW=m+s$ y $dim_K(U\cap W)=m.$ Además $\Delta$ es base de $U+W$ con $m+r+s$ elementos, entonces $dim_K(U+W)=m+r+s=(m+r)+(m+s)-m.$
Por lo tanto $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$
Ejemplos
Sean $K=\mathbb{R}$ y $V=\mathbb{R}^2$ Sean $U_1=\{(x,0)|x\in\mathbb{R}\}, U_2=\{(0,y)|y\in\mathbb{R}\}, U_3=\{(a,a)|a\in\mathbb{R}\}$ Entonces $U_1+U_2=U_2+U_3=U_3+U_2=V$.
Justificación. Es claro que $U_1,U_2,U_3\leqslant V$. Veamos el resultado de cada suma entre estos subespacios. $U_1+U_2=\{(x,0)+(0,y)|x,y\in\mathbb{R}\}=\{(x,y)|x,y\in\mathbb{R}\}=V$ $U_2+U_3=\{(0,y)+(a,a)|y,a\in\mathbb{R}\}=\{(a,a+y)|a,y\in\mathbb{R}\}=\{(a,b)|a,b\in\mathbb{R}\}=V$ $U_3+U_1=\{(a,a)+(x,0)|a,x\in\mathbb{R}\}=\{(a+x,a)|a,x\in\mathbb{R}\}=\{(b,a)|b,a\in\mathbb{R}\}=V$
Verifiquemos para la suma $U_1+U_2$ el teorema previo:
Sabemos que $dim_KV=2$. Además $U_1\cap U_2=\{(0,0)\}$ y así $dim_K(U_1\cap U_2)=dim_K\{(0,0)\}=0$. Como $\{(1,0)\}$ es base de $U_1$, entonces $dim_KU_1=1$. Como $\{(0,1)\}$ es base de $U_2$, entonces $dim_KU_2=1$. Así, $2=dim_KV=dim_K(U_1+U_2)=2=1+1+0=dim_KU_1+dim_KU_2-dim_K(U_1\cap U_2).$
Sean $K=\mathbb{R}$ y $V=\mathbb{R}^3$ Sean $U=\{(x,y,0)|x,y\in\mathbb{R}\}, W=\{(0,y,z)|y,z\in\mathbb{R}\}$ Entonces $U+W=V$
Justificación. Dado que $dim_KV=3$ y $U+W$ es un subespacio de $V$ bastará probar entonces que $dim_K(U+W)=3$.
Como $\{(1,0,0),(0,1,0)\}$ es base de $U$, entonces $dim_KU=2$ Como $\{(0,1,0),(0,0,1)\}$ es base de $W$, entonces $dim_KW=2$ Como $\{(0,1,0)\}$ es base de $U\cap W$, entonces $dim_K(U\cap W)=1$ Así, \begin{align*}dim_K(U+W)&=dim_KU+dim_KW-dim_K(U\cap W)\\&=2+2-dim_K(U\cap W)=4-1=3,\end{align*} de donde $dim_K(U+W)=3=dim_KV$.
$\therefore U+W=V$.
SUMA DIRECTA
Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. Decimos que $U+W$ es una suma directa si cada $v\in U+W$ se escribe como $v=u+w$ (con $u\in U,w\in W$) de forma única. En ese caso, escribiremos a $U+W$ como $U\oplus W$.
Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es: $U_1+U_2+…+U_m$ es suma directa si cada $v\in U_1+U_2+…+U_m$ se escribe como $v=u_1+u_2+…+u_m$ (con $u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$) de forma única. Se denotará como $U_1\oplus U_2\oplus …\oplus U_m$.
Ejemplo
Sean $K=\mathbb{R}$ y $V=\mathbb{R}^2$ Sean $U=\{(x,x)|x\in\mathbb{R}\}, W=\{(y,-y)|y\in\mathbb{R}\}, U_3\{(a,a)|a\in\mathbb{R}\}$ Entonces $U\oplus W=V$.
Justificación. Es claro que $U,W\leqslant V$. Sea $(a,b)\in\mathbb{R}^2$. Entonces $a,b\in\mathbb{R}$.
Tenemos que $$(a,b)=\left( \frac{a+b}{2}+\frac{a-b}{2} ,\frac{a+b}{2}-\frac{a-b}{2}\right)=\left( \frac{a+b}{2} ,\frac{a+b}{2}\right)+\left( \frac{a-b}{2} ,-\frac{a-b}{2}\right)\in U+W,$$ de donde $\mathbb{R}^2\subseteq U+W$. Sabemos que $U+W\subseteq V$ y demostramos que $V\subseteq U+W$ $\therefore U+ W=V$
Veamos ahora que dicha suma es directa, es decir que si $u\in U, w\in W$ son tales que $(a,b)=u+w$, entonces $u,w$ son únicos. Bastará para ello verificar que la descomposición anterior de $(a,b)$ como suma de un elemento en $U$ y uno en $W$ es la única posible.
Sean $u\in U, w\in W$ son tales que $(a,b)=u+w$. Entonces $u=(x,x)$ para algún $x\in\mathbb{R}$ y $w=(y,-y)$ para algún $y\in\mathbb{R}$, donde $(a,b)=(x,x)+(y,-y)=(x+y,x-y)$.
De aquí se deduce que $a=x+y$ y $b=x-y$. Así, $a+b=2x$ y por lo tanto $x=\frac{a+b}{2}$, mientras que $a-b=2y$ y por lo tanto $y=\frac{a-b}{2}$.
$\therefore U+W$ es suma directa. $\therefore U\oplus W=V$
Proposición (1.11.2.): Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $U+W$ es suma directa si y sólo si $U\cap W=\{\theta_V\}$
Demostración: Veamos ambas implicaciones.
$\Rightarrow )$ Supongamos que $U+W$ es suma directa.
Como $U,W\leqslant V$, entonces $\theta_V\in U,W$. Por lo que $\{\theta_V\}\subseteq U\cap W$.
Sea $v\in U\cap W$. Sabemos que $\theta_V+v,v+\theta_V\in U\oplus W$ y son formas de escribir a $v$. Como $U+W$ es suma directa, entonces la forma de escribir a $v$ debe ser única. Por lo tanto, $v=\theta_V$
$\therefore U\cap W=\{\theta_V\}$
$\Leftarrow )$ Supongamos que $U\cap W=\theta_V$
Sea $v\in U+W$ tal que $u_1+w_1=v=u_2+w_2$ con $u_1,u_2\in U$ y $w_1,w_2\in W$
Como $U,W\leqslant V$, entonces $u_1-u_2\in U$ y $w_2-w_1\in W$. Como $u_1+w_1=u_2+w_2$, entonces $u_1-u_2=w_2-w_1$. Por lo tanto, $u_1-u_2,w_2-w_1\in U\cap W=\{\theta_V\}$
Así, $u_1-u_2=\theta_V$ lo que implica que $ u_1=u_2$T ambién $w_2-w_1=\theta_V$ lo que implica que $w_2=w_1$. Es decir, cada elementos en $U+W$ se escribe de forma única.
$\therefore U+W$ es una suma directa.
Tarea Moral
Sean $V$ un espacio vectorial y $A,B,C\leqslant V$. Demuestra que: Si $A\cap B=A\cap C=B\cap C =\{ \theta_V \}$, entonces $(A\oplus B)\oplus C = A \oplus (B\oplus C).$
Sean $V$ un espacio vectorial y $A,B\leqslant V$. Demuestra que: Si $A\cap B=\{\theta_V \}$, entonces $A\oplus B=B\oplus A$.
Más adelante…
A partir de la siguiente entrada, analizaremos un tipo de funciones muy especial y útil que va de espacios vectoriales a espacios vectoriales y aunque la definición sólo le pide abrir dos operaciones, esto implica muchas propiedades que otorgan a este tipo de funciones un papel central en el Álgebra lineal.
(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)
INTRODUCCIÓN
Llegamos a la conclusión de que la base de un espacio vectorial (con dimensión finita) es un conjunto lo «suficientemente grande» para generar al espacio y lo «suficientemente pequeño» para ser siendo linealmente independiente.
Ahora bien, veremos que siempre será posible encontrar un base si conocemos un conjunto generador finito o un conjunto linealmente independiente.
De cualquier subconjunto finito de nuestro espacio, podemos obtener un generador o un l.i. y cuando lo obtengamos podremos reducirlo o completarlo para obtener una base.
Así, con los ajustes necesarios (que ya sabremos cómo hacer), resulta que podremos construir bases en espacios de dimensión finita.
Teorema (1.10.1.): Sea $V$ un $K$ – espacio vectorial de dimensión finita. a) Todo conjunto generador finito o es una base o se puede reducir a una base. b) Todo conjunto linealmente independiente o es una base o se puede completar a una base.
Demostración:
a) En la demostración de la proposición 1.9.1. (en la entrada anterior) tomamos un conjunto generador finito $S$ de un espacio vectorial arbitrario y o bien es base o es linealmente dependiente y en ese caso recursivamente tomamos subconjuntos propios de $S$ hasta que uno de esos subconjuntos fuera base. Este método prueba que podemos reducir cualquier conjunto generador de $V$ para obtener una base.
b) Sea $S\subseteq V$ un conjunto l.i. Ya sabemos que $S$ es finito por ser un subconjunto l.i. de un espacio $V$ de dimensión finita (ver la observación en la entrada anterior).
Caso 1. Si $\langle S \rangle = V$, entonces $S$ es base de $V$ por definición.
Caso 2. Si $\langle S \rangle \subsetneq V$, entonces existe $v_1\in V$ tal que $v_1\notin \langle S \rangle$. Por lo tanto, $ S \cup \{ v_1 \}$ es l.i.
Subaso 1. Si $\langle S \cup \{ v_1 \} \rangle = V$, entonces $S \cup \{ v_1 \}$ es base de $V$ por definición.
Subcaso 2. Si $\langle S \cup \{ v_1 \} \rangle \subsetneq V$, entonces existe $v_2\in V$ tal que $v_2\notin \langle S \cup \{ v_1 \} \rangle$ Por lo tanto, $ S \cup \{ v_1 \} \cup \{ v_2 \} $ es l.i.
Este proceso no es infinito porque los subconjuntos l.i de $V$ deben ser finitos, así que se detiene después de digamos $m$ pasos, en el momento en que obtenemos un conjunto generador de $V$. El número $m$ es la cantidad de elementos de $V$ que tuvimos que agregar a $S$, entonces $\langle S \cup \{ v_1 \} \cup \{ v_2 \} \cup … \{ v_m \} \rangle$ es una base de $V$.
Corolario (1.10.2.): Sea $V$ un $K$ – espacio vectorial tal que $dim_K V=n$. a) Cualquier conjunto generador con $n$ elementos es una base de $V$. b) Cualquier conjunto linealmente independiente con $n$ elementos es una base de $V$.
Demostración: Por definición de base tenemos que toda base $B$ de $V$ cumple que $|B|=dim_K V=n$. Es decir, toda base de $V$ tiene $n$ elementos.
a) Sea $S\subseteq V$ generador con $n$ elementos. Por el teorema anterior $S$ es una base o se puede reducir a una base. Pero reducir $S$ significaría quitar elementos y obtendríamos una base de $V$ con menos de $n$ elementos, lo que es una contradicción porque toda base de $V$ tiene $n$ elementos. Por lo tanto $S$ es base.
b) Sea $S\subseteq V$ linealmente independiente. Por el teorema anterior $S$ es una base o podemos completarlo a una base. Pero completar $S$ significaría agregar elementos y obtendríamos una base de $V$ con más de $n$ elementos, lo que es una contradicción porque toda base de $V$ tiene $n$ elementos. Por lo tanto $S$ es base.
Esto implica que $\begin{pmatrix} \lambda_1 & \lambda_1+\lambda_2 \\ \lambda_3 & \lambda_2+\lambda_3 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$
Así, $\lambda_1= \lambda_1+\lambda_2= \lambda_3=\lambda_2+\lambda_3=0$. Por lo tanto, $\lambda_1=\lambda_2=\lambda_3=0$ y $B$ es l.i.
Como $\langle B\rangle=W$ y $B$ es l.i., entonces $B$ es una base y obtenemos que $dim_\mathbb{R}W=|B|=3.$
Teorema (1.10.3.): Sean $V$ un $K$ – espacio vectorial de dimensión finita y $W$ un subespacio de $V$. Entonces se cumple lo siguiente:
a) $W$ es de dimensión finita. b) Toda base de $W$ o es una base de $V$ o se puede completar a una base de $V$. c) $dim_KW\leq dim_KV$. d) Si $dim_KW=dim_KV$, entonces $W=V$.
Demostración: Analicemos cada inciso por separado:
a) Veamos que $W$ es de dimensión finita probando que tiene una base finita.
Si $W=\{\theta_V\}$ entonces $\emptyset$ es una base finita de $V$.
Supongamos que $\{\theta_V\}\subsetneq W$, consideremos $w_1\in W\setminus \{\theta_V\} $, notemos que $\{w_1\}$ es l.i. ya que $w_1\neq \theta_V$. Si $\{w_1\}$ genera a $W$, entonces es una base finita de $W$. Si por el contrario $\{w_1\}$ no genera a $W$ tendríamos que $\langle w_1\rangle\subsetneq W$ y podemos considerar $w_2\in W\setminus \langle w_1\rangle$. Debido a la elección de $w_2$ sabemos que $\{w_1, w_2\}$ es l.i. Así, si $\{w_1, w_2\}$ genera a $W$, entonces es una base finita de $W$ y si no elegimos $w_3\in W\setminus \langle w_1,w_2\rangle$.
Continuando de este modo obtenemos subconjuntos de $W$, y por lo tanto de $V$, linealmente independientes. El proceso se detiene después de un número finito de pasos ya que al ser $V$ de dimensión finita no existen conjuntos en $V$ linealmente independientes infinitos y se detiene en el momento en que el subconjunto obtenido genera a $W$. Entonces el proceso acaba después de digamos $t$ pasos obteniendo un subconjunto $\{w_1, \dots ,w_t\}$ de $W$ linealmente independiente que genera a $W$, siendo así una base finita de $W$.
b) Sea $B$ una base de $W$. Entonces $B$ es un subconjunto l.i. en $V$ y por el teorema anterior o es una base de $V$ o se puede completar a una base de $V$.
c) Sea $B$ una base de $W$. Por el inciso anterior tenemos $B$ es una base de $V$ o se puede completar para obtener una base de $V$, es decir, existe $A\subseteq V$ tal que $B\cup A$ es una base de $V$. Así, $$dim_KW=|B|\leq|B\cup A|=dim_KV.$$ Por lo tanto, $dim_KW\leq\dim_KV$.
d) Supongamos que $dim_KW=\dim_KV=n$ Sea $B$ una base de $W$. Entonces $B$ es un l.i. en $V$ con $n$ elementos. Por el corolario anterior tenemos que $B$ es una base de $V$. Así, $W=\langle B\rangle =V$ y por lo tanto, $W=V$
Tarea Moral
Da tres bases diferentes para $\mathcal{M}_{2 \times 2}(\mathbb{R})$.
Demuestra que el conjunto $\{v_1,v_2,…\}$ (infinito) es linealmente independiente si y sólo si $\{v_1,v_2,…,v_n\}$ es linealmente independiente para toda $n\geq 1$.
Más adelante…
Veremos un nuevo concepto: Suma y suma directa de subespacios vectoriales. ¿Qué es? ¿Qué estructura tiene? ¿Dónde vive? ¿Qué relación tiene la suma de dos subespacios con sus uniones?
(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)
INTRODUCCIÓN
Hemos estudiado a los conjuntos generadores y a los conjuntos linealmente independientes. Los conjuntos generadores son útiles porque nos permiten describir a todo vector del espacio en términos sólo de los vectores del conjunto generador. Por otro lado los conjuntos linealmente independientes son importante porque no tienen vectores que se escriban como combinación lineal de los demás por lo que intuitivamente no contienen información redundante. Será conveniente entonces considerar conjuntos de vectores que sean generadores y linealmente independientes al mismo tiempo y a éstos les llamaremos bases. Además la cardinalidad de un conjunto que cumpla ambas características se vuelve relevante.
De acuerdo a lo que hemos observado en $\mathbb{R}^3$ sabemos que sucede lo siguiente: 1) De todo subconjunto linealmente dependiente que genere podemos encontrar un subconjunto propio linealmente independiente que siga generando. 2) A todo subconjunto de $V$ linealmente independiente podemos agregarle elementos de $V$ hasta crear un conjunto generador de $V$ que siga siendo linealmente independiente.
Para conseguir un conjunto l.i. necesitamos en ocasiones hacer el original «más pequeño» y para conseguir un generador necesitamos a veces hacer el original «más grande».
Estudiaremos a continuación lo que es una base: un conjunto lo «suficientemente grande» para generar al espacio y lo «suficientemente pequeño» para ser linealmente independiente.
BASE DE UN ESPACIO VECTORIAL
Definición: Sean $V$ un $K$ – espacio vectorial, $B\subseteq V$. Decimos que $B$ es una base de $V$ si genera a $V$ y es linealmente independiente. Además, decimos que $V$ es de dimensión finita si tiene una base finita.
Ejemplos
Sea $K$ un campo. Consideremos las $n$-adas $e_1=(1_K,0_K,0_K,0_K,…,0_K,0_K), e_2=(0_K,1_K,0_K,0_K,…,0_K,0_K),$ $…,e_n=(0_K,0_K,0_K,0_K,…,0_K,1_K)$. El conjunto $\{ e_1,e_2,…,e_n\}$ es una base de $K^n$.
Justificación. Como $B =\{e_1,e_2,…,e_n\}$ es l.i., sólo falta ver que $\langle B\rangle =K^n$. Sabemos que $K^n$ es un espacio vectorial y cada $e_i\in K^n$, entonces $\langle B\rangle\subseteq K^n$. Ahora bien, sea $(x_1,x_2,…,x_n)\in K^n$. Es claro que $(x_1,x_2,…,x_n)=x_1e_1+x_2e_2+…+x_ne_n\in\langle B\rangle$. De donde $K^n\subseteq\langle B\rangle$. $\therefore\langle B\rangle =K^n.$
Sea $W=\{(x,y,z)\in\mathbb{R}^3|x-y+2z=0\}$ que es un subespacio de $\mathbb{R}^3$. Tenemos que $1-1+2(0)=0$ y $-2-0+2(1)=0$, entonces $(1,1,0),(-2,0,1)\in W$. Resulta que $\{(1,1,0),(-2,0,1)\}$ es una base de $W$.
Justificación. Primero veamos que $B =\{(1,1,0),(-2,0,1)\}$ es l.i. Sean $\lambda_1,\lambda_2\in\mathbb{R}$ tales que $\lambda_1(1,1,0)+\lambda_2(-2,0,1)=(0,0,0)$. Entonces, $(\lambda_1-2\lambda_2,\lambda_1,\lambda_2)=(0,0,0)$. Inmediatamente se concluye de lo anterior que $\lambda_1=\lambda_2=0$. $\therefore B$ es l.i. Como $W$ es un subespacio y $(1,1,0),(-2,0,1)\in W$, entonces $\langle B\rangle\subseteq W$. Ahora bien, sea $(x,y,z)\in W$. Por definición de $W$ tenemos que $x=y-2z$, y en consecuencia $(x,y,z)=(y-2z,y,z)$. Es claro que $(x,y,z)=(y-2z,y,z)=y(1,1,0)+z(-2,0,1)\in\langle B\rangle$. Así, $W\subseteq\langle B\rangle$. $\therefore\langle B\rangle.$
Proposición (1.9.1.): Sea $V$ un $K$ – espacio vectorial. Si $V$ tiene un conjunto generador finito, entonces $V$ tiene una base finita.
Demostración: Sea $S=\{v_1,v_2,…,v_n\}$ un conjunto generador finito de $V$.
Caso 1. $S$ es l.i. Entonces $S$ es una base finita de $V$.
Caso 2. $S$ es l.d. Por el lema de dependencia lineal existe $v_{j_1}\in S$ tal que $\langle S\setminus\{v_{j_1}\}\rangle =\langle S\rangle $. Así, podemos definir el siguiente conjunto: $S_1=S\setminus\{v_{j_1}\}$ donde $j_1\in\{1,2,…,n\}$ y $\langle S\setminus\{v_{j_1}\}\rangle =\langle S\rangle =V.$ Si $S_1$ es l.i., entonces $S_1$ es una base finita de $V$. Si $S_1$ es l.d., entonces repetimos el proceso. Observemos que de esta forma vamos encontrando $S_1, S_2, \dots$ subconjuntos de $S$ con $n-1,n-2,\dots$ elementos respectivamente, tales que $\langle S_i \rangle =\langle S\rangle =V$ para toda $i=1,2,\dots$. Este proceso es finito ya que $S$ lo es y termina después de a lo más $n$ pasos. El proceso termina en el momento en que encontramos un $S_t$ con $t\in\{1,\dots ,n\}$ subconjunto de $S$ tal que $S_t$ es l.i. y por la forma en que se construyeron los subconjuntos de $S$ en este proceso se tiene además que $\langle S_t \rangle =\langle S\rangle =V$. Tenemos entonces que $S_t$ es una base finita de $V$.
Corolario (1.9.2.): Sea $V$ un $K$ – espacio vectorial. $V$ tiene un conjunto generador finito si y sólo si $V$ es de dimensión finita.
Demostración: $\Rightarrow )$ Se cumple por el teorema anterior y la definición de espacio vectorial de dimensión finita.
$\Leftarrow )$ Por definición de espacio vectorial de dimensión finita, existe una base finita, es decir, un conjunto l.i. generador de cardinalidad finita, en particular esta base es un conjunto generador finito.
Observación: Si un $V$ espacio vectorial es de dimensión finita, entonces todo conjunto l.i. es finito.
Teorema (1.9.3.): Sea $V$ un $K$ – espacio vectorial de dimensión finita. Todas las bases de $V$ son finitas y tienen el mismo número de elementos.
Demostración: Por la observación previa tenemos que todas las bases de $V$ son finitas, pues en particular son conjuntos l.i. Veamos que todas tienen la misma cardinalidad.
Sean $B_1$ y $B_2$ bases de $V$, que son finitas por lo antes mencionado.
Por definición de bases tenemos: a) $B_1$ es l.i., b) $B_1$ es generador de $V$, c) $B_2$ es l.i., d) $B_2$ es generador de $V$.
Recordando la relación entre conjuntos linealmente independientes y conjuntos generadores tenemos que: a) y d) implican que $|B_1|\leq |B_2|$, b) y c) implican que $|B_2|\leq |B_1|$. $\therefore |B_1|=|B_2|.$
A lo largo de esta entrada hemos logrado concluir que, si bien las bases no son únicas, su cardinalidad (en el caso de espacios de dimensión finita) sí es única.
DIMENSIÓN DE UN ESPACIO VECTORIAL
Definición: Sea $V$ un $K$ – espacio vectorial de dimensión finita. Decimos que la dimensión de $V$ es la cardinalidad de cualquiera de sus bases. Se denota como $dim_K V$.
Ejemplos
Sea $W=\langle 2-x+5x^2,3-2x^2,7-2x+8x^2\rangle\leq\mathcal{P}_2[\mathbb{R}]$. Tenemos que $dim_{\mathbb{R}}W=2$.
Justificación. Primero describamos los elementos de $V$ como combinaciones lineales de los vectores del conjunto generador. Sea $a+bx+cx^2 \in V$. Entonces existen $\lambda,\mu,\nu\in\mathbb{R}$ tales que $\lambda (2-x+5x^2) + \mu (3-2x^2) + \nu (7-2x+8x^2)=a+bx+cx^2$ Entonces $(2\lambda + 3\mu +7\nu) + (-\lambda – 2\nu)x + (5\lambda – 2\mu + 8\nu)x^2=a+bx+cx^2$. Por lo tanto: \begin{align*}2\lambda + 3\mu +7\nu&=a\\ -\lambda – 2\nu&=b\\ 5\lambda – 2\mu + 8\nu&=c.\end{align*}
Se puede verificar que $\{ -19+x,-1+x^2 \}$ es linealmente independiente y claramente genera a $W$, entonces es una base de $W$.
Por lo tanto, $dim_{\mathbb{R}}W=2$.
Tarea Moral
Determina cuáles de los siguiente conjuntos son bases para $\mathbb{R}^3$: a) $\{ (1, 0, -1), (2,5,1), (0,-4,3) \}$ b) $\{ (1,-3,-2), (-3,1,3), (-2,-10,-2) \}$ c) $\{ (-1,3,1), (2,-4,-3), (-3,8,2) \}$
Sea $V$ un espacio vectorial con base $\gamma$. Demuestra que si $\gamma = \{ e_1,e_2,…,e_n \}$, entonces $\{e_1,e_1+e_2,…,e_1+e_2+…+e_n\}$ también es base de $V$.
Más adelante…
Partiendo de cualquier espacio vectorial de dimensión finita $V$, veremos cómo obtener bases. Además analizaremos qué relación hay entre: a) la dimensión de $V$ y las dimensiones de sus subespacios y b) la base de $V$ y las bases de sus subespacios.
(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)
INTRODUCCIÓN
¿Para qué sirve hacer el resumen de un texto? Algunos beneficios son que: 1) mejora la comprensión lectora, 2) facilita el estudio y memorización, 3) aumenta la capacidad de análisis y 4) fomenta la escritura clara y precisa.
Para elaborar un buen resumen es necesario analizar cuidadosamente la información, identificar lo esencial y comprender su estructura. Al hacerlo, no solo se logra un texto más claro y breve, sino que también se mejora la capacidad de organizar ideas y aprender con mayor profundidad.
En matemáticas rara vez se habla de resúmenes. De hecho, lo más parecido que se suele ver es una lista fórmulas, ¿no es verdad? Pues bien, hablando de los subespacios generados, ¿qué tal si pudiéramos simplificarlos?
Tomamos un conjunto de vectores que, gracias a las combinaciones lineales, genera un subespacio vectorial y eso ya optimiza mucho las cosas, ya ni siquiera necesitamos describir todo el subespacio generado, pero si el conjunto generador pudiéramos hacerlo más pequeño obtendríamos varios beneficios, tal como lo hace un resumen de texto.
Nota: Dado $\{u_1,u_2,\dots ,u_t\}$ un conjunto finito de vectores denotaremos a $\langle\{u_1,u_2,\dots ,u_t\}\rangle$ por $\langle u_1,u_2,\dots ,u_t\rangle$.
Lema (1.8.1. Dependencia lineal): Sean $V$ un $K$ – espacio vectorial y $v_1,v_2,…,v_m$ una lista de vectores en $V$. Si $v_1,v_2,…,v_m$ es una lista l.d. y $v_1\not=\theta_V$, entonces existe $j\in\{2,3,…,m\}$ tal que: a) $v_j\in\langle v_1,v_2,…,v_{j-1}\rangle$ y b) $\langle v_1,v_2,…,v_{j-1},v_{j+1},…,v_m\rangle=\langle v_1,v_2,…,v_m\rangle$
Nota: $\langle v_1,v_2,…,v_{j-1},v_{j+1},…,v_m\rangle$ lo denotamos por $\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle$
Demostración: Sean $V$ un $K$ – espacio vectorial y $v_1,v_2,…,v_m$ una lista l.d. con $v_1\not=\theta_V$.
Como la lista es l.d., entonces existen $\lambda_1,\lambda_2,…,\lambda_m\in K$ no todos nulos tales que
a) Dado que existe al menos un escalar no nulo en (*) tenemos dos casos:
Caso 1. Únicamente $\lambda_1\not=0_K$. Así, \begin{align*}\theta_V&=\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m\\ &=\lambda_1v_1+0_Kv_2+…+0_Kv_m\\ &=\lambda_1v_1+\theta_V+…+\theta_V=\lambda_1v_1.\end{align*} De donde, $\lambda_1v_1=\theta_V$ con $\lambda_1\not=0_K$, entonces $v_1=\lambda_1^{-1}\theta_V=\theta_V$ lo que contradice la hipótesis de que $v_1\not=\theta_V$. Por lo tanto, este caso no es posible.
Caso 2. Existe al menos un $\lambda_i\not=0_K$ con $i\in\{2,3,…,m\}$. Consideremos $j=\text{máx}\{i\in\{2,3,…,m-1\}|\lambda_i\not=0_K\}.$ Entonces $\lambda_{j+1}=\cdots =\lambda_m=0$ por lo cual \begin{align*}\theta_V&=\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m\\ &=\lambda_1v_1+\lambda_2v_2+\cdots+\lambda_jv_j+0_Kv_{j+1}+\cdots+0_Kv_m\\&=\lambda_1v_1+\lambda_2v_2+\cdots+\lambda_jv_j+\theta_V\\ &=\lambda_1v_1+\lambda_2v_2+\cdots+\lambda_jv_j.\end{align*} Así, $\lambda_1v_1+\cdots+\lambda_jv_j=\theta_V$, en consecuencia $\lambda_jv_j=-\lambda_1v_1-\lambda_2v_2-\cdots -\lambda_{j-1}v_{j-1}.$
Además, dado que $\lambda_j\neq 0$ existe el inverso multiplicativo de $\lambda_j,$ entonces
b) Veamos que se cumplen las dos contenciones entre los subconjuntos deseados, contemplando que la $j$ para este inciso debe ser la misma que en el inciso anterior.
En primer lugar: Tenemos que $\{v_1,v_2,\dots,\widehat{v_j},…,v_m\}\subseteq \{v_1,v_2,\dots,v_j,\dots,v_m\}\subseteq\langle v_1,v_2,\dots,v_j,\dots,v_m\rangle$ y este último subconjunto es un subespacio de $V$. Además, sabemos que si $S\subseteq W\subseteq V$ con $W$ un subespacio vectorial, entonces $\langle S\rangle\subseteq W$. $\therefore\langle v_1,v_2,\dots,\widehat{v_j},\dots,v_m\rangle\subseteq\langle v_1,v_2,\dots,v_j,\dots,v_m\rangle$.
En segundo lugar: Si $w\in\langle v_1,v_2,\dots,v_j,\dots,v_m\rangle$, entonces existen $\mu_1,\mu_2,\dots,\mu_j,\dots,\mu_m\in K$ tales que $w=\mu_1v_1+\mu_2v_2+\cdots+\mu_jv_j+\cdots+\mu_mv_m$. Sabemos que $v_j=(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+\cdots+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}$. De donde,
Teorema (1.8.2.): Sea $V$ un $K$ – espacio vectorial. Si $v_1,v_2,…,v_m$ es una lista l.i. de vectores en $V$ con $m\in\mathbb{N}^+$, entonces todo conjunto generador de $V$ tiene al menos $m$ elementos.
Demostración: Sea $V$ un $K$ – espacio vectorial. Sea $v_1,v_2,…,v_m$ es una lista l.i. de vectores en $V$, llamémosle $L$ a esta lista. Sea $S$ tal que $\langle S\rangle = V$.
Caso 1. $S$ es infinito. Entonces $S$ tiene más de $m$ elementos.
Caso 2. $S$ es finito. Digamos que $S=\{w_1,w_2,…,w_k\}$ con $w_1,w_2,…,w_k$ distintos. Probemos que $m\leq k$.
Observemos que como $L$ es una lista l.i. de vectores en $V$, entonces para cada $i\in\{1,2,…,m\}$ tenemos que $v_i\not=\theta_V$.
(1) Como $ v_1\in V=\langle S\rangle$, entonces $v_1,w_1,w_2,…,w_k$ es una lista l.d. Dado que $v_1\not= \theta_V$, por el lema podemos concluir que existe $j_1\in\{1,2,…,k\}$ tal que $\langle \{v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle =\langle v_1,w_1,w_2,…,w_k\rangle =V.$
(2) Como $ v_2\in V=\langle \{v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle$, entonces $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$ es una lista l.d. Dado que con $v_2\not= \theta_V$, por el lema podemos concluir que algún vector $v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$ es combinación lineal de los vectores que le anteceden en la lista $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$, pero dicho vector no puede ser $v_1$ pues sabemos que $L$ es l.i., por lo que $v_1$ no puede ser combinación lineal de $v_2$. Así, existe algún vector $w_1,w_2,…,\widehat{w_{j_1}},…,w_k$, digamos $w_{j_2}$ con $j_2\in\{1,2,…,k\}\setminus\{j_1\}$, que es combinación lineal de los vectores que le anteceden en la lista $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_{j_k}$ y tal que $\langle \{v_2,v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1},w_{j_2}\}\rangle$$=\langle \{v_2,v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle =V.$
Continuando de este modo, en cada paso quitamos un vector $w_{j_t}$ del conjunto generador, y lo sustituimos por $v_t$, obteniendo de esta manera un nuevo conjunto generador. Observemos entonces que después de $t$ pasos hemos quitado $t$ vectores de $S$, y los hemos sustituido por $v_t,\dots ,v_2,v_1$.
Veamos que $k\geq m$.
Para ello supongamos por reducción al absurdo que $k< m$.
Continuando con el proceso anterior, después de $k$ pasos hemos quitado $k$ vectores de $S$, $w_{j_1},w_{j_2},…,w_{j_k}$ (que son entonces los $k$ vectores de $S$, es decir, son precisamente $w_1,w_2,…,w_k$, sólo que quizás en otro orden) y los hemos sustituido por $v_k,\dots ,v_2,v_1$. Tenemos además que: \begin{align*}V&=\langle \{v_{k-1},v_{k-2},…,v_2,v_1,w_1,w_2,…,w_k\}-\{w_{j_1},w_{j_2},…,w_{j_k}\}\rangle\\&=\langle \{v_{k-1},v_{k-2},…,v_2,v_1\}\rangle .\end{align*} Pero si $V=\langle \{v_{k-1},…,v_2,v_1\}\rangle$, entonces $v_k\in \langle \{v_{k-1},…,v_2,v_1\}\rangle$ y por lo tanto $v_1,v_2,…,v_k$ sería l.d. y en consecuencia también $v_1,v_2,…,v_m$ sería l.d., lo cual contradice nuestra hipótesis.
Por lo tanto, $m\leq k$.
Corolario (1.8.3.): Sea $V$ un $K$ – espacio vectorial. Si existe $S$ un subconjunto finito de $V$ generador con $k$ elementos, entonces todo conjunto linealmente independiente es finito y tiene a lo más $k$ elementos. En consecuencia, no existen conjuntos infinitos l.i. en $V$.
Demostración: Sea $V$ un $K$ – espacio vectorial. Sea $S\subseteq V$ finito con $k$ elementos tal que $\langle S\rangle =V$. Sea $T\subseteq V$ un subconjunto l.i. Supongamos por reducción al absurdo que $T$ es infinito, consideremos entonces $\hat{T}$ un subconjunto de $T$ con $k+1$ elementos. Tenemos que $\hat{T}$ es un conjunto l.i. con $k+1$ elementos y $S$ es un conjunto generador con $k$ elementos, lo que contradice el teorema anterior. Concluimos entonces que $T$ debe ser finito. Nuevamente por el teorema anterior se cumple que $|T|\leq |S|$, y como $|S|=k$ entonces $|T|\leq k$.
Tarea Moral
Demuestra que, dado $V$ un $K$ – espacio vectorial con $K$ un campo, sólo existe un subconjunto $S$ unitario linealmente dependiente y exhíbelo.
Sea $S=\{v_1,v_2,…,v_m\}\subseteq V.$ Demuestra que son equivalentes:
$S$ es l.d.
Existe $v_j\in S$ tal que $v_j\in \langle S-{v_j}\rangle$.
Recordando que $\{e_1,e_2,e_3\}$ es linealmente independiente $\mathbb{R}^3$ y el teorema de esta entrada sabemos que cualquier conjunto de solo $1$ o $2$ elementos, no podrá generar a $\mathbb{R}^3$.
Describe qué subespacio(s) de $\mathbb{R}^3$ se puede(n) generar con un $S\subseteq\mathbb{R}^3$ si $|S|=1$.
Describe qué subespacio(s) de $\mathbb{R}^3$ se puede(n) generar con un $S\subseteq\mathbb{R}^3$ si $|S|=2$.
Más adelante…
Ahora que sabemos la relación de cardinalidad que existe entre los conjuntos linealmente independientes y los conjuntos generadores, nos damos cuenta de que, dicho muy informalmente, los conjuntos generadores de un espacio vectorial $V$ tienen una cardinalidad mayor o igual a los l.i. en $V$. Nos enfocaremos en aquellos conjuntos que son generadores del espacio vectorial $V$ al que pertenecen y linealmente independientes. Veremos algunas propiedades de sus cardinalidades.