Archivo del Autor: Jennyfer Paulina Bennetts Castillo

2.1. TRANSFORMACIÓN LINEAL: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

¿Por qué el uso de la palabra «transformación»?
Como veremos, una transformación lineal es una función que va de un espacio lineal a otro espacio lineal. Y toda función, básica e informalmente, transforma un elemento del dominio en uno del codominio.

Ahora bien, no es una función «cualquiera». Y aunque solo son dos condiciones las que se piden, son suficientes y necesarias para realizar estas transformaciones de un vector de un espacio en un vector de otro espacio con un comportamiento que permite aplicaciones my útiles tanto en matemáticas, como en física, ingenierías e incluso arte digital. Sus propiedades gracias a esas dos condiciones hacen de este tipo de funciones el punto focal del Álgebra Lineal.

TRANSFORMACIÓN LINEAL

Definición: Sean $V$ y $W$ $K$ – espacios vectoriales. Una función $T:V\longrightarrow W$ es una transformación lineal de $V$ en $W$ si:
$1)$ $\forall u,v\in V(T(u+v)=T(u)+T(v))$
$2)$ $\forall \lambda\in K(\forall v\in V(T(\lambda v)=\lambda T(v)))$

Nota: Al conjunto de las transformaciones lineales de $V$ a $W$ se le denota como $\mathcal{L}(V,W)$.

Observación: Si $T$ abre sumas, entonces manda al neutro de $V$ en el neutro de $W$, pues $\theta_W+T(\theta_V)=T(\theta_V)=T(\theta_V+\theta_V)=T(\theta_V)+T(\theta_V)$$\Rightarrow\theta_W+T(\theta_V)=T(\theta_V)+T(\theta_V)\Rightarrow\theta_W=T(\theta_V)$
En particular, las transformaciones lineales envían neutros en neutros.

Ejemplos

  • Sea $V$ un $K$ – espacio vectorial.
    $T:V\longrightarrow V$ donde $\forall v\in V(T(v)=\theta_V)$ es una transformación lineal de $V$ en $V$

Justificación. Sean $\lambda\in K$ y $u,v\in V$.

Entonces $T(u+v)=\theta_V=\theta_V+\theta_V=T(u)+T(v)$ y
$\lambda T(v)=\lambda\theta_V=\theta_V=T(\lambda v)$

  • Sea $K$ un campo. $T:K[x]\longrightarrow K[x]$ donde $\forall p(x)\in K[x](T(p(x))=p'(x))$ es una transformación lineal de $K[x]$ en $K[x]$

Justificación. Sean $\lambda\in K$ y $p(x),q(x)\in K[x]$.

Entonces $T(p(x)+q(x))=(p(x)+q(x))’=p'(x)+q'(x)=T(p(x))+T(q(x))$ y
$T(\lambda p(x))=(\lambda p(x))’=\lambda p'(x)=\lambda T(p(x))$

Proposición: Sean $V,W$ $K$ – espacios vectoriales, $T:V\longrightarrow W$.
$T$ es lineal si y sólo si $\forall\lambda\in K$ $\forall u,v\in V$ $(T(\lambda u+v)=\lambda T(u)+T(v))$

Demostración: $\Longrightarrow )$ Sean $T:V\longrightarrow W$ lineal, $\lambda\in K$, $u,v\in V$.

$\begin{align*}
T(\lambda u+v)&=T(\lambda u)+T(v)\tag{$1$}\\
&=\lambda T(u)+T(v)\tag{$2$}\\
\therefore T(\lambda u+v)&=\lambda T(u)+T(v)
\end{align*}$

$\Longleftarrow )$ Sea $T$ tal que $\forall\lambda\in K$ $\forall u,v\in V$ $(T(\lambda u+v)=\lambda T(u)+T(v))$. Sean $\lambda\in K$ y $u,v\in V$.

$\begin{align*}
T(u+v)&=T(1_K u+v)\tag{}\\
&=1_KT(u)+T(v)\tag{hip}\\
&=T(u)+T(v)\tag{}\\
\therefore T(u+v)&=T(u)+T(v)
\end{align*}$

$\begin{align*}
T(\lambda u)&=T(\lambda u+\theta_V)\tag{}\\
&=\lambda T(u)+T(\theta_V)\tag{hip}\\
&=\lambda T(u)+\theta_W\tag{Obs.}\\
&=\lambda T(u)\tag{}\\
\therefore T(\lambda u)&=\lambda T(u)
\end{align*}$

$\therefore T$ es lineal

Ejemplos

  • $T:\mathbb{R}^3\longrightarrow\mathbb{R}^2$ donde $\forall (x,y,z)\in\mathbb{R}^3(T(x,y,z)=(x+y+z,2x-7y))$ es una transformación lineal de $\mathbb{R}^3$ en $\mathbb{R}^3$.

Justificación. Sean $(x,y,z),(u,v,w)\in\mathbb{R}^3$ y $\lambda\in\mathbb{R}$.

$T(\lambda(x,y,z)+(u,v,w))=T((\lambda x,\lambda y,\lambda z)+(u,v,w))$$=T(\lambda x + u,\lambda y + v,\lambda z + w)$$=(\lambda x + u+\lambda y + v+\lambda z + w,2(\lambda x + u)-7(\lambda y + v))$$=(\lambda(x+y+z)+u+v+w,2\lambda x-7\lambda y+2u-7v)$$=\lambda (x+y+z,2x-7y)+(u+v+w,2u-7v)$$=\lambda T(x,y,z)+T(u,v,w)$

  • Sea $K$ un campo.
    Si $A\in\mathcal{M}_{m\times n}(K)$, entonces $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$ es una transformación lineal de $K^n$ en $K^m$.

Justificación. Sean $X,Y\in K^n,\lambda\in K$.

$T(\lambda X+Y)=A(\lambda X+Y)=\lambda AX + AY=\lambda T(X)+T(Y)$.

Tarea Moral

  1. Sean $V$ y $W$ espacios vectoriales sobre un campo $F$.
    Sea $T: V \longrightarrow W$ una transformación lineal. Demuestra que para todo $v_1,v_2,…,v_n\in V$ y para todo $\lambda_1, \lambda_2,…,\lambda_n\in F$ con $n\in\mathbb{N}^{+}$ se tiene que $T(\lambda_1 v_1 + \lambda_2 v_2 + … + \lambda_n v_n) = \lambda_1 T(v_1) + \lambda_2 T(v_2) + … + \lambda_n T(v_n)$.
  2. Sup. que $T:\mathbb{R}^2 \longrightarrow \mathbb{R}^2$ es lineal y que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. Determina la regla general de $T$, es decir, para todo $(x,y)\in\mathbb{R}^2$.

Más adelante…

Veremos ahora 4 elementos de una transformación lineal.
Núcleo e imagen son dos conjuntos relevantes para dominio y codominio.
Nulidad y rango son dos números que nos revelan dimensiones… así es, veremos que núcleo e imagen son subespacios vectoriales.

Entradas relacionadas

1.11. SUMA Y SUMA DIRECTA DE SUBESPACIOS: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

La suma entre espacios vectoriales se construye con la suma de vectores, sin embargo, al ser subespacios, lo que resulta de esta operación, dónde vive y cómo se comporta es algo que que debe analizarse de forma particular.

La suma directa, una vez que aprendemos a distinguirla y manejarla, nos permite expresar a nuestro espacio vectorial en términos de suma de subespacios. De este modo es más clara la estructura que tienen todos los elementos del espacio.

SUMA DE SUBESPACIOS

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. La suma de $U$ y $W$ es $U+W=\{u+w|u\in U, w\in W\}$ (donde $+$ es la suma del espacio $V$).

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m=\{u_1+u_2+…+u_m|u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$

Propiedades

Justificación. Veamos que $U+W$ contiene a $\theta_V$ y conserva suma y producto por escalar.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$.
Así, $\theta_V =\theta_V+\theta_V\in U+W$
$\therefore \theta_V\in U+W$

Como $U,W\subseteq V$, entonces $u_1,u_2,w_1,w_2\in V$. Así que $\lambda (u_2+w_2)=\lambda u_2 + \lambda_2 w_2$
Y como $U,W\leqslant V$, entonces tanto $U$ como $W$ conservan suma y producto por escalar. Así que $(u_1+w_1)+(\lambda u_2 + \lambda w_2) \in U+W$
Por lo cual, $(u_1+w_1)+\lambda(u_2+w_2)=(u_1+w_1)+(\lambda u_2 + \lambda w_2) \in U+W$
$\therefore (u_1+w_1)+\lambda(u_2+w_2)\in U+W$

Justificación. Recordando que $\theta_V\in U,W$ (porque $U,V\leqslant V$) tenemos que $\forall u\in U(u=u+\theta_V\in U+W)$ y $\forall w\in W(w=\theta_V+w\in U+W)$

Justificación. Sea $\tilde{V}\leqslant V$ tal que $U,W\subseteq \tilde{V}$
Sea $u+w\in U+W$.
Entonces $u\in U\subseteq \tilde{V}$ y $w\in W\subseteq \tilde{V}$.
De donde $u,w\in\tilde{V}$ y como $\tilde{V}\leqslant V$, entonces $\tilde{V}$ es cerrada bajo suma. Así, $u+w\in\tilde{V}$.
$\therefore U+W\in\tilde{V}$

Teorema: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Demostración: Sea $\beta=\{v_1,v_2,…,v_m\}$ una base de $U\cap W$.
Podemos completar a una base de $U$ y a una base de $W$.

Sea $A=\{v_1,v_2,…,v_m,u_1,u_2,…,u_r\}$ una base de $U$.
Sea $\Gamma =\{v_1,v_2,…,v_m,w_1,w_2,…,w_s\}$ una base de $W$.

Entonces, $dim_KA=m+r$ y $dim_K\Gamma =m+s$.

Veamos que $\Delta =A\cup\Gamma =\{v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s\}$ es base de $U+W$.

Tenemos que $A$ es base de $U$, por lo que $A\subseteq U$.
Tenemos que $\Gamma$ es base de $W$, por lo que $\Delta\subseteq W$.
Así, $\Delta =A\cup\Gamma \subseteq U\cup W$. Y como $U,W\subseteq U+W$, entonces $U\cup W\subseteq U+W$
Tenemos que $\Delta\subseteq U+W$ y sabemos que $U+W\leqslant V$, así que $\langle\Delta\rangle\subseteq U+W$

Ahora bien, sea $u+w\in U+W$.
Entonces $u\in U=\langle A\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$ y $w\in W=\langle\Gamma\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$.
De donde $u,w\in\langle\Delta\rangle$ y como $\langle\Delta\rangle\leqslant V$, entonces $u+w\in\langle\Delta\rangle$
Por lo tanto, $U+W\subseteq\langle\Delta\rangle$

$\therefore\langle\Delta\rangle =U+W$

Sean $\kappa_1,\kappa_2,…,\kappa_m,\lambda_1,\lambda_2,…,\lambda_r,\mu_1,\mu_2,…,\mu_s\in K$ tales que:
$\sum_{i=1}^m(\kappa_iv_i) +\sum_{i=1}^r(\lambda_iu_i) +\sum_{i=1}^s(\mu_iw_i)=\theta_V$ $…(1)$

Como $W\leqslant V$, entonces $\sum_{i=1}^s(\mu_iw_i)\in W$ $…(2)$
Como $U=\langle A\rangle$, entonces $-\sum_{i=1}^m(\kappa_iv_i)-\sum_{i=1}^r(\lambda_iu_i)\in U$ $…(3)$

De $(1)$ tenemos que $\sum_{i=1}^s(\mu_iw_i)=-\sum_{i=1}^m(\kappa_iv_i)-\sum_{i=1}^r(\lambda_iu_i)$ y por $(2)$ y $(3)$ concluímos que $\sum_{i=1}^s(\mu_iw_i)\in U,W$.

Así, $\sum_{i=1}^s(\mu_iw_i)\in U\cap W=\langle\beta\rangle$ y por tanto existen $\gamma_1,\gamma_2,…,\gamma_m\in K$ tales que $\sum_{i=1}^s(\mu_iw_i)=\sum_{i=1}^m(\gamma_iv_i)$ $…(4)$

De $(4)$ tenemos que $\sum_{i=1}^s(\mu_iw_i)-\sum_{i=1}^m(\gamma_iv_i)=\theta_V$, y como $\Gamma$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,s\}(\mu_i=0_K)$ y $\forall i\in\{1,2,…,m\}(-\gamma_i=0_K)$. Por lo tanto, $\sum_{i=1}^s(\mu_iw_i)=\theta_V$ $…(5)$

De $(1)$ y $(5)$ tenemos que $\sum_{i=1}^m(\kappa_iv_i) +\sum_{i=1}^r(\lambda_iu_i) +\theta_V=\sum_{i=1}^m(\kappa_iv_i) +\sum_{i=1}^r(\lambda_iu_i) +\sum_{i=1}^s(\mu_iw_i)=\theta_V$. De donde $\sum_{i=1}^m(\kappa_iv_i) +\sum_{i=1}^r(\lambda_iu_i)=\theta_V$, y como $A$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,m\}(\kappa_i=0_K)$ y $\forall i\in\{1,2,…,r\}(-\lambda_i=0_K)$ $…(6)$

De $(5)$ y $(6)$ tenemos que $\kappa_1,=\kappa_2=…=\kappa_m=\lambda_1=\lambda_2=…=\lambda_r=\mu_1=\mu_2=…=\mu_s=0_K$

$\therefore\Delta$ es l.i.

Por lo tanto $\Delta$ es base de $U+W$.

Como $A$ es base de $U$, ent. $dim_KU=m+r$
Como $\Gamma$ es base de $W$, ent. $dim_KW=m+s$
Como $\beta$ es base de $U\cap W$, ent. $dim_K(U\cap W)=m$
Como $\Delta$ es base de $U+W$, ent. $dim_K(U+W)=m+r+s=(m+r)+(m+s)-m$

Por lo tanto $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Ejemplos

Justificación. Es claro que $U_1,U_2,U_3\leqslant V$. Veamos el resultado de cada suma entre estos subespacios.
$U_1+U_2=\{(x,0)+(0,y)|x,y\in\mathbb{R}\}=\{(x,y)|x,y\in\mathbb{R}\}=V$
$U_2+U_3=\{(0,y)+(a,a)|y,a\in\mathbb{R}\}=\{(a,a+y)|a,y\in\mathbb{R}\}=\{(a,b)|a,b\in\mathbb{R}\}=V$
$U_3+U_1=\{(a,a)+(x,0)|a,x\in\mathbb{R}\}=\{(a+x,a)|a,x\in\mathbb{R}\}=\{(b,a)|b,a\in\mathbb{R}\}=V$

Sabemos que $dim_KV=2$
Como $\{(1,0)\}$ es base de $U_1$, entonces $dim_KU_1=1$
Como $\{(0,1)\}$ es base de $U_2$, entonces $dim_KU_2=1$
Así, $2=dim_KV=dim_K(U_1+U_2)=dim_KU_1+dim_KU_2-dim_K(U_1\cap U_2)$$=1+1-dim_K(U_1\cap U_2)=2-dim_K(U_1\cap U_2)$, de donde $0=dim_K(U_1\cap U_2)=dim_K\{(0,0)\}$

Justificación. Sabemos que $dim_KV=3$
Veamos que $dim_K(U+W)=3$

Como $\{(1,0,0),(0,1,0)\}$ es base de $U$, entonces $dim_KU=2$
Como $\{(0,1,0),(0,0,1)\}$ es base de $W$, entonces $dim_KW=2$
Como $\{(0,1,0)\}$ es base de $U\cap W$, entonces $dim_K(U\cap W)=1$
Así, $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$$=2+2-dim_K(U\cap W)=4-1=3$, de donde $dim_K(U+W)=3=dim_KV$

$\therefore U+W=V$.

SUMA DIRECTA

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. Decimos que $U+W$ es una suma directa si cada $v\in U+W$ se escribe como $v=u+w$ (con $u\in U,w\in W$) de forma única. En ese caso, escribiremos a $U+W$ como $U\oplus W$.

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m$ es suma directa si cada $v\in U_1+U_2+…+U_m$ se escribe como $v=u_1+u_2+…+u_m$ (con $u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$) de forma única y se denotaría como $U_1\oplus U_2\oplus …\oplus U_m$.

Ejemplo

Justificación. Es claro que $U,W\leqslant V$.
Sea $(a,b)\in\mathbb{R}^2$.
Entonces $a,b\in\mathbb{R}$.

Como $(a,b)=\left( \frac{a+b}{2}+\frac{a-b}{2} ,\frac{a+b}{2}-\frac{a-b}{2}\right)=\left( \frac{a+b}{2} ,\frac{a+b}{2}\right)+\left( \frac{a-b}{2} ,-\frac{a-b}{2}\right)\in U+W$
De donde $\mathbb{R}^2\subseteq U+W$.

Veamos que si $u\in U, w\in W$ son tales que $(a,b)=u+w$, entonces $u,w$ son únicos.

Sean $u\in U, w\in W$ son tales que $(a,b)=u+w$.
Entonces $u=(x,x)$ con $x\in\mathbb{R}$ y $w=(y,-y)$ con $y\in\mathbb{R}$, donde $(a,b)=(x,x)+(y,-y)=(x+y,x-y)$

Entonces $a=x+y$ y $b=x-y$. De donde $x=a-y$ y $b=(a-y)-y=a-2y$.
Así, como $a,b$ son reales arbitrarios pero fijos y $b=a-2y$, entonces $y$ es única.
Así, como $a,y$ son fijos y $x=a-y$, entonces $x$ es única.

Como $u=(x,x)$ y $w=(y,-y)$ con $x$ y $y$ únicos, entonces $u$ y $w$ son únicos.

$\therefore U+W$ es suma directa.

Sabemos que $U+W\subseteq V$ y demostramos que $V\subseteq U+W$
$\therefore U\oplus W=V$

Proposición: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $U+W$ es suma directa si y sólo si $U\cap W=\{\theta_V\}$

Demostración: Veamos ambas implicaciones.

$\Rightarrow )$ Sup. que $U+W$ es suma directa.

Como $U,W\leqslant$, entonces $\theta_V\in U,W$. Por lo que $\{\theta_V\}\subseteq U\cap W$.

Sea $v\in U\cap W\setminus U\oplus W$.
Sabemos que $\theta_V+v,v+\theta_V\in U\oplus W$ y son formas de escribir a $v$.
Como $U+W$ es suma directa, entonces la forma de escribir a $v$ debe ser única.
Por lo tanto, $v=\theta_V$

$\therefore U\cap W=\{\theta_V\}$

$\Leftarrow )$ Sup. que $U\cap W=\theta_V$

Sea $v\in U+W$ tal que $u_1+w_1=v=u_2+w_2$ con $u_1,u_2\in U$ y $w_1,w_2\in W$

Como $U,W\leqslant V$, entonces $u_1-u_2\in U$ y $w_2-w_1\in W$.
Como $u_1+w_1=u_2+w_2$, entonces $u_1-u_2=w_2-w_1$.
Por lo tanto, $u_1-u_2,w_2-w_1\in U\cap W=\{\theta_V\}$

Así, $u_1-u_2=\theta_V\leftarrow u_1=u_2$ y $w_2-w_1=\theta_V\leftarrow w_2=w_1$.
Es decir, cada elementos en $U+W$ se escribe de forma única.

$\therefore U+W$ es suma directa.

Tarea Moral

Más adelante…

A partir de la siguiente entrada, analizaremos un tipo de funciones muy especial y útil que va de espacios vectoriales a espacios vectoriales y aunque la definición solo le pide abrir dos operaciones, esto implica muchas propiedades que vuelven a este tipo de función el eje central del Álgebra Lineal.

Entradas relacionadas

1.10. BASE DE ESPACIOS VECTORIALES: obtención a partir de un conjunto linealmente independiente o generador

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

De cualquier subconjunto finito de nuestro espacio, podemos obtener un generador o un l.i. y cuando lo obtengamos, bastará con centrarnos en la cardinalidad para reducir, o bien, completar, y obtener una base.

Teorema: Sea $V$ un $K$ – espacio vectorial de dimensión finita.
a) Todo conjunto generador finito se puede reducir a una base.
b) Todo conjunto linealmente independiente se puede completar a una base.

Demostración:

a) En la demostración de la proposición que se encuentra en la entrada anterior tomamos un conjunto generador finito $S$ de un espacio vectorial arbitrario y recursivamente tomamos subconjuntos propios de $S$ hasta que uno de esos subconjuntos fuera base. Usando el mismo método, reducimos cualquier conjunto generador de $V$ para obtener una base.

b) Sea $S\subseteq V$ un conjunto l.i.
Ya sabemos que $S$ es finito por ser un subconjunto l.i. de $V$ de dimensión finita (observación en la entrada anterior).

Caso 1. Si $\langle S \rangle = V$, entonces $S$ es base de $V$ por definición.

Caso 2. Si $\langle S \rangle \subsetneq V$, entonces existe $v_1\in V$ tal que $v_1\notin \langle S \rangle$. Por lo tanto, $\langle S \rangle \cup \{ v_1 \}$ es l.i.

Subaso 1. Si $\langle \langle S \rangle \cup \{ v_1 \} \rangle = V$, entonces $S$ es base de $V$ por deifinición.

Subcaso 2. Si $\langle \langle S \rangle \cup \{ v_1 \} \rangle \subseteq V$, entonces existe $v_2\in V$ tal que $v_2\notin \langle \langle S \rangle \cup \{ v_1 \} \rangle$ Por lo tanto, $\langle \langle S \rangle \cup \{ v_1 \} \cup \{ v_2 \} \rangle$ es l.i.

Este proceso no es infinito porque los suconjuntos l.i de $V$ deben ser finitos.

Sea $m$ el número de elementos de $V$ que tuvimos que «aumentar» a $\langle S \rangle$ en los subcasos del caso 2, entonces $\langle \langle S \rangle \cup \{ v_1 \} \cup \{ v_2 \} \cup … \{ v_m \} \rangle$ es base de $V$.

Corolario: Sea $V$ un $K$ – espacio vectorial tal que $dim_K(V)=n$.
a) Cualquier conjunto generador con $n$ elementos es una base de $V$.
b) Cualquier conjunto linealmente independiente con $n$ elementos es una base de $V$.

Demostración: Por definición de base tenemos que toda base $B$ de $V$ cumple que $|B|=dim_K(V)=n$. Es decir, toda base de $V$ tiene $n$ elementos.

a) Sea $S\subseteq V$ generador con $n$ elementos.
Por el teorema anterior podemos reducir $S$ a una base.
Pero reducir $S$ a un conjunto de $n$ elementos implica que se conserva íntegro.
Por lo tanto $S$ es base.

b) Sea $S\subseteq V$ linealmente independiente.
Por el teorema anterior podemos completarlo a una base.
Pero completar $S$ a un conjunto de $n$ elementos implica que se conserva íntegro.
Por lo tanto $S$ es base.

Ejemplo

Sea $K=\mathbb{R}, V=\mathcal{M}_{2\times 2}(\mathbb{R})$.
Sea $W=\left\langle \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} , \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} \right\rangle$

Por construcción, $W$ es el subespacio generado por $X=\left\{\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\}$
Encontremos un subconjunto de $X$ que sea base de $W$.

Observemos que $\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}-\begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $X$ es l.d. y como $\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}$, entonces $W=\langle X\rangle = \left\langle \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\rangle$

Veamos que $B=\left\{\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\}$ es l.i.

Sean $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$ tales que $\lambda_1\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}+\lambda_2\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\lambda_3\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

De donde $\begin{pmatrix} \lambda_1 & \lambda_1+\lambda_2 \\ \lambda_3 & \lambda_2+\lambda_3 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $\lambda_1, \lambda_1+\lambda_2, \lambda_3, \lambda_2+\lambda_3=0$.
Por lo tanto, $\lambda_1=\lambda_2=\lambda_3=0$.

Como $\langle B\rangle=W$ y $B$ es l.i., entonces $B$ es base y obtenemos que $dim_\mathbb{R}W=|B|=3$

Teorema: Sean $V$ un $K$ – espacio vectorial de dimensión finita y $W$ un subespacio de $V$. Entonces se cumple lo siguiente:

a) $W$ es de dimensión finita
b) Toda base de $W$ se puede completar a una base de $V$
c) $dim_KW\leq dim_KV$
d) Si $dim_KW=dim_KV$, entonces $W=V$

Demostración: Analicemos cada inciso por separado:

a) Sup. por reducción al absurdo que $W$ no es de dimensión finita.
Entonces existe $B$ base de $W$ de cardinalidad infinita.
Así, $B$ es un subconjunto de $V$ que es l.i.
Por el teorema anterior tenemos que podemos completar a $B$ para obtener una base de $V$, lo cual es una contradicción, pues existiría un abse de $V$ de cardinalidad infinita (pero por hipótesis, $V$ es de cardinalidad finita).
Por lo tanto, $W$ es de dimensión finita.

b) Sea $B$ una base de $W$.
Entonces $B$ es un subconjunto l.i. en $V$ y por el teorema anterior podemos completar $B$ a una base de $V$.

c) Sea $B$ una base de $W$.
Por el inciso anterior tenemos que podemos completar $B$ para obtener una base de $V$, es decir, $B\cup A$ es base de $V$ con $A\subseteq V$
Si $B\cup A=B$, entonces $dim_KW=|B|=dim_KV$.
Si $B\cup A\not= B$, $dim_KW=|B|\lneq|B\cup A|=dim_KV$
Por lo tanto, $dim_KW\leq\dim_KV$

d) Sup. $dim_KW=\dim_KV=n$
Sea $B$ una base de $W$.
Entonces $B$ es un l.i. en $V$ con $n$ elementos.
Por el corolario anterior tenemos que $B$ es base de $V$.
De donde $B$ es base de $V$.
Y así, $W=\langle B\rangle =V$.
Por lo tanto, $W=V$

Tarea Moral

Más adelante…

Veremos un nuevo concepto: Suma y suma directa de subespacios vectoriales.
¿Qué es? ¿Qué estructura tiene? ¿Dónde vive? ¿Qué relación tiene la suma de dos subespacios con sus uniones?

Entradas relacionadas

1.9. BASE, DIMENSIÓN Y ESPACIO DE DIMENSIÓN (IN)FINITA: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

Si tenemos un espacio vectorial $V$ sabemos que suceden dos cosas en los subconjuntos:
1) De todo subconjunto linealmente dependiente (distinto de $\{\theta_V\}$ y $\emptyset$) podemos encontrar un subconjunto propio linealmente dependiente
2) A todo subconjunto de $V$ podemos «aumentarle» elementos de $V$ hasta crear un conjunto generador de $V$.

Para conseguir un conjunto l.i. necesitamos hacer el original «más pequeño» y para conseguir un generador necesitamos hacer el original «más grande».

La cardinalidad de un conjunto que cumpla ambas características se vuelve relevante.
Estudiaremos a continuación un conjunto lo «suficientemente grande» para generar al espacio y lo «suficientemente pequeño» para seguir siendo linealmente independiente.

BASE DE UN ESPACIO VECTORIAL

Definición: Sean $V$ un $K$ – espacio vectorial, $B\subseteq V$. Decimos que $B$ es una base de $V$ si genera a $V$ y es linealmente independiente. Además, decimos que $V$ es de dimensión finita si tiene una base finita.

Ejemplos

  • Sea $K$ un campo.
    La lista de $n$-adas $e_1=(1_K,0_K,0_K,0_K,…,0_K,0_K), e_2=(0_K,1_K,0_K,0_K,…,0_K,0_K),$ $…,e_n=(0_K,0_K,0_K,0_K,…,0_K,1_K)$ es l.i.
    Más aún, $\{ e_1,e_2,…,e_n\}$ es una base de $K^n$.

Justificación. Como $B =\{e_1,e_2,…,e_n\}$ es l.i., sólo falta ver que $\langle B\rangle =K^n$.
Sabemos que $K^n$ es un espacio vectorial y cada $e_i\in K^n$, entonces $\langle B\rangle\subseteq K^n$.
Ahora bien, sea $(x_1,x_2,…,x_n)\in K^n$.
Es claro que $(x_1,x_2,…,x_n)=x_1e_1+x_2e_2+…+x_ne_n\in\langle B\rangle$.
De donde $K^n\subseteq\langle B\rangle$.
$\therefore\langle B\rangle =K^n.$

  • Sea $W=\{(x,y,z)\in\mathbb{R}^3|x-y+2z=0\}$ que es un subespacio de $\mathbb{R}^3$.
    Tenemos que $1-1+2(0)=0$ y $-2-0+2(1)=0$, entonces $(1,1,0),(-2,0,1)\in W$.
    Resulta que $\{(1,1,0),(-2,0,1)\}$ es una base de $W$.

Justificación. Primero veamos que $B =\{(1,1,0),(-2,0,1)\}$ es l.i.
Sean $\lambda_1,\lambda_2\in\mathbb{R}$ tales que $\lambda_1(1,1,0)+\lambda_2(-2,0,1)=(0,0,0)$.
Entonces, $(\lambda_1-2\lambda_2,\lambda_1,\lambda_2)=(0,0,0)$.
Inmediatamente se concluye de lo anterior que $\lambda_1=\lambda_2=0$.
$\therefore B$ es l.i.
Como $W$ es un subespacio, entonces $\langle B\rangle\subseteq K^n$.
Ahora bien, sea $(x,y,z)\in W$.
Por definición de $W$ tenemos que $x=y-2z$, y en consecuencia $(x,y,z)=(y-2z,y,z)$.
Es claro que $(x,y,z)=(y-2z,y,z)=y(1,1,0)+z(-2,0,1)\in\langle B\rangle$.
Así, $W\subseteq\langle B\rangle$.
$\therefore\langle B\rangle.$

Proposición: Sea $V$ un $K$ – espacio vectorial. Si $V$ tiene un conjunto generador finito, entonces $V$ tiene una base finita.

Demostración: Sea $S=\{v_1,v_2,…,v_n\}$ un conjunto generador finito de $V$.

Caso 1. $S$ es l.i.
Entonces $S$ es una base finita de $V$.

Caso 2. $S$ es l.d.
Por el lema de dependencia lineal existe $v_{j_1}\in S$ tal que $\langle S\setminus\{v_{j_1}\}\rangle =\langle S\rangle $. Así, podemos definir el siguiente conjunto:
$S_1=S\setminus\{v_{j_1}\}$ donde $j_1\in\{1,2,…,n\}$ y $\langle S\setminus\{v_{j_1}\}\rangle =\langle S\rangle =V.$
Si $S_1$ es l.i., entonces $S_1$ es una base finita de $V$.
Si $S_1$ es l.d., entonces repetimos el proceso. Observemos que de esta forma vamos encontrando $S_1, S_2, \dots$ subconjuntos de $S$ con $n-1,n-2,\dots$ elementos respectivamente, tales que $\langle S_i \rangle =\langle S\rangle =V$ para toda $i=1,2,\dots$. Este proceso es finito ya que $S$ lo es, y termina después de a lo más $n$ pasos. El proceso termina en el momento en que encontramos un $S_t$ con $t\in\{1,\dots ,n\}$ subconjunto de $S$ tal que $S_t$ es l.i., y por la forma en que se construyeron los subconjuntos de $S$ en este proceso se tiene además que $\langle S_t \rangle =\langle S\rangle =V$.
Tenemos entonces que $S_t$ es una base finita de $V$.

Corolario: Sea $V$ un $K$ – espacio vectorial. $V$ tiene un conjunto generador finito si y sólo si $V$ es de dimensión finita.

Demostración: $\Rightarrow )$ Se cumple por el teorema anterior y la definición de espacio vectorial de dimensión finita.

$\Leftarrow )$ Por definición de espacio vectorial de dimensión finita, existe una base finita, es decir, un conjunto l.i. generador de cardinalidad finita, en particular esta base es un conjunto generador finito.

Obs. Si un $V$ espacio vectorial es de dimensión finita, entonces todo conjunto l.i. es finito.

Teorema: Sea $V$ un $K$ – espacio vectorial de dimensión finita. Todas las bases de $V$ son finitas y tienen el mismo número de elementos.

Demostración: Por la observación previa tenemos que todas las bases de $V$ son finitas, pues en particular son conjuntos l.i. Veamos que todas tienen la misma cardinalidad.

Sean $B_1$ y $B_2$ bases de $V$, que son finitas por lo antes mencionado.

Por definición de bases tenemos:
a) $B_1$ es l.i., b) $B_1$ es generador de $V$, c) $B_2$ es l.i., d) $B_2$ es generador de $V$.

Recordando la relación entre conjuntos linealmente independientes y conjuntos generadores tenemos que:
a) y d) implican que $|B_1|\leq |B_2|$,
b) y c) implican que $|B_2|\leq |B_1|$.
$\therefore |B_1|=|B_2|.$

A lo largo de esta entrada hemos logrado concluir que, si bien las bases no son únicas, su cardinalidad (en el caso de las finitas) sí es única.

DIMENSIÓN DE UN ESPACIO VECTORIAL

Definición: Sea $V$ un $K$ – espacio vectorial de dimensión finita. Decimos que la dimensión de $V$ es la cardinalidad de cualquiera de sus bases. Se denota como $dim_K (V)$.

Ejemplos

  • Sea $V=\langle 2-x+5x^2,3-2x^2,7-2x+8x^2\rangle\leq\mathcal{P}_2[\mathbb{R}]$.
    Así, $dim_{\mathbb{R}}(V)=2$.

Justificación. Primero describamos los elementos de $V$ como combinaciones lineales.
Sea $a+bx+cx^2 \in V$. Entonces existen $\lambda,\mu,\nu\in\mathbb{R}$ tales que $\lambda (2-x+5x^2) + \mu (3-2x^2) + \nu (7-2x+8x^2)=a+bx+cx^2$
Entonces $(2\lambda + 3\mu +7\nu) + (-\lambda – 2\nu)x + (5\lambda – 2\mu + 8\nu)x^2=a+bx+cx^2$. Por lo tanto:
$2\lambda + 3\mu +7\nu=a$,
$-\lambda – 2\nu=b$,
$5\lambda – 2\mu + 8\nu=c$.

Tenemos entonces:

$\left( \begin{array}{rrr|r} 2 & 3 & 7 & a \\ -1 & 0 & -2 & b\\
5 & -2 & 8 & c \end{array} \right)$$~\left( \begin{array}{rrr|r} -1 & 0 & -2 & b \\ 0 & 3 & 3 & a+2b\\ 0 & -2 & -2 & c+5b \end{array} \right)$$~\left( \begin{array}{rrr|r} -1 & 0 & -2 & b \\ 0 & 1 & 1 & \frac{1}{3}(a+2b)\\ 0 & 1 & 1 & -\frac{1}{2}(c+5b) \end{array} \right)$$~\left( \begin{array}{rrr|r} -1 & 0 & -2 & b \\ 0 & 1 & 1 & \frac{1}{3}(a+2b)\\ 0 & 0 & 0 & -\frac{1}{2}(c+5b) -\frac{1}{3}(a+2b) \end{array} \right)$

Así, $0=-\frac{1}{2}(c+5b) -\frac{1}{3}(a+2b)$.
Y esto ocurre si y sólo si $0=a+19b+c$.
Por lo tanto, $a=-19b-c$.

$W=\{ a+bx+cx^2 \in \mathcal{P}_2(\mathbb{R})| a=-19b-c \}$$=\{ (-19b-c)+bx+cx^2\in \mathcal{P}_2(\mathbb{R})| b,c\in\mathbb{R} \}$$=\{ b(-19+x)+c(-1+x^2)|b,c\in\mathbb{R} \}$$=\langle -19+x,-1+x^2 \rangle$.

Como $\{ -19+x,-1+x^2 \}$ es linealmente independiente y claramente genera a $W$, entonces es una base de $W$. Por lo tanto, $dim_{\mathbb{R}}(W)=2$.

Tarea Moral

Más adelante…

Partiendo de cualquier espacio vectorial de dimensión finita $V$, veremos cómo obtener bases. Además analizaremos qué relación hay entre: a) la dimensión de $V$ y las dimensiones de sus subespacios y b) la base de $V$ y las bases de sus subespacios.

Entradas relacionadas

1.8. CONJUNTOS LINEALMENTE (IN)DEPENDIENTES Y CONJUNTOS GENERADORES: relación entre sí

Por Jennyfer Paulina Bennetts Castillo

Lema (Dependencia lineal): Sean $V$ un $K$ – espacio vectorial y $v_1,v_2,…,v_m$ una lista de vectores en $V$. Si $v_1,v_2,…,v_m$ es una lista l.d. y $v_1\not=\theta_V$, entonces existe $j\in\{2,3,…,m\}$ tal que
a) $v_j\in\langle\{v_1,v_2,…,v_{j-1}\}\rangle$ y
b) $\langle\{v_1,v_2,…,\widehat{v_j},…,v_m\}\rangle =\langle\{v_1,v_2,…,v_m\}\rangle$

Nota: $\langle\{v_1,v_2,…,v_{j-1},v_{j+1},…,v_m\}\rangle$ lo denotamos por $\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle$

Demostración: Sean $V$ un $K$ – espacio vectorial y $v_1,v_2,…,v_m$ una lista l.d. con $v_1\not=\theta_V$.

(*) Como la lista es l.d., entonces existen $\lambda_1,\lambda_2,…,\lambda_m\in K$ no todos nulos tales que $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$.

a) De (*) observemos que por no ser todos nulos, tenemos dos casos:

Caso 1. Únicamente $\lambda_1\not=0_K$.
Así, $\theta_V=\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m$$=\lambda_1v_1+0_Kv_2+…+0_Kv_m$$=\lambda_1v_1+\theta_V+…+\theta_V=\lambda_1v_1$.
De donde, $\lambda_1v_1=\theta_V$ con $\lambda_1\not=0_K$ y $v_1\not=\theta_V$.
Por lo tanto, este caso no es posible.

Caso 2. Existe al menos un $\lambda_j\not=0_K$ con $j\in\{2,3,…,m\}$.
Consideremos $j=m\acute{a}x\{i\in\{2,3,…,m\}|\lambda_i\not=0_K\}$
Entonces $\lambda_{j+1}v_{j+1}+…+\lambda_mv_m=0_Kv_{j+1}+…+0_Kv_m$$=\theta_V+…+\theta_V=\theta_V$ y además, existe el inverso multiplicativo de $\lambda_j.$
De lo anterior tenemos que $\theta_V=\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m$$=\lambda_1v_1+\lambda_2v_2+…+\lambda_jv_j+\theta_V$$=\lambda_1v_1\lambda_2v_2+…+\lambda_jv_j.$
Así, $\lambda_1v_1+…+\lambda_jv_j=\theta_V$, por lo cual $\lambda_jv_j=-\lambda_1v_1-\lambda_2v_2…-\lambda_{j-1}v_{j-1},$
entonces

$\begin{array}{ll}v_j&=\lambda_j^{-1}(-\lambda_1v_1-\lambda_2v_2…-\lambda_{j-1}v_{j-1})\\&=(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+…+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}\in\langle v_1,v_2,…,v_{j-1}\rangle\end{array}$

$\therefore v_j\in\langle v_1,v_2,…,v_{j-1}\rangle$

b) Veamos que se cumplen las dos contenciones entre los subconjuntos deseados, contemplando que la $j$ para este inciso debe ser la misma que en el inciso anterior.

En primer lugar:
Tenemos que $\{v_1,v_2,…,\widehat{v_j},…,v_m\}\subseteq \{v_1,v_2,…,v_j,…,v_m\}\subseteq\langle v_1,v_2,…,v_j,…,v_m\rangle$ y este último subconjunto es un subespacio de $V$.
Además, sabemos que si $S\subseteq W\subseteq V$ con $W$ un subespacio vectorial, entonces $\langle S\rangle\subseteq W$.
$\therefore\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle\subseteq\langle v_1,v_2,…,v_j,…,v_m\rangle$.

En segundo lugar:
Si $w\in\langle v_1,v_2,…v_j,…,v_m\rangle$, entonces existen $\mu_1,\mu_2,…,\mu_j,…,\mu_m\in K$ tales que $w=\mu_1v_1+\mu_2v_2+…+\mu_jv_j+…+\mu_mv_m$.
Sabemos que $v_j=(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+…+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}$.
De donde,

\begin{array}{ll}w&=\mu_1v_1+\mu_2v_2+…+\mu_{j-1}v_{j-1}+\\ &\mu_j[(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+…+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}]+\\ &\mu_{j+1}v_{j+1}…+\mu_mv_m\\ &=(\mu_1-\mu_j\lambda_j^{-1}\lambda_1)v_1+(\mu_2-\mu_j\lambda_j^{-1}\lambda_2)v_2+\\ &…+(\mu_{j-1}-\mu_j\lambda_j^{-1}\lambda_{j-1})v_{j-1}+\mu_{j+1}v_{j+1}+…+\mu_mv_m\\ &\in\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle\end{array}
Así, $w\in\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle$.
$\therefore \langle v_1,v_2,…,v_j,…,v_m\rangle\subseteq\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle .$

Teorema: Sea $V$ un $K$ – espacio vectorial. Si $v_1,v_2,…,v_m$ es una lista l.i. de vectores en $V$ con $m\in\mathbb{N}$, entonces todo conjunto generador de $V$ tiene al menos $m$ elementos.

Demostración: Sea $V$ un $K$ – espacio vectorial.
Sea $v_1,v_2,…,v_m$ es una lista l.i. de vectores en $V$, llamémosle $L$ a esta lista.
Sea $S$ tal que $\langle S\rangle = V$.

Caso 1. $S$ es infinito.
Entonces $S$ tiene más de $m$ elementos.

Caso 2. $S$ es finito.
Digamos que $S=\{w_1,w_2,…,w_k\}$ y probemos que $m\leq k$.

Observemos que como $L$ es una lista l.i. de vectores en $V$, entonces para cada $i\in\{1,2,…,m\}$ tenemos que $v_i\not=\theta_V$.

(1) Como $ v_1\in V=\langle S\rangle$, entonces $v_1,w_1,w_2,…,w_k$ es una lista l.d.
Dado que $v_1\not= \theta_V$, por el lema podemos concluir que existe $j_1\in\{1,2,…,k\}$ tal que $\langle \{v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle =\langle v_1,w_1,w_2,…,w_k\rangle =V.$

(2) Como $ v_2\in V=\langle \{v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle$, entonces $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$ es una lista l.d.
Dado que con $v_2\not= \theta_V$, por el lema podemos concluir que algún vector $v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$ es combinación lineal de los vectores que le anteceden en la lista $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$, pero sabemos que $L$ es l.i., por lo que $v_2$ no puede ser combinación lineal de $v_1$. Así, existe algún vector $w_1,w_2,…,\widehat{w_{j_1}},…,w_k$, digamos $w_{j_2}$ con $j_2\in\{1,2,…,k\}\setminus\{j_1\}$, que es combinación lineal de los vectores que le anteceden en la lista $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_{j_k}$, y tal que $\langle \{v_2,v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1},w_{j_2}\}\rangle$$=\langle \{v_2,v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle =V.$

Continuando de este modo, en cada paso quitamos un vector $w_{j_t}$ del conjunto generador, y lo sustituimos por $v_t$, obteniendo de esta manera un nuevo conjunto generador. Observemos entonces que después de $t$ pasos hemos quitado $t$ vectores de $S$, y los hemos sustituido por $v_t,\dots ,v_2,v_1$.

Veamos que $k\geq m$. Supongamos por reducción al absurdo que $k< m$.

Continuando con el proceso anterior, después de $k$ pasos hemos quitado $k$ vectores de $S$, $w_{j_1},w_{j_2},…,w_{j_k}$ que de hecho son precisamente $w_1,w_2,…,w_k$ sólo que quizás en otro orden, y los hemos sustituido por $v_k,\dots ,v_2,v_1$. Tenemos además que:
$V=\langle \{v_{k-1},v_{k-2},…,v_2,v_1,w_1,w_2,…,w_k\}-\{w_{j_1},w_{j_2},…,w_{j_k}\}\rangle$$=\langle \{v_{k-1},v_{k-2},…,v_2,v_1\}\rangle$
Pero si $V=\langle \{v_{k-1},…,v_2,v_1\}\rangle$, entonces $v_k\in \langle \{v_{k-1},…,v_2,v_1\}\rangle$ y por lo tanto, $v_1,v_2,…,v_k$ es l.d.
Entonces $v_1,v_2,…,v_m$ es l.d., lo cual contradice nuestra hipótesis.

Por lo tanto, $m\leq k$.

Corolario: Sea $V$ un $K$-espacio vectorial. Si existe $S$ un subconjunto finito de $V$ generador con $k$ elementos, entonces todo conjunto linealmente independiente es finito y tiene a lo más $k$ elementos.
En consecuencia, no existen conjuntos infinitos l.i. en $V$.

Demostración: Sea $V$ un $K$ – espacio vectorial.
Sea $S\subseteq V$ finito con $k$ elementos tal que $\langle S\rangle =V$.
Sea $T\subseteq V$ un subconjunto l.i. Supongamos por reducción al absurdo que $T$ es infinito, consideremos entonces $\hat{T}$ un subconjunto de $T$ con $k+1$ elementos. Tenemos que $\hat{T}$ es un conjunto l.i. con $k+1$ elementos, y $S$ es un conjunto generador con $k$ elementos, lo que contradice el teorema anterior. Concluimos entonces que $T$ debe ser finito.
Nuevamente por el teorema anterior se cumple que $|T|\leq |S|$, y como $|S|=k$ entonces $|T|\leq k$.

Tarea Moral

  1. Demuestra que, dado $V$ un $K$ – espacio vectorial con $K$ un campo, sólo existe un subconjunto $S$ unitario linealmente dependiente y exhíbelo.
  2. Sea $S=\{v_1,v_2,…,v_m\}\subseteq V.$
    Demuestra que son equivalentes:
    • $S$ es l.d.
    • Existe $v_j\in S$ tal que $v_j\in \langle S-{v_j}\rangle$
  3. Recordando que $\{e_1,e_2,e_3\}$ genera a $\mathbb{R}^3$ y el Teorema de esta entrada sabemos que cualquier conjunto de solo $1$ o $2$ elementos, no podrá generar a $\mathbb{R}^3$.
    • Describe qué subespacio(s) de $\mathbb{R}^3$ se puede(n) generar con un $S\subseteq\mathbb{R}^3$ arbitrario si $|S|=1$.
    • Describe qué subespacio(s) de $\mathbb{R}^3$ se puede(n) generar con un $S\subseteq\mathbb{R}^3$ arbitrario si $|S|=2$.

Más adelante…

Ahora que sabemos la relación de cardinalidad que existe entre los conjuntos linealmente independientes y los conjuntos generadores, nos damos cuenta de que, dicho muy informalmente, los conjuntos generadores de un espacio vectorial $V$ tienen una cardinalidad mayor o igual a los l.i. en $V$.
Nos enfocaremos en aquellos conjuntos que son generadores del espacio vectorial $V$ al que pertenecen y linealmente independientes. Veremos algunas propiedades de sus cardinalidades.

Entradas relacionadas