Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

2.1. TRANSFORMACIÓN LINEAL: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

¿Por qué el uso de la palabra «transformación»?
Como veremos, una transformación lineal es una función que va de un espacio lineal a otro espacio lineal. Y toda función, básica e informalmente, transforma un elemento del dominio en uno del codominio.

Ahora bien, no es una función «cualquiera». Y aunque sólo son dos condiciones las que se piden, estas transformaciones de un espacio vectorial en sí mismo o en otro espacio vectorial tienen un comportamiento que permite aplicaciones muy útiles tanto en matemáticas, como en física, ingenierías e incluso arte digital. Sus propiedades gracias a esas dos condiciones hacen de este tipo de funciones sea un punto esencial del Álgebra lineal.

TRANSFORMACIÓN LINEAL

Definición: Sean $V$ y $W$ $K$ – espacios vectoriales. Una función $T:V\longrightarrow W$ es una transformación lineal de $V$ en $W$ si:
$1)$ $\forall u,v\in V(T(u+v)=T(u)+T(v))$
$2)$ $\forall \lambda\in K(\forall v\in V(T(\lambda v)=\lambda T(v)))$

Nota: Al conjunto de las transformaciones lineales de $V$ a $W$ se le denota como $\mathcal{L}(V,W)$. Cuando una función cumple la condición $1)$ diremos que abre sumas mientras que si cumple la condición $2)$ diremos que saca escalares.

Observación: Si $T$ abre sumas, entonces manda al neutro de $V$ en el neutro de $W$, pues $\theta_W+T(\theta_V)=T(\theta_V)=T(\theta_V+\theta_V)=T(\theta_V)+T(\theta_V)$$\Rightarrow\theta_W+T(\theta_V)=T(\theta_V)+T(\theta_V)\Rightarrow\theta_W=T(\theta_V).$
En otras palabras, las transformaciones lineales envían el neutro del dominio en el neutro del codominio.

Ejemplos

  • Sea $V$ un $K$ – espacio vectorial.
    $T:V\longrightarrow V$ donde $\forall v\in V(T(v)=\theta_V)$ es una transformación lineal de $V$ en $V$

Justificación. Sean $\lambda\in K$ y $u,v\in V$.

Entonces $T(u+v)=\theta_V=\theta_V+\theta_V=T(u)+T(v)$ y
$\lambda T(v)=\lambda\theta_V=\theta_V=T(\lambda v)$

  • Sea $K$ un campo. $T:K[x]\longrightarrow K[x]$ donde $\forall p(x)\in K[x](T(p(x))=p'(x))$ es una transformación lineal de $K[x]$ en $K[x]$

Justificación. Sean $\lambda\in K$ y $p(x),q(x)\in K[x]$.

Entonces $T(p(x)+q(x))=(p(x)+q(x))’=p'(x)+q'(x)=T(p(x))+T(q(x))$ y
$T(\lambda p(x))=(\lambda p(x))’=\lambda p'(x)=\lambda T(p(x))$

Proposición: Sean $V,W$ $K$ – espacios vectoriales, $T:V\longrightarrow W$.
$T$ es lineal si y sólo si $\forall\lambda\in K$ $\forall u,v\in V$ $(T(\lambda u+v)=\lambda T(u)+T(v))$

Demostración: $\Longrightarrow )$ Sean $T:V\longrightarrow W$ lineal, $\lambda\in K$, $u,v\in V$.

$\begin{align*}
T(\lambda u+v)&=T(\lambda u)+T(v)\tag{$1$}\\
&=\lambda T(u)+T(v)\tag{$2$}\\
\therefore T(\lambda u+v)&=\lambda T(u)+T(v)
\end{align*}$

$\Longleftarrow )$ Sea $T$ tal que $\forall\lambda\in K$ $\forall u,v\in V$ $(T(\lambda u+v)=\lambda T(u)+T(v))$. Sean $\lambda\in K$ y $u,v\in V$.

$\begin{align*}
T(u+v)&=T(1_K u+v)\tag{}\\
&=1_KT(u)+T(v)\tag{hip}\\
&=T(u)+T(v)\tag{}\\
\therefore T(u+v)&=T(u)+T(v)
\end{align*}$

$\begin{align*}
T(\lambda u)&=T(\lambda u+\theta_V)\tag{}\\
&=\lambda T(u)+T(\theta_V)\tag{hip}\\
&=\lambda T(u)+\theta_W\tag{Obs.}\\
&=\lambda T(u)\tag{}\\
\therefore T(\lambda u)&=\lambda T(u)
\end{align*}$

$\therefore T$ es lineal

Ejemplos

  • $T:\mathbb{R}^3\longrightarrow\mathbb{R}^2$ donde $\forall (x,y,z)\in\mathbb{R}^3(T(x,y,z)=(x+y+z,2x-7y))$ es una transformación lineal de $\mathbb{R}^3$ en $\mathbb{R}^3$.

Justificación. Sean $(x,y,z),(u,v,w)\in\mathbb{R}^3$ y $\lambda\in\mathbb{R}$.

$T(\lambda(x,y,z)+(u,v,w))=T((\lambda x,\lambda y,\lambda z)+(u,v,w))$$=T(\lambda x + u,\lambda y + v,\lambda z + w)$$=(\lambda x + u+\lambda y + v+\lambda z + w,2(\lambda x + u)-7(\lambda y + v))$$=(\lambda(x+y+z)+u+v+w,2\lambda x-7\lambda y+2u-7v)$$=\lambda (x+y+z,2x-7y)+(u+v+w,2u-7v)$$=\lambda T(x,y,z)+T(u,v,w)$

  • Sea $K$ un campo.
    Si $A\in\mathcal{M}_{m\times n}(K)$, entonces $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$ es una transformación lineal de $K^n$ en $K^m$.

Justificación. Sean $X,Y\in K^n,\lambda\in K$.

$T(\lambda X+Y)=A(\lambda X+Y)=\lambda AX + AY=\lambda T(X)+T(Y)$.

Tarea Moral

  1. Sean $V$ y $W$ espacios vectoriales sobre un campo $F$.
    Sea $T: V \longrightarrow W$ una transformación lineal. Demuestra que para todo $v_1,v_2,…,v_n\in V$ y para todo $\lambda_1, \lambda_2,…,\lambda_n\in F$ con $n\in\mathbb{N}^{+}$ se tiene que $T(\lambda_1 v_1 + \lambda_2 v_2 + … + \lambda_n v_n) = \lambda_1 T(v_1) + \lambda_2 T(v_2) + … + \lambda_n T(v_n)$.
  2. Sea $T:\mathbb{R}^2 \longrightarrow \mathbb{R}^2$ una transformación lineal tal que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. Determina si es posible hallar la regla de correspondencia de $T$, es decir, $T(x,y)$ para todo $(x,y)\in\mathbb{R}^2$. Si no es posible argumenta por qué y si es posible encuéntrala.
  3. ¿Existe una transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ tal que $T(1,2,4)=(1,2)$ y $T(-2,-4,-8)=(-2,1)$?

Más adelante…

Veremos ahora cuatro elementos que surgen de una transformación lineal:
Núcleo e imagen, que son dos conjuntos relevantes para dominio y codominio.
Nulidad y rango, que son dos números que nos revelan dimensiones. Comenzaremos por definir el núcleo y la imagen de una transformación lineal y probando que son subespacios vectoriales.

Entradas relacionadas

1.11. SUMA Y SUMA DIRECTA DE SUBESPACIOS: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

La suma entre espacios vectoriales se construye con la suma de vectores, sin embargo, al ser subespacios, lo que resulta de esta operación, dónde vive y cómo se comporta es algo que que debe analizarse de forma particular.

La suma directa, una vez que aprendemos a distinguirla y manejarla, nos permite expresar a nuestro espacio vectorial en términos de algunos de sus subespacios. De este modo es más clara la estructura que tienen todos los elementos del espacio.

SUMA DE SUBESPACIOS

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. La suma de $U$ y $W$ es $U+W=\{u+w|u\in U, w\in W\}$ (donde $+$ es la suma del espacio $V$).

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m=\{u_1+u_2+…+u_m|u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$

Propiedades

Justificación. Veamos que $U+W$ contiene a $\theta_V$ y conserva suma y producto por escalar.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$.
Así, $\theta_V =\theta_V+\theta_V\in U+W$
$\therefore \theta_V\in U+W$

Como $U,W\subseteq V$, entonces $u_1,u_2,w_1,w_2\in V$, así que $$(u_1+w_1)+\lambda (u_2+w_2)=(u_1+w_1)+(\lambda u_2 + \lambda_2 w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) $$ y como $U,W\leqslant V$, entonces tanto $U$ como $W$ conservan suma y producto por escalar así que $u_1+\lambda u_2 \in U$ y $w_1+\lambda w_2 \in W$.
Por lo cual, $(u_1+w_1)+\lambda(u_2+w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) \in U+W$
$\therefore (u_1+w_1)+\lambda(u_2+w_2)\in U+W$

Justificación. Recordando que $\theta_V\in U,W$ (porque $U,V\leqslant V$) tenemos que $\forall u\in U(u=u+\theta_V\in U+W)$ y $\forall w\in W(w=\theta_V+w\in U+W)$

Justificación. Sea $\tilde{V}\leqslant V$ tal que $U,W\subseteq \tilde{V}$
Sea $u+w\in U+W$ con $u\in U$ y $w\in W$.
Entonces $u\in U\subseteq \tilde{V}$ y $w\in W\subseteq \tilde{V}$.
De donde $u,w\in\tilde{V}$ y como $\tilde{V}\leqslant V$, entonces $\tilde{V}$ es cerrado bajo suma. Así, $u+w\in\tilde{V}$.
$\therefore U+W\subseteq\tilde{V}$

Teorema: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Demostración: Sea $\beta=\{v_1,v_2,…,v_m\}$ una base de $U\cap W$ con $dim_K U\cap W=m$.
Podemos completar a una base de $U$ y a una base de $W$:

Sea $A=\{v_1,v_2,…,v_m,u_1,u_2,…,u_r\}$ una base de $U$.
Sea $\Gamma =\{v_1,v_2,…,v_m,w_1,w_2,…,w_s\}$ una base de $W$.

donde $dim_K U=m+r$ y $dim_K W =m+s$.

Veamos que $\Delta =A\cup\Gamma =\{v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s\}$ es base de $U+W$ con $m+r+s$ elementos.

Tenemos que $A$ es base de $U$, por lo que $A\subseteq U$.
Tenemos que $\Gamma$ es base de $W$, por lo que $\Delta\subseteq W$.
Así, $\Delta =A\cup\Gamma \subseteq U\cup W$. Y como $U,W\subseteq U+W$, entonces $U\cup W\subseteq U+W$.
Por lo tanto $\Delta\subseteq U+W$ y como $U+W\leqslant V$ concluimos que $\langle\Delta\rangle\subseteq U+W.$

Ahora bien, sea $u+w\in U+W$ con $u\in U$ y $w\in W$.
Entonces $u\in U=\langle A\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$ y $w\in W=\langle\Gamma\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$.
De donde $u,w\in\langle\Delta\rangle$ y como $\langle\Delta\rangle\leqslant V$, entonces $u+w\in\langle\Delta\rangle$.
Por lo tanto, $U+W\subseteq\langle\Delta\rangle$.

$\therefore\langle\Delta\rangle =U+W$

Veamos que la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. Como consecuencia de ello se tendrá que $\Delta$ es linealmente independiente y $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ son distintos y por lo tanto son $m+r+s$ elementos.

Sean $\kappa_1,\kappa_2,…,\kappa_m,\lambda_1,\lambda_2,…,\lambda_r,\mu_1,\mu_2,…,\mu_s\in K$ tales que:
$\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(1)$

Como $W\leqslant V$, entonces $\sum_{i=1}^s\mu_iw_i\in W$ $…(2)$
Como $U=\langle A\rangle$, entonces $-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i\in U$ $…(3)$

De $(1)$ tenemos que $\sum_{i=1}^s\mu_iw_i=-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i$ y en consecuencia, por $(2)$ y $(3)$, concluimos que $\sum_{i=1}^s\mu_iw_i$ es un elemento que está tanto en $U$ como en $W$.

Así, $\sum_{i=1}^s\mu_iw_i\in U\cap W=\langle\beta\rangle$ y por tanto existen $\gamma_1,\gamma_2,…,\gamma_m\in K$ tales que $\sum_{i=1}^s\mu_iw_i=\sum_{i=1}^m\gamma_iv_i$ $…(4)$

De $(4)$ tenemos que $\sum_{i=1}^s\mu_iw_i-\sum_{i=1}^m\gamma_iv_i=\theta_V$, y como $\Gamma$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,s\}(\mu_i=0_K)$ y $\forall i\in\{1,2,…,m\}(-\gamma_i=0_K)$. Por lo tanto, $\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(5)$

De $(1)$ y $(5)$ tenemos que $\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\theta_V=\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i+\sum_{i=1}^s\mu_iw_i=\theta_V$. De donde $\sum_{i=1}^m\kappa_iv_i+\sum_{i=1}^r\lambda_iu_i=\theta_V$, y como $A$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,m\}(\kappa_i=0_K)$ y $\forall i\in\{1,2,…,r\}(-\lambda_i=0_K)$ $…(6)$

Hemos probado que $\kappa_1,=\kappa_2=…=\kappa_m=\lambda_1=\lambda_2=…=\lambda_r=\mu_1=\mu_2=…=\mu_s=0_K$.

Así, la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. y en consecuencia $\Delta$ es un conjunto l.i. con $m+r+s$ elementos.

$\therefore\Delta$ es l.i.

Concluimos que $\Delta$ es base de $U+W$ con $m+r+s$ elementos.

Finalmente sabemos que $dim_KU=m+r$, $dim_KW=m+s$ y $dim_K(U\cap W)=m.$
Además $\Delta$ es base de $U+W$ con $m+r+s$ elementos, entonces $dim_K(U+W)=m+r+s=(m+r)+(m+s)-m.$

Por lo tanto $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Ejemplos

Justificación. Es claro que $U_1,U_2,U_3\leqslant V$. Veamos el resultado de cada suma entre estos subespacios.
$U_1+U_2=\{(x,0)+(0,y)|x,y\in\mathbb{R}\}=\{(x,y)|x,y\in\mathbb{R}\}=V$
$U_2+U_3=\{(0,y)+(a,a)|y,a\in\mathbb{R}\}=\{(a,a+y)|a,y\in\mathbb{R}\}=\{(a,b)|a,b\in\mathbb{R}\}=V$
$U_3+U_1=\{(a,a)+(x,0)|a,x\in\mathbb{R}\}=\{(a+x,a)|a,x\in\mathbb{R}\}=\{(b,a)|b,a\in\mathbb{R}\}=V$

Verifiquemos para la suma $U_1+U_2$ el teorema previo:

Sabemos que $dim_KV=2$. Además $U_1\cap U_2=\{(0,0)\}$ y así $dim_K(U_1\cap U_2)=dim_K\{(0,0)\}=0$.
Como $\{(1,0)\}$ es base de $U_1$, entonces $dim_KU_1=1$.
Como $\{(0,1)\}$ es base de $U_2$, entonces $dim_KU_2=1$.
Así, $2=dim_KV=dim_K(U_1+U_2)=2=1+1+0=dim_KU_1+dim_KU_2-dim_K(U_1\cap U_2).$

Justificación. Dado que $dim_KV=3$ y $U+W$ es un subespacio de $V$
bastará probar entonces que $dim_K(U+W)=3$.

Como $\{(1,0,0),(0,1,0)\}$ es base de $U$, entonces $dim_KU=2$
Como $\{(0,1,0),(0,0,1)\}$ es base de $W$, entonces $dim_KW=2$
Como $\{(0,1,0)\}$ es base de $U\cap W$, entonces $dim_K(U\cap W)=1$
Así, \begin{align*}dim_K(U+W)&=dim_KU+dim_KW-dim_K(U\cap W)\\&=2+2-dim_K(U\cap W)=4-1=3,\end{align*} de donde $dim_K(U+W)=3=dim_KV$.

$\therefore U+W=V$.

SUMA DIRECTA

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. Decimos que $U+W$ es una suma directa si cada $v\in U+W$ se escribe como $v=u+w$ (con $u\in U,w\in W$) de forma única. En ese caso, escribiremos a $U+W$ como $U\oplus W$.

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m$ es suma directa si cada $v\in U_1+U_2+…+U_m$ se escribe como $v=u_1+u_2+…+u_m$ (con $u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$) de forma única. Se denotará como $U_1\oplus U_2\oplus …\oplus U_m$.

Ejemplo

Justificación. Es claro que $U,W\leqslant V$.
Sea $(a,b)\in\mathbb{R}^2$.
Entonces $a,b\in\mathbb{R}$.

Tenemos que $$(a,b)=\left( \frac{a+b}{2}+\frac{a-b}{2} ,\frac{a+b}{2}-\frac{a-b}{2}\right)=\left( \frac{a+b}{2} ,\frac{a+b}{2}\right)+\left( \frac{a-b}{2} ,-\frac{a-b}{2}\right)\in U+W,$$
de donde $\mathbb{R}^2\subseteq U+W$. Sabemos que $U+W\subseteq V$ y demostramos que $V\subseteq U+W$
$\therefore U+ W=V$

Veamos ahora que dicha suma es directa, es decir que si $u\in U, w\in W$ son tales que $(a,b)=u+w$, entonces $u,w$ son únicos. Bastará para ello verificar que la descomposición anterior de $(a,b)$ como suma de un elemento en $U$ y uno en $W$ es la única posible.

Sean $u\in U, w\in W$ son tales que $(a,b)=u+w$.
Entonces $u=(x,x)$ para algún $x\in\mathbb{R}$ y $w=(y,-y)$ para algún $y\in\mathbb{R}$, donde $(a,b)=(x,x)+(y,-y)=(x+y,x-y)$.

De aquí se deduce que $a=x+y$ y $b=x-y$. Así, $a+b=2x$ y por lo tanto $x=\frac{a+b}{2}$, mientras que $a-b=2y$ y por lo tanto $y=\frac{a-b}{2}$.

$\therefore U+W$ es suma directa.
$\therefore U\oplus W=V$

Proposición: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $U+W$ es suma directa si y sólo si $U\cap W=\{\theta_V\}$

Demostración: Veamos ambas implicaciones.

$\Rightarrow )$ Supongamos que $U+W$ es suma directa.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$. Por lo que $\{\theta_V\}\subseteq U\cap W$.

Sea $v\in U\cap W$.
Sabemos que $\theta_V+v,v+\theta_V\in U\oplus W$ y son formas de escribir a $v$.
Como $U+W$ es suma directa, entonces la forma de escribir a $v$ debe ser única.
Por lo tanto, $v=\theta_V$

$\therefore U\cap W=\{\theta_V\}$

$\Leftarrow )$ Supongamos que $U\cap W=\theta_V$

Sea $v\in U+W$ tal que $u_1+w_1=v=u_2+w_2$ con $u_1,u_2\in U$ y $w_1,w_2\in W$

Como $U,W\leqslant V$, entonces $u_1-u_2\in U$ y $w_2-w_1\in W$.
Como $u_1+w_1=u_2+w_2$, entonces $u_1-u_2=w_2-w_1$.
Por lo tanto, $u_1-u_2,w_2-w_1\in U\cap W=\{\theta_V\}$

Así, $u_1-u_2=\theta_V$ lo que implica que $ u_1=u_2$T ambién $w_2-w_1=\theta_V$ lo que implica que $w_2=w_1$.
Es decir, cada elementos en $U+W$ se escribe de forma única.

$\therefore U+W$ es una suma directa.

Tarea Moral

Más adelante…

A partir de la siguiente entrada, analizaremos un tipo de funciones muy especial y útil que va de espacios vectoriales a espacios vectoriales y aunque la definición sólo le pide abrir dos operaciones, esto implica muchas propiedades que otorgan a este tipo de funciones un papel central en el Álgebra lineal.

Entradas relacionadas

Geometría Moderna II: Razón Cruzada por la Circunferencia

Por Armando Arzola Pérez

Introducción

Como ya se vio, la razón cruzada tiene varias propiedades, desde seis tipos de razón cruzada hasta la construcción del cuarto elemento, pero falta analizar su relación con la circunferencia.

Propiedades de razón cruzada por la circunferencia

Se abordarán 3 propiedades en relación con una circunferencia dada.

Propiedad 1. Sean cuatro puntos en una circunferencia (con cíclicos) cualesquiera $A,B,C,D$, si unimos estos puntos a dos puntos $O$ y $O’$ que están en la misma circunferencia, entonces los haces $O\{ABCD\}$ y $O’\{ABCD\}$ tienen iguales razones cruzadas.

Razón cruzada por la circunferencia propiedad 1

Demostración. Las razones cruzadas son:

$O\{ABCD\}=\frac{sen(AOC)/sen(COB)}{sen(AOD)/sen(DOB)}=k$ y

$O’\{ABCD\}=\frac{sen(AO’C)/sen(CO’B)}{sen(AO’D)/sen(DO’B)}=k’$.

Notemos la igualdad de ángulos correspondientes de los dos haces $\angle{AOC}=\angle{AO’C}$, $\angle{COB}=\angle{CO’B}$, $\angle{DOB}=180-\angle{DO’B}$ y $\angle{AOD}=180-\angle{AO’D}$.

Por lo cual los ángulos formados serán iguales o suplementarios, por ello los senos de los ángulos serán iguales.

$\frac{sen(AOC)/sen(COB)}{sen(AOD)/sen(DOB)}=\frac{sen(AO’C)/sen(CO’B)}{sen(AO’D)/sen(DO’B)}$

$\Rightarrow O\{ABCD\}=k=k’=O’\{ABCD\}$

$\square$

Propiedad 2. Sea $C(O,r)$ una circunferencia en la cual se tienen cuatro puntos fijos $A,B,C,D$ por los cuales pasan tangentes por cada uno de estos y cortan la tangente en un punto variable $X$, entonces la razón cruzada de los cuatro puntos de intersección es una constante.

Es decir, $\{A’B’C’D’\}$ es constante independientemente de $X$.

Razón cruzada por la circunferencia propiedad 2

Demostración. Se tiene por teorema visto de razón que $\{A’B’C’D’\}=O\{A’B’C’D’\}$, entonces:

$O\{A’B’C’D’\}=\frac{sen(A’OC’)}{sen(C’OB’)}/\frac{sen(A’OD’)}{sen(D’OB’)}$

Ahora, como los lados correspondientes de los ángulos $C’OB’$ y $CXB$ son perpendiculares, entonces los senos de estos ángulos son iguales, esto ocurre de igual manera para los otros ángulos de los haces $O\{A’B’C’D’\}$ y $X\{ABCD\}$.

$\Rightarrow \frac{sen(A’OC’)}{sen(C’OB’)}/\frac{sen(A’OD’)}{sen(D’OB’)} = \frac{sen(AXC)}{sen(CXB)}/\frac{sen(AXD)}{sen(DXB)} $
$\Rightarrow O\{A’B’C’D’\} =X\{ABCD\}$

Observemos que esto ocurre para cualquier $X’$ entonces $X\{ABCD\}=X’\{ABCD\}$, y por ende se tiene $\{A’B’C’D’\}=O\{A’B’C’D’\}=X’\{ABCD\}$.
Por lo tanto, $\{A’B’C’D’\}=cte$ independientemente de $X$.

$\square$

Propiedad 3. Sea un haz el cual tiene su vértice fuera de una circunferencia $C(O,r)$ y la cual sus cuatro líneas cortan a la circunferencia en los pares de puntos $A,A’$, $B,B’$, $C,C’$ y $D,D’$. Si se tienen dos puntos distintos $E$ y $E’$ sobre la circunferencia, entonces las razones cruzadas de los haces $E\{ABCD\}$ y $E’\{A’B’C’D’\}$ son iguales.

Razón cruzada por la circunferencia propiedad 3

Demostración. Unamos los puntos $A,B,C,D$ a $A’$ y $A’,B’,C’,D’$ a $A$, esto nos dará las intersecciones de $AB’$ y $A’B$ en un punto $X$, $AC’$ y $A’C$ en un punto $y$, $AD’$ y $A’D$ en un punto $Z$, los cuales están en la polar del vértice $O$ del haz dado, por lo cual se tiene por propiedad 1 de razón cruzada en la circunferencia:

$E’\{ABCD\}=E’\{A’B’C’D’\}=A\{A’B’C’D’\}$

Por propiedad de razón cruzada:

$A\{A’B’C’D’\}=\{wxyz\}=A’\{wxyz\}=A’\{ABCD\}$

Y por propiedad 1 de razón cruzada en la circunferencia:

$A’\{ABCD\}=E\{ABCD\}$

Por lo tanto, $E’\{A’B’C’D’\}=E\{ABCD\}$ .

$\square$

Más adelante…

Ahora se abordará el tema de la regla de la falsa proposición.

Entradas relacionadas

Cálculo Diferencial e Integral II: Funciones integrables con finitas discontinuidades

Por Moisés Morales Déciga

Introducción

Hasta ahora, hemos hablado de funciones integrables en un intervalo cerrado, en términos de ciertas sumas superiores e inferiores. Vimos en la entrada de Propiedades de la integral que si una función es monótona o continua, entonces su integral siempre está definida. Ahora veremos qué sucede con las funciones que tienen discontinuidades. En esta entrada trataremos a las funciones que finitas discontinuidades. En la siguiente hablaremos de funciones con una infinidad de discontinuidades.

Breve repaso de integrabilidad

Recordemos que para determinar si una función acotada $f:\mathbb{R}\to \mathbb{R}$ es integrable en cierto intervalo $[a,b]$, debemos calcular ciertas sumas superiores e inferiores con respecto a una partición. Esto es tomar algunos puntos $x_0<\ldots<x_n$ en $[a,b]$, con $x_0=a$ y $x_n=b$. Escribimos $$P=\{ x_0, x_1, … , x_n \},$$

y decimos que $P$ genera los siguientes intervalos a los que llamamos celdas

$$[x_0,x_1],[x_1,x_2],…,[x_{n-1},x_n].$$

A $[x_{k-1},x_{k}]$ le llamamos la $k$-ésima celda de $P$, cuya longitud es $\Delta x_{k}=x_k-x_{k-1}$. Si $m_k$ es el ínfimo de los valores de $f$ en la $k$-ésima celda y $M_k$ es su supremo, entonces podemos definir respectivamente la suma inferior y superior como $$\underline{S}(f,P)=\sum_{k=1}^n m_k\Delta x_k \quad \text{y} \quad \overline{S}(f,P)=\sum_{k=1}^n M_k\Delta x_k.$$

La función $f$ es integrable cuando el ínfimo de las sumas superiores (tomado sobre todas las particiones) coindice con el supremos de las sumas inferiores. Vimos que esto es equivalente a pedir que para todo $\epsilon$ haya una partición en la que la suma superior y la inferior difieran menos que $\epsilon$ (a lo que llamamos el criterio de Riemann). Probamos varias otras propiedades de esta definición, pero una que será muy importante para esta entrada es la siguiente.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Sea $c$ cualquier valor entre $[a,b]$. Si la integral

$$\int \limits_{a}^{b} f(x) \ dx$$

existe, entonces las dos integrales

$$\int \limits_{a}^{c} f(x) \ dx, \int \limits_{c}^{b} f(x) \ dx$$

también existen. Y viceversa, si estas dos integrales existen, entonces la primera también.

Cuando las tres integrales existen, se cumple además la siguiente igualdad:

$$\int \limits_{a}^{b} f(x) \ dx = \int \limits_{a}^{c} f(x) \ dx \ + \int \limits_{c}^{b} f(x) \ dx .$$

Usaremos esta proposición en las siguientes secciones, pero necesitamos una versión un poco más versátil.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada y $n$ un entero positivo. Sea $P=\{x_0,\ldots,x_n\}$ una partición de $[a,b]$. Si la integral $$\int \limits_{a}^{b} f(x) \ dx$$ existe, entonces todas las integrales $$\int_{x_{k-1}}^{x_k} f(x)\, dx$$ para $k=1,\ldots,n$ existen. Y viceversa, si estas $n$ integrales existen, entonces la primera también. Cuando todas estas integrales existen, entonces $$\int \limits_{a}^{b} f(x) \ dx = \sum_{k=1} ^n \int_{x_{k-1}}^{x_k} f(x)\, dx.$$

La demostración de esta proposición no es difícil, pues se sigue de la proposición anterior y de una prueba inductiva. Por ello, la encontrarás como parte de los ejercicios.

Funciones escalonadas

Hablaremos de la integrabilidad de funciones escalonadas, para lo cual necesitaremos la siguiente definición.

Definición. Una función $f:\mathbb{R}\to \mathbb{R}$ es escalonada en el intervalo $[a,b]$, si existe una partición $P=\{ x_0, x_1, … , x_n\}$ del intervalo $[a,b]$, tal que $f$ es constante en cada subintervalo abierto de $P$. Es decir, para cada $k=1, 2, …, n$ existe un número real $s_k$ tal que:

$$f(x)=s_k, \quad \text{si} \quad x_{k-1} < x < x_k.$$

A las funciones escalonadas también se les conoce como funciones constantes a trozos.

Ejemplo. En algunos sistemas postales se deben poner estampillas en una carta para poderse enviar. La cantidad de estampillas que hay que poner está determinada por el peso de la carta. Supongamos que una estampilla cuesta $5$ pesos y que hay que poner una estampilla por cada $20g$ (o fracción) que pese la carta, hasta un máximo de $100g$.

Si el peso de la carta en gramos está en el intervalo $[0,20]$, entonces tienes que pagar $5$ pesos. Si está en el intervalo $(20,40]$, pagarás 10 pesos y así sucesivamente hasta que llegue a 100 gramos. Gráficamente, el costo de envío tendría el siguiente comportamiento (puedes dar clic en la imagen para verla a mayor escala).

Observa que en efecto parece ser que hay «escalones». Esta función es escalonada pues al dar la partición $P=\{0,20,40,60,80,100\}$, tenemos que la función es constante en cada intervalo abierto definido por la partición.

Si quisiéramos calcular la integral de esta función, ¿qué podríamos hacer? Podemos utilizar la proposición de separar la integral en intervalos que enunciamos arriba, usando la misma partición $P$. Como la función es constante en cada intervalo dado, entonces su integral existe. Así, la integral en todo el intervalo $[0,100]$ existirá y será la suma de las integrales en cada intervalo. Tendrás que encontrar el valor exacto como uno de los ejercicios.

$\triangle$

Integral para funciones escalonadas

Las funciones escalonadas en un cierto intervalo siempre son integrables, como lo afirma el siguiente resultado.

Teorema. Sea $f:\mathbb{R} \to \mathbb{R}$ una función. Si $f$ es escalonada en un intervalo $[a,b]$, entonces es integrable en $[a,b]$. Además, si la partición que muestra que es escalonada es $P=\{x_0,\ldots,x_n\}$, y para $x$ en el intervalo $[x_{k-1},x_k]$ (para $k=1,\ldots,n$) se cumple que $f(x)=s_k$, entonces se tiene que $$\int_a^b f(x)\, dx = \sum_{k=1}^n s_k (x_k-x_{k-1}).$$

El teorema nos dice entonces que el valor de la integral es la suma de los productos del valor $s_k$ (constante), por la longitud del $k$-ésimo intervalo. Esto tiene mucho sentido geométrico: cada uno de estos productos es el área de un rectángulo correspondiente a un «escalón». El teorema nos dice que el área buscada es la suma de las áreas de estos escalones.

Demostración. La demostración es consecuencia de la proposición para partir integrales en intervalos. Notemos que como $f$ es constante en cada intervalo $[x_{k-1},x_k]$ (para $k=1,\ldots,n$), entonces es integrable en dicho intervalo. En efecto, fijemos una $k\in \{1,\ldots,n\}$ y tomemos $Q=\{y_0,\ldots,y_m\}$ una partición de $[x_{k-1},x_k]$. En en este intervalo cualquier suma superior (o inferior) se hace tomando como supremo (o ínfimo) al valor constante $s_k$, de modo que:

\begin{align*}
\overline{S}(f,Q)&=\sum_{i=1}^m M_i \Delta y_i\\
&=\sum_{i=1}^m s_k \Delta y_i\\
&=s_k\sum_{i=1}^m \Delta y_i\\
&=s_k(x_k-x_{k-1}),\\
\underline{S}(f,Q)&= \sum_{i=1}^m m_i \Delta y_i \\
&=\sum_{i=1}^m s_k \Delta y_i\\
&=s_k\sum_{i=1}^m \Delta y_i\\
&=s_k (x_k – x_{k-1}).
\end{align*}

Así, el ínfimo de las particiones superiores y el supremo de las inferiores es $c_k(x_k-x_{k-1})$, por lo que la integral existe en cada intervalo $[x_{k-1},x_k]$ y es igual a $c_k (x_k – x_{k-1})$. Usando la proposición que enunciamos en la sección de recordatorio sobre partir la integral por intervalos, obtenemos

$$\int_a^b f(x)\, dx = \sum_{k=1}^n \int_{x_{k-1}}^{x_k} f(x)\, dx =\sum_{k=1}^n s_k (x_k-x_{k-1}),$$

como queríamos.

$\square$

Funciones continuas a trozos

Las funciones escalonadas son muy sencillas, pero las ideas que hemos discutido respaldan una cierta intuición de que para la integrabilidad «si la función se comporta bien en cada uno de una cantidad finita de intervalos, entonces se comporta bien en todo el intervalo». Esa idea se repite a continuación.

Definición. Sea $f:\mathbb{R}\to \mathbb{R}$. Diremos que $f$ es continua a trozos en el intervalo $[a,b]$ si existe una partición $P=\{x_0,\ldots,x_n\}$ de $[a,b]$ tal que $f$ es continua en cada intervalo $(x_{k-1},x_k)$ para $k=1,\ldots,n$.

Pareciera que estamos pidiendo continuidad en todo el intervalo $[a,b]$. Sin embargo, hay algunas excepciones. Por la manera en la que está escrita la definición, la función $f$ no necesariamente es continua en los puntos $x_1,x_2,\ldots,x_{n-1}$.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Si $f$ es continua a trozos en el intervalo $[a,b]$, entonces $f$ es integrable en $[a,b]$.

Demostración. Nos gustaría usar la proposición de separación de la integral por intervalos. Para ello, tomemos la partición $P=\{x_0,\ldots,x_n\}$ de $[a,b]$ tal que $f$ es continua en cada intervalo $(x_{k-1},x_k)$ para $k=1,\ldots,n$. Si $f$ fuera continua en cada intervalo cerrado $[x_{k-1},x_k]$, podríamos usar un resultado anterior para ver que es integrable en cada uno de estos intervalos, pero aquí tenemos una hipótesis un poco más débil, pues la continuidad es sólo en el abierto.

De cualquier manera, se puede ver que $f$ es integrable en cada intervalo cerrado $[x_{k-1},x_k]$. Para ello, fijemos $k$ y tomemos $\epsilon>0$. Como $f$ es acotada, tiene supremo $M$ e ínfimo $m$ en $[a,b]$. Si $M=m$, entonces $f$ es constante y no hay nada que hacer. Así, supongamos $M\neq m$ y tomemos una $\delta>0$ tal que $2\delta(M-m)< \frac{\epsilon}{2}$, y tal que $\delta<\frac{x_k-x_{k-1}}{2}$. La segunda condición nos dice que $[x_{k-1}+\delta,x_k-\delta]$ es no vacío. Como $f$ es continua en este intervalo cerrado, es integrable ahí. Por el criterio de Riemann, hay una partición $Q=\{y_1,\ldots,y_{l-1}\}$ de dicho intervalo tal que $$\overline{S}(f,Q)-\underline{S}(f,Q)<\frac{\epsilon}{2}.$$

Si a esta partición agregamos los puntos $y_0=x_{k-1}$ y $y_l=x_k$, entonces obtenemos una partición $Q’=\{y_0,\ldots,y_l\}$ la cual su primera y última celda tienen longitud $\delta$ y cumple

\begin{align*}
\overline{S}(f,Q’)-\underline{S}(f,Q’)&=(\overline{S}(f,Q)-\underline{S}(f,Q))+(M_1-m_1)\Delta y_1 + (M_l-m_l)\Delta y_l\\
&<\frac{\epsilon}{2}+ (M-m)\delta + (M-m)\delta\\
&=\frac{\epsilon}{2}+ 2(M-m)\delta\\
&<\frac{\epsilon}{2}+\frac{\epsilon}{2}\\
&=\epsilon.
\end{align*}

Así, hemos encontrado una partición $Q’$ de $[x_{k-1},x_k]$ donde las sumas superior e inferior difieren en menos de $\epsilon$. Por el criterio de Riemann, $f$ es integrable en ese intervalo, para cada $k=1,\ldots,n$. Concluimos la demostración usando nuevamente la proposición de separación de la integral en intervalos.

$\square$

Ejemplo. La siguiente función $$ f(x)= \left\{ \begin{array}{lcc}             x^2 &   si  & 0 \leq x \leq 2 \\             \\ x &  si & 2 < x < 3 \\             \\ -\frac{x^3}{36} +3 &  si  & 3 \leq x \leq 4.5             \end{array}   \right. $$

es integrable en el intervalo $[0,4.5]$. Tendrás que calcular su integral en los ejercicios.

$\triangle$

Funciones monótonas a trozos

Para esta discusión de funciones monótonas, vale la pena que tengas presente las definiciones de funciones crecientes y decrecientes, que puedes consultar en la entrada correspondiente del curso de Cálculo Diferencial e Integral I.

Definición. Una función $f:\mathbb{R}\to \mathbb{R}$ es monótona a trozos en el intervalo $[a,b]$ si existe una partición $P=\{x_0,\ldots,x_n\}$ de $[a,b]$ tal que $f$ es monótona en cada intervalo $(x_{k-1},x_k)$ para $k=1,\ldots,n$.

Podemos pensar cómo sería la gráfica de una función así. Tendría que estar formada por un número finito de trozos monótonos. Un ejemplo de ello son las funciones escalonadas (son por ejemplo, no crecientes a trozos). Un ejemplo un poco más interesante sería el de la siguiente figura.

Monótona por trozos

Como te imaginarás, las funciones monótonas a trozos también son integrables.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Si $f$ es monótona a trozos en el intervalo $[a,b]$, entonces $f$ es integrable en $[a,b]$.

Una vez más, la demostración usa la proposición de separación de la integral por intervalos. Pero nuevamente nos enfrentamos con una dificultad. Lo que hemos demostrado anteriormente es que si una función es monónona en un intervalo $[x_{k-1},x_k]$, entonces es integrable en dicho intervalo. ¿Pero si sólo tenemos monotonía en $(x_{k-1},x_k)$? Para atender esta dificultad, se tiene que hacer una adaptación similar a lo que hicimos en la demostración para funciones continuas a trozos. Los detalles quedan como parte de la tarea moral.

Más adelante…

En esta entrada analizamos funciones con una cantidad finita de discontinuidades. También hablamos de las funciones monótonas a trozos, que podrían tener una infinidad de discontinuidades, pero también ser integrables. En la siguiente entrada veremos qué hacer con la integrabilidad cuando tenemos una cantidad infinita de discontinuidades.

Tarea moral

  1. Calcula el valor de la integral de la función escalonada del servicio postal, con la partición dada.
  2. Integra la siguiente función: $$ f(x)= \left\{ \begin{array}{lcc}             x^2 &   si  & 0 \leq x \leq 2 \\             \\ x &  si & 2 < x < 3 \\             \\ -\frac{x^3}{36} +3 &  si  & 3 \leq x \leq 4.5             \end{array}   \right. $$
  1. Integra la siguiente función. Puedes usar fórmulas de integración que conozcas de cursos preuniversitarios, sin embargo, toma en cuenta que tu respuesta será un poco informal hasta que mostremos de dónde salen dichas fórmulas. $$ f(x)= \left\{ \begin{array}{lcc}             \sqrt x &   si  & 0 \leq x \leq 2 \\             \\ ln(x) &  si & 2 < x < 3 \\             \\ -\frac{x^2}{16} -x +5 &  si  & 3 \leq x \leq 4             \end{array}   \right. $$
  1. Demuestra por inducción la proposición de separación de la integral en intervalos que quedó pendiente en la sección de «Breve repaso de integrabilidad». Asegúrate de demostrar la ida y la vuelta.
  2. Sean $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ funciones acotadas.
    • Muestra que si $f$ y $g$ son funciones escalonadas en un intervalo $[a,b]$, entonces $f+g$ y $fg$ también son funciones escalonadas en $[a,b]$. Sugerencia. Usa como partición un refinamiento común a las particiones $P$ y $Q$ que muestran que $f$ y $g$ son escalonadas, respectivamente.
    • Muestra que si $f$ y $g$ son funciones continuas por trozos en un intervalo $[a,b]$, entonces $f+g$ y $fg$ también son funciones continuas por trozos en $[a,b]$.
    • Si $f$ y $g$ son funciones monótonas por trozos en un intervalo $[a,b]$, ¿será que $f+g$ y $fg$ también lo son? ¿Bajo qué condiciones de la monotonía sí sucede esto?
  3. Da un ejemplo de una función que sea monótona por trozos, pero que no sea continua por trozos.
  4. Demuestra la proposición de que las funciones monónotas a trozos son integrables.

Entradas relacionadas

1.10. BASE DE ESPACIOS VECTORIALES: obtención a partir de un conjunto linealmente independiente o generador

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

De cualquier subconjunto finito de nuestro espacio, podemos obtener un generador o un l.i. y cuando lo obtengamos podremos reducirlo o completarlo para obtener una base.

Teorema: Sea $V$ un $K$ – espacio vectorial de dimensión finita.
a) Todo conjunto generador finito o es una base o se puede reducir a una base.
b) Todo conjunto linealmente independiente o es una base o se puede completar a una base.

Demostración:

a) En la demostración de la proposición que se encuentra en la entrada anterior tomamos un conjunto generador finito $S$ de un espacio vectorial arbitrario y o bien es base o es linealmente dependiente y en ese caso recursivamente tomamos subconjuntos propios de $S$ hasta que uno de esos subconjuntos fuera base. Este método prueba que podemos reducir cualquier conjunto generador de $V$ para obtener una base.

b) Sea $S\subseteq V$ un conjunto l.i.
Ya sabemos que $S$ es finito por ser un subconjunto l.i. de un espacio $V$ de dimensión finita (ver la observación en la entrada anterior).

Caso 1. Si $\langle S \rangle = V$, entonces $S$ es base de $V$ por definición.

Caso 2. Si $\langle S \rangle \subsetneq V$, entonces existe $v_1\in V$ tal que $v_1\notin \langle S \rangle$. Por lo tanto, $ S \cup \{ v_1 \}$ es l.i.

Subaso 1. Si $\langle S \cup \{ v_1 \} \rangle = V$, entonces $S \cup \{ v_1 \}$ es base de $V$ por definición.

Subcaso 2. Si $\langle S \cup \{ v_1 \} \rangle \subsetneq V$, entonces existe $v_2\in V$ tal que $v_2\notin \langle S \cup \{ v_1 \} \rangle$ Por lo tanto, $ S \cup \{ v_1 \} \cup \{ v_2 \} $ es l.i.

Este proceso no es infinito porque los subconjuntos l.i de $V$ deben ser finitos, así que se detiene después de digamos $m$ pasos, en el momento en que obtenemos un conjunto que genera. El número $m$ es la cantidad de elementos de $V$ que tuvimos que agregar a $S$, entonces $\langle S \cup \{ v_1 \} \cup \{ v_2 \} \cup … \{ v_m \} \rangle$ es una base de $V$.

Corolario: Sea $V$ un $K$ – espacio vectorial tal que $dim_K V=n$.
a) Cualquier conjunto generador con $n$ elementos es una base de $V$.
b) Cualquier conjunto linealmente independiente con $n$ elementos es una base de $V$.

Demostración: Por definición de base tenemos que toda base $B$ de $V$ cumple que $|B|=dim_K V=n$. Es decir, toda base de $V$ tiene $n$ elementos.

a) Sea $S\subseteq V$ generador con $n$ elementos.
Por el teorema anterior $S$ es una base o se puede reducir a una base.
Pero reducir $S$ significaría quitar elementos y obtendríamos una base de $V$ con menos de $n$ elementos, lo que es una contradicción porque toda base de $V$ tiene $n$ elementos.
Por lo tanto $S$ es base.

b) Sea $S\subseteq V$ linealmente independiente.
Por el teorema anterior $S$ es una base o podemos completarlo a una base.
Pero completar $S$ significaría agregar elementos y obtendríamos una base de $V$ con más de $n$ elementos, lo que es una contradicción porque toda base de $V$ tiene $n$ elementos.
Por lo tanto $S$ es base.

Ejemplo

Sea $K=\mathbb{R}, V=\mathcal{M}_{2\times 2}(\mathbb{R})$.
Sea $W=\left\langle \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} , \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} \right\rangle$

Por construcción, $W$ es el subespacio generado por $X=\left\{\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}, \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} \right\}$
Encontremos un subconjunto de $X$ que sea base de $W$.

Observemos que $\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}-\begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $X$ es l.d. y como $\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}$, entonces $W=\langle X\rangle = \left\langle \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}, \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\rangle$

Veamos que $B=\left\{\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}, \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\}$ es l.i.

Sean $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$ tales que $\lambda_1\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}+\lambda_2\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\lambda_3\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.$

Esto implica que $\begin{pmatrix} \lambda_1 & \lambda_1+\lambda_2 \\ \lambda_3 & \lambda_2+\lambda_3 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $\lambda_1= \lambda_1+\lambda_2= \lambda_3=\lambda_2+\lambda_3=0$.
Por lo tanto, $\lambda_1=\lambda_2=\lambda_3=0$ y $B$ es l.i.

Como $\langle B\rangle=W$ y $B$ es l.i., entonces $B$ es una base y obtenemos que $dim_\mathbb{R}W=|B|=3.$

Teorema: Sean $V$ un $K$ – espacio vectorial de dimensión finita y $W$ un subespacio de $V$. Entonces se cumple lo siguiente:

a) $W$ es de dimensión finita.
b) Toda base de $W$ o es una base de $V$ o se puede completar a una base de $V$.
c) $dim_KW\leq dim_KV$.
d) Si $dim_KW=dim_KV$, entonces $W=V$.

Demostración: Analicemos cada inciso por separado:

a) Veamos que $W$ es de dimensión finita probando que tiene una base finita.

Si $W=\{\theta_V\}$ entonces $\emptyset$ es una base finita de $V$.

Supongamos que $\{\theta_V\}\subsetneq W$, consideremos $w_1\in W\setminus \{\theta_V\} $, notemos que $\{w_1\}$ es l.i. ya que $w_1\neq \theta_V$. Si $\{w_1\}$ genera a $W$, entonces es una base finita de $W$. Si por el contrario $\{w_1\}$ no genera a $W$ tendríamos que $\langle w_1\rangle\subsetneq W$ y podemos considerar $w_2\in W\setminus \langle w_1\rangle$. Debido a la elección de $w_2$ sabemos que $\{w_1, w_2\}$ es l.i. Así, si $\{w_1, w_2\}$ genera a $W$, entonces es una base finita de $W$ y si no elegimos $w_3\in W\setminus \langle w_1,w_2\rangle$.

Continuando de este modo obtenemos subconjuntos de $W$, y por lo tanto de $V$, linealmente independientes. El proceso se detiene después de un número finito de pasos ya que al ser $V$ de dimensión finita no existen conjuntos en $V$ linealmente independientes infinitos y se detiene en el momento en que el subconjunto obtenido genera a $W$. Entonces el proceso acaba después de digamos $t$ pasos obteniendo un subconjunto $\{w_1, \dots ,w_t\}$ de $W$ linealmente independiente que genera a $W$, siendo así una base finita de $W$.

b) Sea $B$ una base de $W$.
Entonces $B$ es un subconjunto l.i. en $V$ y por el teorema anterior o es una base de $V$ o se puede completar a una base de $V$.

c) Sea $B$ una base de $W$.
Por el inciso anterior tenemos $B$ es una base de $V$ o se puede completar para obtener una base de $V$, es decir, existe $A\subseteq V$ tal que $B\cup A$ es una base de $V$. Así,
$$dim_KW=|B|\leq|B\cup A|=dim_KV.$$
Por lo tanto, $dim_KW\leq\dim_KV$.

d) Supongamos que $dim_KW=\dim_KV=n$
Sea $B$ una base de $W$.
Entonces $B$ es un l.i. en $V$ con $n$ elementos. Por el corolario anterior tenemos que $B$ es una base de $V$.
Así, $W=\langle B\rangle =V$ y por lo tanto, $W=V$

Tarea Moral

Más adelante…

Veremos un nuevo concepto: Suma y suma directa de subespacios vectoriales.
¿Qué es? ¿Qué estructura tiene? ¿Dónde vive? ¿Qué relación tiene la suma de dos subespacios con sus uniones?

Entradas relacionadas