Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

1.11. SUMA Y SUMA DIRECTA DE SUBESPACIOS: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

La suma entre espacios vectoriales se construye con la suma de vectores, sin embargo, al ser subespacios, lo que resulta de esta operación, dónde vive y cómo se comporta es algo que que debe analizarse de forma particular.

La suma directa, una vez que aprendemos a distinguirla y manejarla, nos permite expresar a nuestro espacio vectorial en términos de algunos de sus subespacios. De este modo es más clara la estructura que tienen todos los elementos del espacio.

SUMA DE SUBESPACIOS

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. La suma de $U$ y $W$ es $U+W=\{u+w|u\in U, w\in W\}$ (donde $+$ es la suma del espacio $V$).

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m=\{u_1+u_2+…+u_m|u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$

Propiedades

Justificación. Veamos que $U+W$ contiene a $\theta_V$ y conserva suma y producto por escalar.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$.
Así, $\theta_V =\theta_V+\theta_V\in U+W$
$\therefore \theta_V\in U+W$

Como $U,W\subseteq V$, entonces $u_1,u_2,w_1,w_2\in V$, así que $$(u_1+w_1)+\lambda (u_2+w_2)=(u_1+w_1)+(\lambda u_2 + \lambda_2 w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) $$ y como $U,W\leqslant V$, entonces tanto $U$ como $W$ conservan suma y producto por escalar así que $u_1+\lambda u_2 \in U$ y $w_1+\lambda w_2 \in W$.
Por lo cual, $(u_1+w_1)+\lambda(u_2+w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) \in U+W$
$\therefore (u_1+w_1)+\lambda(u_2+w_2)\in U+W$

Justificación. Recordando que $\theta_V\in U,W$ (porque $U,V\leqslant V$) tenemos que $\forall u\in U(u=u+\theta_V\in U+W)$ y $\forall w\in W(w=\theta_V+w\in U+W)$

Justificación. Sea $\tilde{V}\leqslant V$ tal que $U,W\subseteq \tilde{V}$
Sea $u+w\in U+W$ con $u\in U$ y $w\in W$.
Entonces $u\in U\subseteq \tilde{V}$ y $w\in W\subseteq \tilde{V}$.
De donde $u,w\in\tilde{V}$ y como $\tilde{V}\leqslant V$, entonces $\tilde{V}$ es cerrado bajo suma. Así, $u+w\in\tilde{V}$.
$\therefore U+W\subseteq\tilde{V}$

Teorema: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Demostración: Sea $\beta=\{v_1,v_2,…,v_m\}$ una base de $U\cap W$ con $dim_K U\cap W=m$.
Podemos completar a una base de $U$ y a una base de $W$:

Sea $A=\{v_1,v_2,…,v_m,u_1,u_2,…,u_r\}$ una base de $U$.
Sea $\Gamma =\{v_1,v_2,…,v_m,w_1,w_2,…,w_s\}$ una base de $W$.

donde $dim_K U=m+r$ y $dim_K W =m+s$.

Veamos que $\Delta =A\cup\Gamma =\{v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s\}$ es base de $U+W$ con $m+r+s$ elementos.

Tenemos que $A$ es base de $U$, por lo que $A\subseteq U$.
Tenemos que $\Gamma$ es base de $W$, por lo que $\Delta\subseteq W$.
Así, $\Delta =A\cup\Gamma \subseteq U\cup W$. Y como $U,W\subseteq U+W$, entonces $U\cup W\subseteq U+W$.
Por lo tanto $\Delta\subseteq U+W$ y como $U+W\leqslant V$ concluimos que $\langle\Delta\rangle\subseteq U+W.$

Ahora bien, sea $u+w\in U+W$ con $u\in U$ y $w\in W$.
Entonces $u\in U=\langle A\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$ y $w\in W=\langle\Gamma\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$.
De donde $u,w\in\langle\Delta\rangle$ y como $\langle\Delta\rangle\leqslant V$, entonces $u+w\in\langle\Delta\rangle$.
Por lo tanto, $U+W\subseteq\langle\Delta\rangle$.

$\therefore\langle\Delta\rangle =U+W$

Veamos que la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. Como consecuencia de ello se tendrá que $\Delta$ es linealmente independiente y $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ son distintos y por lo tanto son $m+r+s$ elementos.

Sean $\kappa_1,\kappa_2,…,\kappa_m,\lambda_1,\lambda_2,…,\lambda_r,\mu_1,\mu_2,…,\mu_s\in K$ tales que:
$\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(1)$

Como $W\leqslant V$, entonces $\sum_{i=1}^s\mu_iw_i\in W$ $…(2)$
Como $U=\langle A\rangle$, entonces $-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i\in U$ $…(3)$

De $(1)$ tenemos que $\sum_{i=1}^s\mu_iw_i=-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i$ y en consecuencia, por $(2)$ y $(3)$, concluimos que $\sum_{i=1}^s\mu_iw_i$ es un elemento que está tanto en $U$ como en $W$.

Así, $\sum_{i=1}^s\mu_iw_i\in U\cap W=\langle\beta\rangle$ y por tanto existen $\gamma_1,\gamma_2,…,\gamma_m\in K$ tales que $\sum_{i=1}^s\mu_iw_i=\sum_{i=1}^m\gamma_iv_i$ $…(4)$

De $(4)$ tenemos que $\sum_{i=1}^s\mu_iw_i-\sum_{i=1}^m\gamma_iv_i=\theta_V$, y como $\Gamma$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,s\}(\mu_i=0_K)$ y $\forall i\in\{1,2,…,m\}(-\gamma_i=0_K)$. Por lo tanto, $\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(5)$

De $(1)$ y $(5)$ tenemos que $\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\theta_V=\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i+\sum_{i=1}^s\mu_iw_i=\theta_V$. De donde $\sum_{i=1}^m\kappa_iv_i+\sum_{i=1}^r\lambda_iu_i=\theta_V$, y como $A$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,m\}(\kappa_i=0_K)$ y $\forall i\in\{1,2,…,r\}(-\lambda_i=0_K)$ $…(6)$

Hemos probado que $\kappa_1,=\kappa_2=…=\kappa_m=\lambda_1=\lambda_2=…=\lambda_r=\mu_1=\mu_2=…=\mu_s=0_K$.

Así, la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. y en consecuencia $\Delta$ es un conjunto l.i. con $m+r+s$ elementos.

$\therefore\Delta$ es l.i.

Concluimos que $\Delta$ es base de $U+W$ con $m+r+s$ elementos.

Finalmente sabemos que $dim_KU=m+r$, $dim_KW=m+s$ y $dim_K(U\cap W)=m.$
Además $\Delta$ es base de $U+W$ con $m+r+s$ elementos, entonces $dim_K(U+W)=m+r+s=(m+r)+(m+s)-m.$

Por lo tanto $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Ejemplos

Justificación. Es claro que $U_1,U_2,U_3\leqslant V$. Veamos el resultado de cada suma entre estos subespacios.
$U_1+U_2=\{(x,0)+(0,y)|x,y\in\mathbb{R}\}=\{(x,y)|x,y\in\mathbb{R}\}=V$
$U_2+U_3=\{(0,y)+(a,a)|y,a\in\mathbb{R}\}=\{(a,a+y)|a,y\in\mathbb{R}\}=\{(a,b)|a,b\in\mathbb{R}\}=V$
$U_3+U_1=\{(a,a)+(x,0)|a,x\in\mathbb{R}\}=\{(a+x,a)|a,x\in\mathbb{R}\}=\{(b,a)|b,a\in\mathbb{R}\}=V$

Verifiquemos para la suma $U_1+U_2$ el teorema previo:

Sabemos que $dim_KV=2$. Además $U_1\cap U_2=\{(0,0)\}$ y así $dim_K(U_1\cap U_2)=dim_K\{(0,0)\}=0$.
Como $\{(1,0)\}$ es base de $U_1$, entonces $dim_KU_1=1$.
Como $\{(0,1)\}$ es base de $U_2$, entonces $dim_KU_2=1$.
Así, $2=dim_KV=dim_K(U_1+U_2)=2=1+1+0=dim_KU_1+dim_KU_2-dim_K(U_1\cap U_2).$

Justificación. Dado que $dim_KV=3$ y $U+W$ es un subespacio de $V$
bastará probar entonces que $dim_K(U+W)=3$.

Como $\{(1,0,0),(0,1,0)\}$ es base de $U$, entonces $dim_KU=2$
Como $\{(0,1,0),(0,0,1)\}$ es base de $W$, entonces $dim_KW=2$
Como $\{(0,1,0)\}$ es base de $U\cap W$, entonces $dim_K(U\cap W)=1$
Así, \begin{align*}dim_K(U+W)&=dim_KU+dim_KW-dim_K(U\cap W)\\&=2+2-dim_K(U\cap W)=4-1=3,\end{align*} de donde $dim_K(U+W)=3=dim_KV$.

$\therefore U+W=V$.

SUMA DIRECTA

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. Decimos que $U+W$ es una suma directa si cada $v\in U+W$ se escribe como $v=u+w$ (con $u\in U,w\in W$) de forma única. En ese caso, escribiremos a $U+W$ como $U\oplus W$.

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m$ es suma directa si cada $v\in U_1+U_2+…+U_m$ se escribe como $v=u_1+u_2+…+u_m$ (con $u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$) de forma única. Se denotará como $U_1\oplus U_2\oplus …\oplus U_m$.

Ejemplo

Justificación. Es claro que $U,W\leqslant V$.
Sea $(a,b)\in\mathbb{R}^2$.
Entonces $a,b\in\mathbb{R}$.

Tenemos que $$(a,b)=\left( \frac{a+b}{2}+\frac{a-b}{2} ,\frac{a+b}{2}-\frac{a-b}{2}\right)=\left( \frac{a+b}{2} ,\frac{a+b}{2}\right)+\left( \frac{a-b}{2} ,-\frac{a-b}{2}\right)\in U+W,$$
de donde $\mathbb{R}^2\subseteq U+W$. Sabemos que $U+W\subseteq V$ y demostramos que $V\subseteq U+W$
$\therefore U+ W=V$

Veamos ahora que dicha suma es directa, es decir que si $u\in U, w\in W$ son tales que $(a,b)=u+w$, entonces $u,w$ son únicos. Bastará para ello verificar que la descomposición anterior de $(a,b)$ como suma de un elemento en $U$ y uno en $W$ es la única posible.

Sean $u\in U, w\in W$ son tales que $(a,b)=u+w$.
Entonces $u=(x,x)$ para algún $x\in\mathbb{R}$ y $w=(y,-y)$ para algún $y\in\mathbb{R}$, donde $(a,b)=(x,x)+(y,-y)=(x+y,x-y)$.

De aquí se deduce que $a=x+y$ y $b=x-y$. Así, $a+b=2x$ y por lo tanto $x=\frac{a+b}{2}$, mientras que $a-b=2y$ y por lo tanto $y=\frac{a-b}{2}$.

$\therefore U+W$ es suma directa.
$\therefore U\oplus W=V$

Proposición: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $U+W$ es suma directa si y sólo si $U\cap W=\{\theta_V\}$

Demostración: Veamos ambas implicaciones.

$\Rightarrow )$ Supongamos que $U+W$ es suma directa.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$. Por lo que $\{\theta_V\}\subseteq U\cap W$.

Sea $v\in U\cap W$.
Sabemos que $\theta_V+v,v+\theta_V\in U\oplus W$ y son formas de escribir a $v$.
Como $U+W$ es suma directa, entonces la forma de escribir a $v$ debe ser única.
Por lo tanto, $v=\theta_V$

$\therefore U\cap W=\{\theta_V\}$

$\Leftarrow )$ Supongamos que $U\cap W=\theta_V$

Sea $v\in U+W$ tal que $u_1+w_1=v=u_2+w_2$ con $u_1,u_2\in U$ y $w_1,w_2\in W$

Como $U,W\leqslant V$, entonces $u_1-u_2\in U$ y $w_2-w_1\in W$.
Como $u_1+w_1=u_2+w_2$, entonces $u_1-u_2=w_2-w_1$.
Por lo tanto, $u_1-u_2,w_2-w_1\in U\cap W=\{\theta_V\}$

Así, $u_1-u_2=\theta_V$ lo que implica que $ u_1=u_2$T ambién $w_2-w_1=\theta_V$ lo que implica que $w_2=w_1$.
Es decir, cada elementos en $U+W$ se escribe de forma única.

$\therefore U+W$ es una suma directa.

Tarea Moral

Más adelante…

A partir de la siguiente entrada, analizaremos un tipo de funciones muy especial y útil que va de espacios vectoriales a espacios vectoriales y aunque la definición sólo le pide abrir dos operaciones, esto implica muchas propiedades que otorgan a este tipo de funciones un papel central en el Álgebra lineal.

Entradas relacionadas

Geometría Moderna II: Razón Cruzada por la Circunferencia

Por Armando Arzola Pérez

Introducción

Como ya se vio, la razón cruzada tiene varias propiedades, desde seis tipos de razón cruzada hasta la construcción del cuarto elemento, pero falta analizar su relación con la circunferencia.

Propiedades de razón cruzada por la circunferencia

Se abordarán 3 propiedades en relación con una circunferencia dada.

Propiedad 1. Sean cuatro puntos en una circunferencia (con cíclicos) cualesquiera $A,B,C,D$, si unimos estos puntos a dos puntos $O$ y $O’$ que están en la misma circunferencia, entonces los haces $O\{ABCD\}$ y $O’\{ABCD\}$ tienen iguales razones cruzadas.

Razón cruzada por la circunferencia propiedad 1

Demostración. Las razones cruzadas son:

$O\{ABCD\}=\frac{sen(AOC)/sen(COB)}{sen(AOD)/sen(DOB)}=k$ y

$O’\{ABCD\}=\frac{sen(AO’C)/sen(CO’B)}{sen(AO’D)/sen(DO’B)}=k’$.

Notemos la igualdad de ángulos correspondientes de los dos haces $\angle{AOC}=\angle{AO’C}$, $\angle{COB}=\angle{CO’B}$, $\angle{DOB}=180-\angle{DO’B}$ y $\angle{AOD}=180-\angle{AO’D}$.

Por lo cual los ángulos formados serán iguales o suplementarios, por ello los senos de los ángulos serán iguales.

$\frac{sen(AOC)/sen(COB)}{sen(AOD)/sen(DOB)}=\frac{sen(AO’C)/sen(CO’B)}{sen(AO’D)/sen(DO’B)}$

$\Rightarrow O\{ABCD\}=k=k’=O’\{ABCD\}$

$\square$

Propiedad 2. Sea $C(O,r)$ una circunferencia en la cual se tienen cuatro puntos fijos $A,B,C,D$ por los cuales pasan tangentes por cada uno de estos y cortan la tangente en un punto variable $X$, entonces la razón cruzada de los cuatro puntos de intersección es una constante.

Es decir, $\{A’B’C’D’\}$ es constante independientemente de $X$.

Razón cruzada por la circunferencia propiedad 2

Demostración. Se tiene por teorema visto de razón que $\{A’B’C’D’\}=O\{A’B’C’D’\}$, entonces:

$O\{A’B’C’D’\}=\frac{sen(A’OC’)}{sen(C’OB’)}/\frac{sen(A’OD’)}{sen(D’OB’)}$

Ahora, como los lados correspondientes de los ángulos $C’OB’$ y $CXB$ son perpendiculares, entonces los senos de estos ángulos son iguales, esto ocurre de igual manera para los otros ángulos de los haces $O\{A’B’C’D’\}$ y $X\{ABCD\}$.

$\Rightarrow \frac{sen(A’OC’)}{sen(C’OB’)}/\frac{sen(A’OD’)}{sen(D’OB’)} = \frac{sen(AXC)}{sen(CXB)}/\frac{sen(AXD)}{sen(DXB)} $
$\Rightarrow O\{A’B’C’D’\} =X\{ABCD\}$

Observemos que esto ocurre para cualquier $X’$ entonces $X\{ABCD\}=X’\{ABCD\}$, y por ende se tiene $\{A’B’C’D’\}=O\{A’B’C’D’\}=X’\{ABCD\}$.
Por lo tanto, $\{A’B’C’D’\}=cte$ independientemente de $X$.

$\square$

Propiedad 3. Sea un haz el cual tiene su vértice fuera de una circunferencia $C(O,r)$ y la cual sus cuatro líneas cortan a la circunferencia en los pares de puntos $A,A’$, $B,B’$, $C,C’$ y $D,D’$. Si se tienen dos puntos distintos $E$ y $E’$ sobre la circunferencia, entonces las razones cruzadas de los haces $E\{ABCD\}$ y $E’\{A’B’C’D’\}$ son iguales.

Razón cruzada por la circunferencia propiedad 3

Demostración. Unamos los puntos $A,B,C,D$ a $A’$ y $A’,B’,C’,D’$ a $A$, esto nos dará las intersecciones de $AB’$ y $A’B$ en un punto $X$, $AC’$ y $A’C$ en un punto $y$, $AD’$ y $A’D$ en un punto $Z$, los cuales están en la polar del vértice $O$ del haz dado, por lo cual se tiene por propiedad 1 de razón cruzada en la circunferencia:

$E’\{ABCD\}=E’\{A’B’C’D’\}=A\{A’B’C’D’\}$

Por propiedad de razón cruzada:

$A\{A’B’C’D’\}=\{wxyz\}=A’\{wxyz\}=A’\{ABCD\}$

Y por propiedad 1 de razón cruzada en la circunferencia:

$A’\{ABCD\}=E\{ABCD\}$

Por lo tanto, $E’\{A’B’C’D’\}=E\{ABCD\}$ .

$\square$

Más adelante…

Ahora se abordará el tema de la regla de la falsa proposición.

Entradas relacionadas

Cálculo Diferencial e Integral II: Funciones integrables con finitas discontinuidades

Por Moisés Morales Déciga

Introducción

Hasta ahora, hemos hablado de funciones integrables en un intervalo cerrado, en términos de ciertas sumas superiores e inferiores. Vimos en la entrada de Propiedades de la integral que si una función es monótona o continua, entonces su integral siempre está definida. Ahora veremos qué sucede con las funciones que tienen discontinuidades. En esta entrada trataremos a las funciones que finitas discontinuidades. En la siguiente hablaremos de funciones con una infinidad de discontinuidades.

Breve repaso de integrabilidad

Recordemos que para determinar si una función acotada $f:\mathbb{R}\to \mathbb{R}$ es integrable en cierto intervalo $[a,b]$, debemos calcular ciertas sumas superiores e inferiores con respecto a una partición. Esto es tomar algunos puntos $x_0<\ldots<x_n$ en $[a,b]$, con $x_0=a$ y $x_n=b$. Escribimos $$P=\{ x_0, x_1, … , x_n \},$$

y decimos que $P$ genera los siguientes intervalos a los que llamamos celdas

$$[x_0,x_1],[x_1,x_2],…,[x_{n-1},x_n].$$

A $[x_{k-1},x_{k}]$ le llamamos la $k$-ésima celda de $P$, cuya longitud es $\Delta x_{k}=x_k-x_{k-1}$. Si $m_k$ es el ínfimo de los valores de $f$ en la $k$-ésima celda y $M_k$ es su supremo, entonces podemos definir respectivamente la suma inferior y superior como $$\underline{S}(f,P)=\sum_{k=1}^n m_k\Delta x_k \quad \text{y} \quad \overline{S}(f,P)=\sum_{k=1}^n M_k\Delta x_k.$$

La función $f$ es integrable cuando el ínfimo de las sumas superiores (tomado sobre todas las particiones) coindice con el supremos de las sumas inferiores. Vimos que esto es equivalente a pedir que para todo $\epsilon$ haya una partición en la que la suma superior y la inferior difieran menos que $\epsilon$ (a lo que llamamos el criterio de Riemann). Probamos varias otras propiedades de esta definición, pero una que será muy importante para esta entrada es la siguiente.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Sea $c$ cualquier valor entre $[a,b]$. Si la integral

$$\int \limits_{a}^{b} f(x) \ dx$$

existe, entonces las dos integrales

$$\int \limits_{a}^{c} f(x) \ dx, \int \limits_{c}^{b} f(x) \ dx$$

también existen. Y viceversa, si estas dos integrales existen, entonces la primera también.

Cuando las tres integrales existen, se cumple además la siguiente igualdad:

$$\int \limits_{a}^{b} f(x) \ dx = \int \limits_{a}^{c} f(x) \ dx \ + \int \limits_{c}^{b} f(x) \ dx .$$

Usaremos esta proposición en las siguientes secciones, pero necesitamos una versión un poco más versátil.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada y $n$ un entero positivo. Sea $P=\{x_0,\ldots,x_n\}$ una partición de $[a,b]$. Si la integral $$\int \limits_{a}^{b} f(x) \ dx$$ existe, entonces todas las integrales $$\int_{x_{k-1}}^{x_k} f(x)\, dx$$ para $k=1,\ldots,n$ existen. Y viceversa, si estas $n$ integrales existen, entonces la primera también. Cuando todas estas integrales existen, entonces $$\int \limits_{a}^{b} f(x) \ dx = \sum_{k=1} ^n \int_{x_{k-1}}^{x_k} f(x)\, dx.$$

La demostración de esta proposición no es difícil, pues se sigue de la proposición anterior y de una prueba inductiva. Por ello, la encontrarás como parte de los ejercicios.

Funciones escalonadas

Hablaremos de la integrabilidad de funciones escalonadas, para lo cual necesitaremos la siguiente definición.

Definición. Una función $f:\mathbb{R}\to \mathbb{R}$ es escalonada en el intervalo $[a,b]$, si existe una partición $P=\{ x_0, x_1, … , x_n\}$ del intervalo $[a,b]$, tal que $f$ es constante en cada subintervalo abierto de $P$. Es decir, para cada $k=1, 2, …, n$ existe un número real $s_k$ tal que:

$$f(x)=s_k, \quad \text{si} \quad x_{k-1} < x < x_k.$$

A las funciones escalonadas también se les conoce como funciones constantes a trozos.

Ejemplo. En algunos sistemas postales se deben poner estampillas en una carta para poderse enviar. La cantidad de estampillas que hay que poner está determinada por el peso de la carta. Supongamos que una estampilla cuesta $5$ pesos y que hay que poner una estampilla por cada $20g$ (o fracción) que pese la carta, hasta un máximo de $100g$.

Si el peso de la carta en gramos está en el intervalo $[0,20]$, entonces tienes que pagar $5$ pesos. Si está en el intervalo $(20,40]$, pagarás 10 pesos y así sucesivamente hasta que llegue a 100 gramos. Gráficamente, el costo de envío tendría el siguiente comportamiento (puedes dar clic en la imagen para verla a mayor escala).

Observa que en efecto parece ser que hay «escalones». Esta función es escalonada pues al dar la partición $P=\{0,20,40,60,80,100\}$, tenemos que la función es constante en cada intervalo abierto definido por la partición.

Si quisiéramos calcular la integral de esta función, ¿qué podríamos hacer? Podemos utilizar la proposición de separar la integral en intervalos que enunciamos arriba, usando la misma partición $P$. Como la función es constante en cada intervalo dado, entonces su integral existe. Así, la integral en todo el intervalo $[0,100]$ existirá y será la suma de las integrales en cada intervalo. Tendrás que encontrar el valor exacto como uno de los ejercicios.

$\triangle$

Integral para funciones escalonadas

Las funciones escalonadas en un cierto intervalo siempre son integrables, como lo afirma el siguiente resultado.

Teorema. Sea $f:\mathbb{R} \to \mathbb{R}$ una función. Si $f$ es escalonada en un intervalo $[a,b]$, entonces es integrable en $[a,b]$. Además, si la partición que muestra que es escalonada es $P=\{x_0,\ldots,x_n\}$, y para $x$ en el intervalo $[x_{k-1},x_k]$ (para $k=1,\ldots,n$) se cumple que $f(x)=s_k$, entonces se tiene que $$\int_a^b f(x)\, dx = \sum_{k=1}^n s_k (x_k-x_{k-1}).$$

El teorema nos dice entonces que el valor de la integral es la suma de los productos del valor $s_k$ (constante), por la longitud del $k$-ésimo intervalo. Esto tiene mucho sentido geométrico: cada uno de estos productos es el área de un rectángulo correspondiente a un «escalón». El teorema nos dice que el área buscada es la suma de las áreas de estos escalones.

Demostración. La demostración es consecuencia de la proposición para partir integrales en intervalos. Notemos que como $f$ es constante en cada intervalo $[x_{k-1},x_k]$ (para $k=1,\ldots,n$), entonces es integrable en dicho intervalo. En efecto, fijemos una $k\in \{1,\ldots,n\}$ y tomemos $Q=\{y_0,\ldots,y_m\}$ una partición de $[x_{k-1},x_k]$. En en este intervalo cualquier suma superior (o inferior) se hace tomando como supremo (o ínfimo) al valor constante $s_k$, de modo que:

\begin{align*}
\overline{S}(f,Q)&=\sum_{i=1}^m M_i \Delta y_i\\
&=\sum_{i=1}^m s_k \Delta y_i\\
&=s_k\sum_{i=1}^m \Delta y_i\\
&=s_k(x_k-x_{k-1}),\\
\underline{S}(f,Q)&= \sum_{i=1}^m m_i \Delta y_i \\
&=\sum_{i=1}^m s_k \Delta y_i\\
&=s_k\sum_{i=1}^m \Delta y_i\\
&=s_k (x_k – x_{k-1}).
\end{align*}

Así, el ínfimo de las particiones superiores y el supremo de las inferiores es $c_k(x_k-x_{k-1})$, por lo que la integral existe en cada intervalo $[x_{k-1},x_k]$ y es igual a $c_k (x_k – x_{k-1})$. Usando la proposición que enunciamos en la sección de recordatorio sobre partir la integral por intervalos, obtenemos

$$\int_a^b f(x)\, dx = \sum_{k=1}^n \int_{x_{k-1}}^{x_k} f(x)\, dx =\sum_{k=1}^n s_k (x_k-x_{k-1}),$$

como queríamos.

$\square$

Funciones continuas a trozos

Las funciones escalonadas son muy sencillas, pero las ideas que hemos discutido respaldan una cierta intuición de que para la integrabilidad «si la función se comporta bien en cada uno de una cantidad finita de intervalos, entonces se comporta bien en todo el intervalo». Esa idea se repite a continuación.

Definición. Sea $f:\mathbb{R}\to \mathbb{R}$. Diremos que $f$ es continua a trozos en el intervalo $[a,b]$ si existe una partición $P=\{x_0,\ldots,x_n\}$ de $[a,b]$ tal que $f$ es continua en cada intervalo $(x_{k-1},x_k)$ para $k=1,\ldots,n$.

Pareciera que estamos pidiendo continuidad en todo el intervalo $[a,b]$. Sin embargo, hay algunas excepciones. Por la manera en la que está escrita la definición, la función $f$ no necesariamente es continua en los puntos $x_1,x_2,\ldots,x_{n-1}$.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Si $f$ es continua a trozos en el intervalo $[a,b]$, entonces $f$ es integrable en $[a,b]$.

Demostración. Nos gustaría usar la proposición de separación de la integral por intervalos. Para ello, tomemos la partición $P=\{x_0,\ldots,x_n\}$ de $[a,b]$ tal que $f$ es continua en cada intervalo $(x_{k-1},x_k)$ para $k=1,\ldots,n$. Si $f$ fuera continua en cada intervalo cerrado $[x_{k-1},x_k]$, podríamos usar un resultado anterior para ver que es integrable en cada uno de estos intervalos, pero aquí tenemos una hipótesis un poco más débil, pues la continuidad es sólo en el abierto.

De cualquier manera, se puede ver que $f$ es integrable en cada intervalo cerrado $[x_{k-1},x_k]$. Para ello, fijemos $k$ y tomemos $\epsilon>0$. Como $f$ es acotada, tiene supremo $M$ e ínfimo $m$ en $[a,b]$. Si $M=m$, entonces $f$ es constante y no hay nada que hacer. Así, supongamos $M\neq m$ y tomemos una $\delta>0$ tal que $2\delta(M-m)< \frac{\epsilon}{2}$, y tal que $\delta<\frac{x_k-x_{k-1}}{2}$. La segunda condición nos dice que $[x_{k-1}+\delta,x_k-\delta]$ es no vacío. Como $f$ es continua en este intervalo cerrado, es integrable ahí. Por el criterio de Riemann, hay una partición $Q=\{y_1,\ldots,y_{l-1}\}$ de dicho intervalo tal que $$\overline{S}(f,Q)-\underline{S}(f,Q)<\frac{\epsilon}{2}.$$

Si a esta partición agregamos los puntos $y_0=x_{k-1}$ y $y_l=x_k$, entonces obtenemos una partición $Q’=\{y_0,\ldots,y_l\}$ la cual su primera y última celda tienen longitud $\delta$ y cumple

\begin{align*}
\overline{S}(f,Q’)-\underline{S}(f,Q’)&=(\overline{S}(f,Q)-\underline{S}(f,Q))+(M_1-m_1)\Delta y_1 + (M_l-m_l)\Delta y_l\\
&<\frac{\epsilon}{2}+ (M-m)\delta + (M-m)\delta\\
&=\frac{\epsilon}{2}+ 2(M-m)\delta\\
&<\frac{\epsilon}{2}+\frac{\epsilon}{2}\\
&=\epsilon.
\end{align*}

Así, hemos encontrado una partición $Q’$ de $[x_{k-1},x_k]$ donde las sumas superior e inferior difieren en menos de $\epsilon$. Por el criterio de Riemann, $f$ es integrable en ese intervalo, para cada $k=1,\ldots,n$. Concluimos la demostración usando nuevamente la proposición de separación de la integral en intervalos.

$\square$

Ejemplo. La siguiente función $$ f(x)= \left\{ \begin{array}{lcc}             x^2 &   si  & 0 \leq x \leq 2 \\             \\ x &  si & 2 < x < 3 \\             \\ -\frac{x^3}{36} +3 &  si  & 3 \leq x \leq 4.5             \end{array}   \right. $$

es integrable en el intervalo $[0,4.5]$. Tendrás que calcular su integral en los ejercicios.

$\triangle$

Funciones monótonas a trozos

Para esta discusión de funciones monótonas, vale la pena que tengas presente las definiciones de funciones crecientes y decrecientes, que puedes consultar en la entrada correspondiente del curso de Cálculo Diferencial e Integral I.

Definición. Una función $f:\mathbb{R}\to \mathbb{R}$ es monótona a trozos en el intervalo $[a,b]$ si existe una partición $P=\{x_0,\ldots,x_n\}$ de $[a,b]$ tal que $f$ es monótona en cada intervalo $(x_{k-1},x_k)$ para $k=1,\ldots,n$.

Podemos pensar cómo sería la gráfica de una función así. Tendría que estar formada por un número finito de trozos monótonos. Un ejemplo de ello son las funciones escalonadas (son por ejemplo, no crecientes a trozos). Un ejemplo un poco más interesante sería el de la siguiente figura.

Monótona por trozos

Como te imaginarás, las funciones monótonas a trozos también son integrables.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Si $f$ es monótona a trozos en el intervalo $[a,b]$, entonces $f$ es integrable en $[a,b]$.

Una vez más, la demostración usa la proposición de separación de la integral por intervalos. Pero nuevamente nos enfrentamos con una dificultad. Lo que hemos demostrado anteriormente es que si una función es monónona en un intervalo $[x_{k-1},x_k]$, entonces es integrable en dicho intervalo. ¿Pero si sólo tenemos monotonía en $(x_{k-1},x_k)$? Para atender esta dificultad, se tiene que hacer una adaptación similar a lo que hicimos en la demostración para funciones continuas a trozos. Los detalles quedan como parte de la tarea moral.

Más adelante…

En esta entrada analizamos funciones con una cantidad finita de discontinuidades. También hablamos de las funciones monótonas a trozos, que podrían tener una infinidad de discontinuidades, pero también ser integrables. En la siguiente entrada veremos qué hacer con la integrabilidad cuando tenemos una cantidad infinita de discontinuidades.

Tarea moral

  1. Calcula el valor de la integral de la función escalonada del servicio postal, con la partición dada.
  2. Integra la siguiente función: $$ f(x)= \left\{ \begin{array}{lcc}             x^2 &   si  & 0 \leq x \leq 2 \\             \\ x &  si & 2 < x < 3 \\             \\ -\frac{x^3}{36} +3 &  si  & 3 \leq x \leq 4.5             \end{array}   \right. $$
  1. Integra la siguiente función. Puedes usar fórmulas de integración que conozcas de cursos preuniversitarios, sin embargo, toma en cuenta que tu respuesta será un poco informal hasta que mostremos de dónde salen dichas fórmulas. $$ f(x)= \left\{ \begin{array}{lcc}             \sqrt x &   si  & 0 \leq x \leq 2 \\             \\ ln(x) &  si & 2 < x < 3 \\             \\ -\frac{x^2}{16} -x +5 &  si  & 3 \leq x \leq 4             \end{array}   \right. $$
  1. Demuestra por inducción la proposición de separación de la integral en intervalos que quedó pendiente en la sección de «Breve repaso de integrabilidad». Asegúrate de demostrar la ida y la vuelta.
  2. Sean $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ funciones acotadas.
    • Muestra que si $f$ y $g$ son funciones escalonadas en un intervalo $[a,b]$, entonces $f+g$ y $fg$ también son funciones escalonadas en $[a,b]$. Sugerencia. Usa como partición un refinamiento común a las particiones $P$ y $Q$ que muestran que $f$ y $g$ son escalonadas, respectivamente.
    • Muestra que si $f$ y $g$ son funciones continuas por trozos en un intervalo $[a,b]$, entonces $f+g$ y $fg$ también son funciones continuas por trozos en $[a,b]$.
    • Si $f$ y $g$ son funciones monótonas por trozos en un intervalo $[a,b]$, ¿será que $f+g$ y $fg$ también lo son? ¿Bajo qué condiciones de la monotonía sí sucede esto?
  3. Da un ejemplo de una función que sea monótona por trozos, pero que no sea continua por trozos.
  4. Demuestra la proposición de que las funciones monónotas a trozos son integrables.

Entradas relacionadas

1.10. BASE DE ESPACIOS VECTORIALES: obtención a partir de un conjunto linealmente independiente o generador

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

De cualquier subconjunto finito de nuestro espacio, podemos obtener un generador o un l.i. y cuando lo obtengamos podremos reducirlo o completarlo para obtener una base.

Teorema: Sea $V$ un $K$ – espacio vectorial de dimensión finita.
a) Todo conjunto generador finito o es una base o se puede reducir a una base.
b) Todo conjunto linealmente independiente o es una base o se puede completar a una base.

Demostración:

a) En la demostración de la proposición que se encuentra en la entrada anterior tomamos un conjunto generador finito $S$ de un espacio vectorial arbitrario y o bien es base o es linealmente dependiente y en ese caso recursivamente tomamos subconjuntos propios de $S$ hasta que uno de esos subconjuntos fuera base. Este método prueba que podemos reducir cualquier conjunto generador de $V$ para obtener una base.

b) Sea $S\subseteq V$ un conjunto l.i.
Ya sabemos que $S$ es finito por ser un subconjunto l.i. de un espacio $V$ de dimensión finita (ver la observación en la entrada anterior).

Caso 1. Si $\langle S \rangle = V$, entonces $S$ es base de $V$ por definición.

Caso 2. Si $\langle S \rangle \subsetneq V$, entonces existe $v_1\in V$ tal que $v_1\notin \langle S \rangle$. Por lo tanto, $ S \cup \{ v_1 \}$ es l.i.

Subaso 1. Si $\langle S \cup \{ v_1 \} \rangle = V$, entonces $S \cup \{ v_1 \}$ es base de $V$ por definición.

Subcaso 2. Si $\langle S \cup \{ v_1 \} \rangle \subsetneq V$, entonces existe $v_2\in V$ tal que $v_2\notin \langle S \cup \{ v_1 \} \rangle$ Por lo tanto, $ S \cup \{ v_1 \} \cup \{ v_2 \} $ es l.i.

Este proceso no es infinito porque los subconjuntos l.i de $V$ deben ser finitos, así que se detiene después de digamos $m$ pasos, en el momento en que obtenemos un conjunto que genera. El número $m$ es la cantidad de elementos de $V$ que tuvimos que agregar a $S$, entonces $\langle S \cup \{ v_1 \} \cup \{ v_2 \} \cup … \{ v_m \} \rangle$ es una base de $V$.

Corolario: Sea $V$ un $K$ – espacio vectorial tal que $dim_K V=n$.
a) Cualquier conjunto generador con $n$ elementos es una base de $V$.
b) Cualquier conjunto linealmente independiente con $n$ elementos es una base de $V$.

Demostración: Por definición de base tenemos que toda base $B$ de $V$ cumple que $|B|=dim_K V=n$. Es decir, toda base de $V$ tiene $n$ elementos.

a) Sea $S\subseteq V$ generador con $n$ elementos.
Por el teorema anterior $S$ es una base o se puede reducir a una base.
Pero reducir $S$ significaría quitar elementos y obtendríamos una base de $V$ con menos de $n$ elementos, lo que es una contradicción porque toda base de $V$ tiene $n$ elementos.
Por lo tanto $S$ es base.

b) Sea $S\subseteq V$ linealmente independiente.
Por el teorema anterior $S$ es una base o podemos completarlo a una base.
Pero completar $S$ significaría agregar elementos y obtendríamos una base de $V$ con más de $n$ elementos, lo que es una contradicción porque toda base de $V$ tiene $n$ elementos.
Por lo tanto $S$ es base.

Ejemplo

Sea $K=\mathbb{R}, V=\mathcal{M}_{2\times 2}(\mathbb{R})$.
Sea $W=\left\langle \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} , \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} \right\rangle$

Por construcción, $W$ es el subespacio generado por $X=\left\{\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}, \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} \right\}$
Encontremos un subconjunto de $X$ que sea base de $W$.

Observemos que $\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}-\begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $X$ es l.d. y como $\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}$, entonces $W=\langle X\rangle = \left\langle \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}, \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\rangle$

Veamos que $B=\left\{\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}, \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\}$ es l.i.

Sean $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$ tales que $\lambda_1\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}+\lambda_2\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\lambda_3\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.$

Esto implica que $\begin{pmatrix} \lambda_1 & \lambda_1+\lambda_2 \\ \lambda_3 & \lambda_2+\lambda_3 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $\lambda_1= \lambda_1+\lambda_2= \lambda_3=\lambda_2+\lambda_3=0$.
Por lo tanto, $\lambda_1=\lambda_2=\lambda_3=0$ y $B$ es l.i.

Como $\langle B\rangle=W$ y $B$ es l.i., entonces $B$ es una base y obtenemos que $dim_\mathbb{R}W=|B|=3.$

Teorema: Sean $V$ un $K$ – espacio vectorial de dimensión finita y $W$ un subespacio de $V$. Entonces se cumple lo siguiente:

a) $W$ es de dimensión finita.
b) Toda base de $W$ o es una base de $V$ o se puede completar a una base de $V$.
c) $dim_KW\leq dim_KV$.
d) Si $dim_KW=dim_KV$, entonces $W=V$.

Demostración: Analicemos cada inciso por separado:

a) Veamos que $W$ es de dimensión finita probando que tiene una base finita.

Si $W=\{\theta_V\}$ entonces $\emptyset$ es una base finita de $V$.

Supongamos que $\{\theta_V\}\subsetneq W$, consideremos $w_1\in W\setminus \{\theta_V\} $, notemos que $\{w_1\}$ es l.i. ya que $w_1\neq \theta_V$. Si $\{w_1\}$ genera a $W$, entonces es una base finita de $W$. Si por el contrario $\{w_1\}$ no genera a $W$ tendríamos que $\langle w_1\rangle\subsetneq W$ y podemos considerar $w_2\in W\setminus \langle w_1\rangle$. Debido a la elección de $w_2$ sabemos que $\{w_1, w_2\}$ es l.i. Así, si $\{w_1, w_2\}$ genera a $W$, entonces es una base finita de $W$ y si no elegimos $w_3\in W\setminus \langle w_1,w_2\rangle$.

Continuando de este modo obtenemos subconjuntos de $W$, y por lo tanto de $V$, linealmente independientes. El proceso se detiene después de un número finito de pasos ya que al ser $V$ de dimensión finita no existen conjuntos en $V$ linealmente independientes infinitos y se detiene en el momento en que el subconjunto obtenido genera a $W$. Entonces el proceso acaba después de digamos $t$ pasos obteniendo un subconjunto $\{w_1, \dots ,w_t\}$ de $W$ linealmente independiente que genera a $W$, siendo así una base finita de $W$.

b) Sea $B$ una base de $W$.
Entonces $B$ es un subconjunto l.i. en $V$ y por el teorema anterior o es una base de $V$ o se puede completar a una base de $V$.

c) Sea $B$ una base de $W$.
Por el inciso anterior tenemos $B$ es una base de $V$ o se puede completar para obtener una base de $V$, es decir, existe $A\subseteq V$ tal que $B\cup A$ es una base de $V$. Así,
$$dim_KW=|B|\leq|B\cup A|=dim_KV.$$
Por lo tanto, $dim_KW\leq\dim_KV$.

d) Supongamos que $dim_KW=\dim_KV=n$
Sea $B$ una base de $W$.
Entonces $B$ es un l.i. en $V$ con $n$ elementos. Por el corolario anterior tenemos que $B$ es una base de $V$.
Así, $W=\langle B\rangle =V$ y por lo tanto, $W=V$

Tarea Moral

Más adelante…

Veremos un nuevo concepto: Suma y suma directa de subespacios vectoriales.
¿Qué es? ¿Qué estructura tiene? ¿Dónde vive? ¿Qué relación tiene la suma de dos subespacios con sus uniones?

Entradas relacionadas

1.9. BASE, DIMENSIÓN Y ESPACIO DE DIMENSIÓN (IN)FINITA: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Hemos estudiado a los conjuntos generadores ya los conjuntos linealmente independientes. Los conjuntos generadores son útiles porque nos permiten describir a todo vector del espacio en términos sólo de los vectores del conjunto generador. Por otro lado los conjuntos linealmente independientes son importante porque no tienen vectores que se escriban como combinación lineal de los demás por lo que intuitivamente no contienen información redundante. Será conveniente entonces considerar conjuntos de vectores que sean generadores y linealmente independientes al mismo tiempo y a éstos les llamaremos bases. Además la cardinalidad de un conjunto que cumpla ambas características se vuelve relevante.

De acuerdo a lo que hemos observado en $\mathbb{R}^3$ sabemos que sucede lo siguiente:
1) De todo subconjunto linealmente dependiente que genere podemos encontrar un subconjunto propio linealmente independiente que siga generando.
2) A todo subconjunto de $V$ linealmente independiente podemos agregarle elementos de $V$ hasta crear un conjunto generador de $V$ que siga siendo linealmente independiente.

Para conseguir un conjunto l.i. necesitamos en ocasiones hacer el original «más pequeño» y para conseguir un generador necesitamos a veces hacer el original «más grande».

Esta situación ocurre de manera más general y nos permite justificar la existencia de una base para espacios de dimensión finita.
Estudiaremos a continuación lo que es una base: un conjunto lo «suficientemente grande» para generar al espacio y lo «suficientemente pequeño» para ser linealmente independiente.

BASE DE UN ESPACIO VECTORIAL

Definición: Sean $V$ un $K$ – espacio vectorial, $B\subseteq V$. Decimos que $B$ es una base de $V$ si genera a $V$ y es linealmente independiente. Además, decimos que $V$ es de dimensión finita si tiene una base finita.

Ejemplos

  • Sea $K$ un campo.
    Consideremos las $n$-adas $e_1=(1_K,0_K,0_K,0_K,…,0_K,0_K), e_2=(0_K,1_K,0_K,0_K,…,0_K,0_K),$ $…,e_n=(0_K,0_K,0_K,0_K,…,0_K,1_K)$. El conjunto $\{ e_1,e_2,…,e_n\}$ es una base de $K^n$.

Justificación. Como $B =\{e_1,e_2,…,e_n\}$ es l.i., sólo falta ver que $\langle B\rangle =K^n$.
Sabemos que $K^n$ es un espacio vectorial y cada $e_i\in K^n$, entonces $\langle B\rangle\subseteq K^n$.
Ahora bien, sea $(x_1,x_2,…,x_n)\in K^n$.
Es claro que $(x_1,x_2,…,x_n)=x_1e_1+x_2e_2+…+x_ne_n\in\langle B\rangle$.
De donde $K^n\subseteq\langle B\rangle$.
$\therefore\langle B\rangle =K^n.$

  • Sea $W=\{(x,y,z)\in\mathbb{R}^3|x-y+2z=0\}$ que es un subespacio de $\mathbb{R}^3$.
    Tenemos que $1-1+2(0)=0$ y $-2-0+2(1)=0$, entonces $(1,1,0),(-2,0,1)\in W$.
    Resulta que $\{(1,1,0),(-2,0,1)\}$ es una base de $W$.

Justificación. Primero veamos que $B =\{(1,1,0),(-2,0,1)\}$ es l.i.
Sean $\lambda_1,\lambda_2\in\mathbb{R}$ tales que $\lambda_1(1,1,0)+\lambda_2(-2,0,1)=(0,0,0)$.
Entonces, $(\lambda_1-2\lambda_2,\lambda_1,\lambda_2)=(0,0,0)$.
Inmediatamente se concluye de lo anterior que $\lambda_1=\lambda_2=0$.
$\therefore B$ es l.i.
Como $W$ es un subespacio y $(1,1,0),(-2,0,1)\in W$, entonces $\langle B\rangle\subseteq W$.
Ahora bien, sea $(x,y,z)\in W$.
Por definición de $W$ tenemos que $x=y-2z$, y en consecuencia $(x,y,z)=(y-2z,y,z)$.
Es claro que $(x,y,z)=(y-2z,y,z)=y(1,1,0)+z(-2,0,1)\in\langle B\rangle$.
Así, $W\subseteq\langle B\rangle$.
$\therefore\langle B\rangle.$

Proposición: Sea $V$ un $K$ – espacio vectorial. Si $V$ tiene un conjunto generador finito, entonces $V$ tiene una base finita.

Demostración: Sea $S=\{v_1,v_2,…,v_n\}$ un conjunto generador finito de $V$.

Caso 1. $S$ es l.i.
Entonces $S$ es una base finita de $V$.

Caso 2. $S$ es l.d.
Por el lema de dependencia lineal existe $v_{j_1}\in S$ tal que $\langle S\setminus\{v_{j_1}\}\rangle =\langle S\rangle $. Así, podemos definir el siguiente conjunto:
$S_1=S\setminus\{v_{j_1}\}$ donde $j_1\in\{1,2,…,n\}$ y $\langle S\setminus\{v_{j_1}\}\rangle =\langle S\rangle =V.$
Si $S_1$ es l.i., entonces $S_1$ es una base finita de $V$.
Si $S_1$ es l.d., entonces repetimos el proceso. Observemos que de esta forma vamos encontrando $S_1, S_2, \dots$ subconjuntos de $S$ con $n-1,n-2,\dots$ elementos respectivamente, tales que $\langle S_i \rangle =\langle S\rangle =V$ para toda $i=1,2,\dots$. Este proceso es finito ya que $S$ lo es y termina después de a lo más $n$ pasos. El proceso termina en el momento en que encontramos un $S_t$ con $t\in\{1,\dots ,n\}$ subconjunto de $S$ tal que $S_t$ es l.i. y por la forma en que se construyeron los subconjuntos de $S$ en este proceso se tiene además que $\langle S_t \rangle =\langle S\rangle =V$.
Tenemos entonces que $S_t$ es una base finita de $V$.

Corolario: Sea $V$ un $K$ – espacio vectorial. $V$ tiene un conjunto generador finito si y sólo si $V$ es de dimensión finita.

Demostración: $\Rightarrow )$ Se cumple por el teorema anterior y la definición de espacio vectorial de dimensión finita.

$\Leftarrow )$ Por definición de espacio vectorial de dimensión finita, existe una base finita, es decir, un conjunto l.i. generador de cardinalidad finita, en particular esta base es un conjunto generador finito.

Obs. Si un $V$ espacio vectorial es de dimensión finita, entonces todo conjunto l.i. es finito.

Teorema: Sea $V$ un $K$ – espacio vectorial de dimensión finita. Todas las bases de $V$ son finitas y tienen el mismo número de elementos.

Demostración: Por la observación previa tenemos que todas las bases de $V$ son finitas, pues en particular son conjuntos l.i. Veamos que todas tienen la misma cardinalidad.

Sean $B_1$ y $B_2$ bases de $V$, que son finitas por lo antes mencionado.

Por definición de bases tenemos:
a) $B_1$ es l.i., b) $B_1$ es generador de $V$, c) $B_2$ es l.i., d) $B_2$ es generador de $V$.

Recordando la relación entre conjuntos linealmente independientes y conjuntos generadores tenemos que:
a) y d) implican que $|B_1|\leq |B_2|$,
b) y c) implican que $|B_2|\leq |B_1|$.
$\therefore |B_1|=|B_2|.$

A lo largo de esta entrada hemos logrado concluir que, si bien las bases no son únicas, su cardinalidad (en el caso de espacios de dimensión finita) sí es única.

DIMENSIÓN DE UN ESPACIO VECTORIAL

Definición: Sea $V$ un $K$ – espacio vectorial de dimensión finita. Decimos que la dimensión de $V$ es la cardinalidad de cualquiera de sus bases. Se denota como $dim_K V$.

Ejemplos

  • Sea $W=\langle 2-x+5x^2,3-2x^2,7-2x+8x^2\rangle\leq\mathcal{P}_2[\mathbb{R}]$.
    Tenemos que $dim_{\mathbb{R}}W=2$.

Justificación. Primero describamos los elementos de $V$ como combinaciones lineales de los vectores del conjunto generador.
Sea $a+bx+cx^2 \in V$. Entonces existen $\lambda,\mu,\nu\in\mathbb{R}$ tales que $\lambda (2-x+5x^2) + \mu (3-2x^2) + \nu (7-2x+8x^2)=a+bx+cx^2$
Entonces $(2\lambda + 3\mu +7\nu) + (-\lambda – 2\nu)x + (5\lambda – 2\mu + 8\nu)x^2=a+bx+cx^2$. Por lo tanto:
\begin{align*}2\lambda + 3\mu +7\nu&=a\\
-\lambda – 2\nu&=b\\
5\lambda – 2\mu + 8\nu&=c.\end{align*}

Tenemos entonces:

$\left( \begin{array}{rrr|r} 2 & 3 & 7 & a \\ -1 & 0 & -2 & b\\
5 & -2 & 8 & c \end{array} \right)$$~\left( \begin{array}{rrr|r} -1 & 0 & -2 & b \\ 0 & 3 & 3 & a+2b\\ 0 & -2 & -2 & c+5b \end{array} \right)$$~\left( \begin{array}{rrr|r} -1 & 0 & -2 & b \\ 0 & 1 & 1 & \frac{1}{3}(a+2b)\\ 0 & 1 & 1 & -\frac{1}{2}(c+5b) \end{array} \right)$$~\left( \begin{array}{rrr|r} -1 & 0 & -2 & b \\ 0 & 1 & 1 & \frac{1}{3}(a+2b)\\ 0 & 0 & 0 & -\frac{1}{2}(c+5b) -\frac{1}{3}(a+2b) \end{array} \right)$

Así, $0=-\frac{1}{2}(c+5b) -\frac{1}{3}(a+2b)$.
Y esto ocurre si y sólo si $0=2a+19b+3c$.
Por lo tanto, $a=-\frac{19}{2}b-\frac{3}{2}c$.

$W=\{ a+bx+cx^2 \in \mathcal{P}_2(\mathbb{R})| a=-\frac{19}{2}b-\frac{3}{2}c \}$$=\{ (-\frac{19}{2}b-\frac{3}{2}c)+bx+cx^2\in \mathcal{P}_2(\mathbb{R})| b,c\in\mathbb{R} \}$$=\{ b(-19+x)+c(-1+x^2)|b,c\in\mathbb{R} \}$$=\langle -19+x,-1+x^2 \rangle$.

Se puede verificar que $\{ -19+x,-1+x^2 \}$ es linealmente independiente y claramente genera a $W$, entonces es una base de $W$. Por lo tanto, $dim_{\mathbb{R}}W=2$.

Tarea Moral

Más adelante…

Partiendo de cualquier espacio vectorial de dimensión finita $V$, veremos cómo obtener bases. Además analizaremos qué relación hay entre: a) la dimensión de $V$ y las dimensiones de sus subespacios y b) la base de $V$ y las bases de sus subespacios.

Entradas relacionadas