Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Compacidad en espacios métricos

Por Lizbeth Fernández Villegas

Introducción

En esta sección mostraremos los fundamentos de uno de los términos más importantes de las matemáticas. Una descripción histórica la presenta Yanina del Carmen Rodríguez Reyes, en la tesis «Desarrollo histórico-pedagógico del concepto de compacidad» en la Universidad de Panamá, República de Panamá 2018.

«La compacidad surgió de uno de los periodos más productivos de la actividad matemática. En la segunda mitad del siglo XIX en Europa las matemáticas avanzadas comenzaron a tomar la forma que conocemos actualmente. Muchos matemáticos, incluyendo Weierstrass, Hausdorff y Dedekind estaban preocupados por los fundamentos de las matemáticas y comenzaron a hacer muchas rigurosidades de las ideas que durante siglos habían sido dadas por sentado. Mientras que algunos de los trabajos del siglo XIX se pueden remontar a las preocupaciones matemáticas de los antiguos griegos, el nivel de rigor y la abstracción refleja una revolución en el pensamiento matemático. Fréchet fue influenciado por muchos contemporáneos y predecesores pero parece que merece el crédito como el padre de la compacidad. Fue Fréchet quien dio el nombre al concepto en un documento que conduce a su tesis doctoral de 1906. Fréchet también define por primera vez espacios métricos aunque no usando ese término y de hecho incursiona en el análisis funcional proporcionando así un contexto para el cual la importancia de la compacidad se hizo indiscutible”. (Rodríguez, 2018).

Conjuntos compactos

Sea $(X,d)$ un espacio métrico y $A \subset X$. Podemos pensar en «cubrir» este subconjunto a través de otros a modo de la siguiente imagen, es decir, conjuntos cuya unión logre contener a $A.$

$A$ cubierto por conjuntos

La cantidad de subconjuntos que forman parte de la cubierta elegida puede ser finita, numerable o no numerable, entonces, para ser formales, cada subconjunto se puede indexar con los elementos de algún conjunto $\mathcal{I}$. Así tenemos la siguiente:

Definición cubierta de un conjunto: Sea $A \subset X$. Decimos que una familia de subconjuntos $\mathcal{C} = \{A_{i} \subset X : i \in \mathcal{I} \}$ es una cubierta de $A$ en $X$ si
$$A \subset \underset{i \in \mathcal{I}}{\cup} \, A_{i} \,$$

Cubierta de $A$

Definición. Cubierta abierta: Si para toda $i \in \mathcal{I}$ se cumple que el conjunto $A_i$ es abierto, diremos que $\mathcal{C}$ es una cubierta abierta de $A$ en $X$.

Cubierta abierta de $A$

Definición. Subcubierta: Si tomamos conjuntos de una cubierta $\mathcal{C}$, digamos, una familia $\mathcal{C’} \subset \mathcal{C} \, $ y $\, \mathcal{C’}$ es también una cubierta de $A$ diremos que $\mathcal{C’}$ es una subcubierta de $\mathcal{C}$.

Los conjuntos en rosa son una subcubierta de $\mathcal{C}$

Definición. Conjunto compacto: Sea $A$ un conjunto de un espacio métrico $(X,d)$. Decimos que $A$ es un conjunto compacto si dada cualquier cubierta abierta $\mathcal{C}$ de $A$, existe una subcubierta finita de $\mathcal{C}.$

El concepto de compacidad suele tomar mayor relevancia cuando en un espacio topológico se considera el subespacio generado por el conjunto compacto. En estos casos se le denomina espacio topológico compacto.

Subcubierta abierta finita

Según la definición, para demostrar que un conjunto $A$ no es compacto, bastará con identificar una cubierta de la cual no sea posible extraer una subcubierta finita (conjuntos cuya unión logre contener el conjunto $A$).

Ejemplos

El conjunto $\mathbb{R}$ con la métrica euclidiana no es compacto.

Demostración:
El conjunto de intervalos abiertos con centro en $0$ y radio $n, \, n \in \mathbb{N}$ es decir, $\mathcal{C}=\{(-n,n):n \in \mathbb{N}\}$ es una cubierta abierta de $\mathbb{R}.$ Pero si consideramos un subconjunto finito $\mathcal{C’} \subset \mathcal{C}$ entonces $\mathcal{C’} = \{(-k_1,k_1),(-k_2,k_2),…,(-k_m,k_m)\}$ con $k_1,k_2,…,k_m \in \mathbb{N}.$ Sea $k=máx\{k_1,k_2,…,k_m\}$ podemos ver que la unión de los elementos en $\mathcal{C’}$ es el intervalo $(-k,k)$ que claramente, no contiene a $\mathbb{R}$, por lo tanto $\mathbb{R}$ no es compacto.

Representación de intervalos de la subcubierta finita

Un espacio discreto es compacto si y solo si es finito

Considera un conjunto $X$ con la métrica discreta. Entonces, para cada $x \in X$ el conjunto $\{ x \}$ es abierto, así $\mathcal{C}=\{\{x\}:x \in X\}$ es una cubierta abierta de $X.$ Un subconjunto finito de esta cubierta estaría dada por $\mathcal{C’}=\{\{x_1\},\{x_2\},…,\{x_k\}\}, \, k \in \mathbb{N}$ cuya unión de conjuntos contiene $k$ elementos. Por lo tanto, si $X$ es infinito no es compacto con la métrica discreta. La prueba de que si $X$ es finito entonces es compacto se deja como ejercicio al final de esta sección.

Si $(X,d_{disc})$ es infinito no hay subcubierta finita

Proposición. Si $A$ es un conjunto compacto en $(X,d)$, entonces toda sucesión en $A$ tiene una subsucesión que converge en $A$.

Demostración:
Sea $A \subset X$ compacto y $(x_n)_{n \in \mathbb{N}} \,$ una sucesión en $A$. Demostraremos primero que existe un punto $x \in A$ tal que toda bola abierta con centro en $x$ tiene una subsucesión de $(x_n)$. Supón por el contrario que no es así, es decir, para todo punto $x \in A$ existe $\varepsilon_x >0$ y existe $k_x \in \mathbb{N}$ tal que para toda $k \geq k_x, \, x_k \, \notin \, B(x,\varepsilon_x).$

No hay subsucesión dentro de la bola abierta pues todos los últimos términos de la sucesión están fuera de ella.


El conjunto de todas estas bolas abiertas, $\{B(x, \varepsilon_x): x \in A\}$ es una cubierta abierta del conjunto $A$. Como $A$ es compacto, existe $\{B(x_1, \varepsilon_{x_1}),B(x_2, \varepsilon_{x_2}),…,B(x_m, \varepsilon_{x_m})\}$ subcubierta finita. Sea $l =: máx \{k_{x_1},k_{x_2},…,k_{x_3}$ entonces para toda $k \geq l,$ el término $x_k \notin \underset{1\leq i \leq m}{\cup} \, B(x_i, \varepsilon_{x_i}) \supset A,$ en consecuencia $x _k \notin A$ lo cual es una contradicción, pues todos los términos de la sucesión están en $A$, por lo tanto existe un punto $x \in A$ tal que toda bola abierta con centro en $x$ tiene una subsucesión de $(x_n)$.

Cubierta finita

Sea $x \in A$ dicho punto. Por la propiedad mencionada es posible seleccionar un punto $x_{k_j}$ de la sucesión que esté en cada bola $B(x,\frac{1}{j}), \, j \in \mathbb{N}$ tal que no se repita con los anteriores y conserven el orden de la sucesión original. Por lo tanto $(x_{k_j})$ es subsucesión de $(x_n)$ y $x_{k_{j}} \to x$.
Así probamos que toda sucesión de un conjunto compacto tiene una subsucesión que converge en él.


Proposición: Si $A \subset X$ es compacto entonces es cerrado y acotado.

Demostración:
Recordemos que un conjunto es cerrado si y solo si es igual a su cerradura. Como $A \subset \overline{A}$ basta demostrar que $\overline{A} \subset A$. Sea $x \in \overline{A}$ entonces existe una sucesión $(x_n)_{n \in \mathbb{N}}$ en $A$ que converge en $x$ (Visto en Convergencia). Pero por la proposición que acabamos de ver, $(x_n)$ tiene una subsucesión que converge en $A$. Por la unicidad del límite, ese punto de convergencia es $x$, por lo tanto $x \in A$.

La subsucesión converge en $x$. Por lo tanto $x \in A$

Para probar que $A$ es acotado notemos lo siguiente. Si fijamos un punto $x_0 \in X$, podemos poner cada $x \in A$ en una bola abierta con centro en $x_0$ y radio mayor a la distancia $d(x,x_0).$ Elegimos el radio como un número natural $k \,$ suficientemente grande, tal que $d(x,x_0)<k.$ Entonces $x \in B(x_0,k).$

Cada punto de $A$ está en una bola abierta de $x_0$

En consecuencia el conjunto de bolas abiertas $\{B(x_0,n):n \in \mathbb{N}\}$ es una cubierta abierta del conjunto $A$ que, como es compacto, tiene una subcubierta finita $\{B(x_0,n_1), B(x_0,n_2),…,B(x_0,n_m)\}$. Sea $M =: máx \{n_1,n_2,…,n_m\}$ entonces $A \subset B(x_0,M)$ por lo tanto $A$ es acotado.

$A \subset B(x_0,M)$

Ejemplos

A continuación recordamos un resultado conocido de los cursos de cálculo:

Teorema de Heine Borel: Considera $\mathbb{R}^n$ con la métrica euclidiana y $A \subset \mathbb{R}^n.$ Entonces $A$ es un conjunto compacto si y solo si es cerrado y acotado.

Conjuntos compactos en $\mathbb{R}^3$

No obstante, hay espacios métricos en los que no es suficiente que un conjunto sea cerrado y acotado para que sea compacto:

Ejercicio: Considera el conjunto $\mathbb{R}$ y $d$ definida como $d(x,y)=min\{1, |x-y|\}, \, x,y \in \mathbb{R}$ entonces tenemos lo siguiente:

  1. $d$ es una métrica en $\mathbb{R}.$
  2. $d$ induce en $\mathbb{R}$ los mismos conjuntos abiertos que la métrica usual. Entonces un conjunto es compacto en $(\mathbb{R},d)$ si y solo si lo es en $(\mathbb{R},d_2).$
  3. El conjunto $[0,\infty)$ es cerrado y acotado en $(\mathbb{R},d),$ pero no es compacto, pues no lo es en $(\mathbb{R},d_2).$

Antes de finalizar con esta sección, veamos una propiedad que hereda la compacidad a un subconjunto de un conjunto compacto:

Proposición: Un subconjunto cerrado $B$ de un conjunto compacto $A$ también es compacto.

Demostración:

Sea $B \subset A$ con $B$ cerrado y $A$ compacto. Considera $\mathcal{C} = \{B_{i} \subset X : i \in \mathcal{I} \}$ una cubierta abierta de $B$.

Representación de una cubierta abierta de $B$

Como $B$ es cerrado, entonces el conjunto $X \setminus B$ es abierto.

$X \setminus B$ es abierto

Dado que $B \subset A,$ si agregamos $X \setminus B$ a la cubierta de $B$ tenemos que $\mathcal{C} \cup \{X \setminus B\}$ es una cubierta abierta de $A.$

$\mathcal{C} \cup \{X \setminus B\}$ es una cubierta abierta de $A$


Al ser el conjunto $A$ compacto, se sigue que esta cubierta tiene una subcubierta finita que satisface:
$$B \subset A \subset B_{i_1} \cup…\cup B_{i_n} \cup (X \setminus A).$$ con $n \in \mathbb{N}.$

Por lo tanto $\mathcal{C’}=B_{i_1},…,B_{i_n}$ es una subcubierta finita de $\mathcal{C}$ lo cual concluye que $B$ es compacto.

La cubierta abierta de $B$ tiene una subcubierta finita

Más adelante…

Conoceremos los efectos que producen algunas funciones al ser aplicadas en conjuntos compactos. ¿Será posible conservar la compacidad al enviar conjuntos de un espacio métrico a otro? ¿Qué propiedades tendrá la imagen de una función continua?

Tarea moral

  1. Resuelve el ejercicio planteado arriba.
  2. Prueba que un espacio discreto finito es compacto. ¿Es necesario que tenga asociada la métrica discreta?
  3. Demuestra que cada subconjunto infinito de un conjunto compacto posee un punto de acumulación en el conjunto compacto.
  4. Da un ejemplo de un conjunto $A$ que sea cerrado pero no acotado y una cubierta abierta y numerable de $A$ que no tenga una subcubierta finita.
  5. Prueba que si $A$ es cerrado y $B$ es compacto, entonces $A \cap B$ es compacto.
  6. Prueba que la intersección arbitraria de conjuntos compactos es compacta.
  7. Demuestra que una sucesión de Cauchy en un conjunto compacto es convergente.
  8. Sea $(X,d)$ un espacio métrico y $A \subset X$ un conjunto compacto. Demuestra que el subespacio $(A,d)$ es completo.

Enlaces

Cálculo Diferencial e Integral II: La integral como función del límite superior, integral indefinida.

Por Moisés Morales Déciga

Introducción:

Integral Indefinida

En la unidad anterior, el valor de la integral depende del intervalo de integración o, de forma análoga, de los límites de integración $[a,b]$.

Ahora, consideremos el límite inferior como un número fijo $\alpha$, que no es un número particular, es decir, que puede ser cualquiera. Y el límite superior será una variable denotada con $x$. Teniendo la siguiente notación.

$$ \phi (x) =\int \limits_{\alpha}^{x} f(u) ~ du.$$

Así que la función $\phi(x)$ se denomina como una la integral indefinida de la función $f(x)$.

De forma que la función $\phi(x)$, es una función que depende de $x$.

Anteriormente solo se concebía la integral como un número. Ahora podemos mostrar que la integral, es una función que depende de una variable independiente.

De manera análoga, se puede hacer que el límite inferior sea variable y, por lo tanto, que ambos límites puedan variables o dependan de otra función.

De una forma geométrica, se puede ver de la siguiente manera.

Así que la integral indefinida $ \phi (x) $ está dada por el área sombreada en rojo, que se encuentra delimitada por la curva en azul $y=f(u)$ dentro del intervalo $[\alpha , x]$.

Entonces, hasta que no se determine un valor para $x$, el valor de la integral irá cambiando.

Se debe recordar que el signo del área se determina por el cuadrante en el que se encuentra, como se vio en la Unidad 1.

Observación: Cualquier integral definida es un caso particular de una integral indefinida $\phi(x)$.

Las reglas básicas para la integral que se vieron, tienen su generalización con integrales indefinidas, por ejemplo, la suma:

$$\int \limits_a^b f(u) \ du = \int \limits_a^\alpha f(u) \ du + \int \limits_\alpha^b f(u) \ du. $$

$$= – \int \limits_\alpha^a f(u) \ du + \int \limits_\alpha^b f(u) \ du = \phi(b) \ – \ \phi(a) . $$

De esta forma queda una integral definida en términos de integrales indefinidas.

Así, se puede expresar cualquier integral indefinida con límite inferior $\alpha’$ en términos de $\phi(x)$:

$$ \int \limits_{\alpha’}^x f(u) \ du = \phi(x) \ – \ \phi({\alpha’}) . $$

En donde $\phi({\alpha’}) $ es una constante.

Por lo que se puede concluir que cualquier integral definida difiere de la integral indefinida $\phi(x)$ por una constante.

$$ \int \limits^x f(u) \ du = \phi(x) + C.$$

Donde a $C$ se le conoce como la constante de integración.

Continuidad de la integral indefinida

Sea $f(x)$ función continua en el intervalo $[a,b]$ y sea $\alpha$ un punto dentro del intervalo, i.e. $\alpha \in [a,b]$. Entonces, la integral indefinida:

$$\phi(x) = \int \limits_\alpha^x f(u) ~ du.$$

Es una función que depende de la variable $x$, la cual está definida en el intervalo.

Teorema: La integral indefinida $\phi(x)$ de una función $f(x)$ continua, es asimismo, continua.

Demostración:

Sea $x, y$ dos valores dentro del intervalo donde la función es continua.

Por el teorema del valor medio se tiene que:

$$\phi(y) \ – \ \phi(x) = \int \limits_x^y f(u) \ du = f(\xi) (y \ – \ x).$$

Donde $\xi$ es algún valor en el intervalo con puntos extremos $x$ & $y$.

Ahora, por la continuidad de $f$, obtenemos lo siguiente:

$$\lim_{y \rightarrow x} \phi(y) = \lim_{y \rightarrow x} [\phi(x) + f(\xi) (y \ – \ x) ]. $$

Separamos en límites.

$$ = \ \lim_{y \rightarrow x} \phi(x) + \lim_{y \rightarrow x} f(\xi) (y \ – \ x) . $$

Sacamos los factores que no dependen del límite.

$$ \Rightarrow = \ \phi(x) \ + \ f(\xi) ~\\ \lim_{y \rightarrow x} (y \ – \ x) . $$

$$ = \ \phi(x) + f(\xi) \cdot 0.$$

$$\therefore \lim_{y \rightarrow x} \phi(y) = \phi(x).$$

Lo que muestra que $\phi$ es continua.

$\square$

Si lo vemos dentro de cualquier intervalo cerrado, obtenemos lo siguiente.

$$|\phi(y) \ – \ \phi(x)| \leq M \ |y \ – \ x|.$$

donde $M$ es el máximo de $|f|$ en el intervalo, de modo que $\phi$ es aún Lipschitz-continua.

Si quieres recordar continuidad, sigue este link.

$\square$

Anteriormente se mencionó la siguiente ecuación.

$\phi(y) \ – \ \phi(x) = \int \limits_x^y f(u) \ du = f(\xi) (y \ – \ x).$

Observación: Si $f(x)$ es una función positiva en todo el intervalo $[x,y]$, se obtiene que $\phi(x)$ es una función creciente.

$$\phi(y) = f(\xi) (y \ – \ x) > \phi(x).$$

Más adelante…

Teniendo definidas las integrales indefinidas, podremos revisar las propiedades que estas integrales tienen y teoremas que son de alta importancia, tanto en cálculo como en las demás asignaturas.

Este paso de trabajar con integrales indefinidas nos da una mayor libertad al momento de trabajar con funciones. Anteriormente, al trabajar con integrales definidas, teníamos plena conciencia de que punto a que punto se necesitaba integrar, lo que, al momento de evaluar o de integral solo encontramos un número; pero ahora que trabajamos con integrales indefinidas.

Tarea moral

  1. P1
  2. P2
  3. P3
  4. P4
  5. P5

Entradas relacionadas

1.8. CONJUNTOS LINEALMENTE (IN)DEPENDIENTES Y CONJUNTOS GENERADORES: relación entre sí

Por Jennyfer Paulina Bennetts Castillo

Lema (Dependencia lineal): Sean $V$ un $K$ – espacio vectorial y $v_1,v_2,…,v_m$ una lista de vectores en $V$. Si $v_1,v_2,…,v_m$ es una lista l.d. y $v_1\not=\theta_V$, entonces existe $j\in\{2,3,…,m\}$ tal que
a) $v_j\in\langle\{v_1,v_2,…,v_{j-1}\}\rangle$ y
b) $\langle\{v_1,v_2,…,\widehat{v_j},…,v_m\}\rangle =\langle\{v_1,v_2,…,v_m\}\rangle$

Nota: $\langle\{v_1,v_2,…,v_{j-1},v_{j+1},…,v_m\}\rangle$ lo denotamos por $\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle$

Demostración: Sean $V$ un $K$ – espacio vectorial y $v_1,v_2,…,v_m$ una lista l.d. con $v_1\not=\theta_V$.

(*) Como la lista es l.d., entonces existen $\lambda_1,\lambda_2,…,\lambda_m\in K$ no todos nulos tales que $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$.

a) De (*) observemos que por no ser todos nulos, tenemos dos casos:

Caso 1. Únicamente $\lambda_1\not=0_K$.
Así, $\theta_V=\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m$$=\lambda_1v_1+0_Kv_2+…+0_Kv_m$$=\lambda_1v_1+\theta_V+…+\theta_V=\lambda_1v_1$.
De donde, $\lambda_1v_1=\theta_V$ con $\lambda_1\not=0_K$ y $v_1\not=\theta_V$.
Por lo tanto, este caso no es posible.

Caso 2. Existe al menos un $\lambda_j\not=0_K$ con $j\in\{2,3,…,m\}$.
Consideremos $j=m\acute{a}x\{i\in\{2,3,…,m\}|\lambda_i\not=0_K\}$
Entonces $\lambda_{j+1}v_{j+1}+…+\lambda_mv_m=0_Kv_{j+1}+…+0_Kv_m$$=\theta_V+…+\theta_V=\theta_V$ y además, existe el inverso multiplicativo de $\lambda_j.$
De lo anterior tenemos que $\theta_V=\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m$$=\lambda_1v_1+\lambda_2v_2+…+\lambda_jv_j+\theta_V$$=\lambda_1v_1\lambda_2v_2+…+\lambda_jv_j.$
Así, $\lambda_1v_1+…+\lambda_jv_j=\theta_V$, por lo cual $\lambda_jv_j=-\lambda_1v_1-\lambda_2v_2…-\lambda_{j-1}v_{j-1},$
entonces

$\begin{array}{ll}v_j&=\lambda_j^{-1}(-\lambda_1v_1-\lambda_2v_2…-\lambda_{j-1}v_{j-1})\\&=(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+…+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}\in\langle v_1,v_2,…,v_{j-1}\rangle\end{array}$

$\therefore v_j\in\langle v_1,v_2,…,v_{j-1}\rangle$

b) Veamos que se cumplen las dos contenciones entre los subconjuntos deseados, contemplando que la $j$ para este inciso debe ser la misma que en el inciso anterior.

En primer lugar:
Tenemos que $\{v_1,v_2,…,\widehat{v_j},…,v_m\}\subseteq \{v_1,v_2,…,v_j,…,v_m\}\subseteq\langle v_1,v_2,…,v_j,…,v_m\rangle$ y este último subconjunto es un subespacio de $V$.
Además, sabemos que si $S\subseteq W\subseteq V$ con $W$ un subespacio vectorial, entonces $\langle S\rangle\subseteq W$.
$\therefore\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle\subseteq\langle v_1,v_2,…,v_j,…,v_m\rangle$.

En segundo lugar:
Si $w\in\langle v_1,v_2,…v_j,…,v_m\rangle$, entonces existen $\mu_1,\mu_2,…,\mu_j,…,\mu_m\in K$ tales que $w=\mu_1v_1+\mu_2v_2+…+\mu_jv_j+…+\mu_mv_m$.
Sabemos que $v_j=(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+…+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}$.
De donde,

\begin{array}{ll}w&=\mu_1v_1+\mu_2v_2+…+\mu_{j-1}v_{j-1}+\\ &\mu_j[(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+…+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}]+\\ &\mu_{j+1}v_{j+1}…+\mu_mv_m\\ &=(\mu_1-\mu_j\lambda_j^{-1}\lambda_1)v_1+(\mu_2-\mu_j\lambda_j^{-1}\lambda_2)v_2+\\ &…+(\mu_{j-1}-\mu_j\lambda_j^{-1}\lambda_{j-1})v_{j-1}+\mu_{j+1}v_{j+1}+…+\mu_mv_m\\ &\in\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle\end{array}
Así, $w\in\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle$.
$\therefore \langle v_1,v_2,…,v_j,…,v_m\rangle\subseteq\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle .$

Teorema: Sea $V$ un $K$ – espacio vectorial. Si $v_1,v_2,…,v_m$ es una lista l.i. de vectores en $V$ con $m\in\mathbb{N}$, entonces todo conjunto generador de $V$ tiene al menos $m$ elementos.

Demostración: Sea $V$ un $K$ – espacio vectorial.
Sea $v_1,v_2,…,v_m$ es una lista l.i. de vectores en $V$, llamémosle $L$ a esta lista.
Sea $S$ tal que $\langle S\rangle = V$.

Caso 1. $S$ es infinito.
Entonces $S$ tiene más de $m$ elementos.

Caso 2. $S$ es finito.
Digamos que $S=\{w_1,w_2,…,w_k\}$ y probemos que $m\leq k$.

Observemos que como $L$ es una lista l.i. de vectores en $V$, entonces para cada $i\in\{1,2,…,m\}$ tenemos que $v_i\not=\theta_V$.

(1) Como $ v_1\in V=\langle S\rangle$, entonces $v_1,w_1,w_2,…,w_k$ es una lista l.d.
Dado que $v_1\not= \theta_V$, por el lema podemos concluir que existe $j_1\in\{1,2,…,k\}$ tal que $\langle \{v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle =\langle v_1,w_1,w_2,…,w_k\rangle =V.$

(2) Como $ v_2\in V=\langle \{v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle$, entonces $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$ es una lista l.d.
Dado que con $v_2\not= \theta_V$, por el lema podemos concluir que algún vector $v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$ es combinación lineal de los vectores que le anteceden en la lista $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$, pero sabemos que $L$ es l.i., por lo que $v_2$ no puede ser combinación lineal de $v_1$. Así, existe algún vector $w_1,w_2,…,\widehat{w_{j_1}},…,w_k$, digamos $w_{j_2}$ con $j_2\in\{1,2,…,k\}\setminus\{j_1\}$, que es combinación lineal de los vectores que le anteceden en la lista $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_{j_k}$, y tal que $\langle \{v_2,v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1},w_{j_2}\}\rangle$$=\langle \{v_2,v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle =V.$

Continuando de este modo, en cada paso quitamos un vector $w_{j_t}$ del conjunto generador, y lo sustituimos por $v_t$, obteniendo de esta manera un nuevo conjunto generador. Observemos entonces que después de $t$ pasos hemos quitado $t$ vectores de $S$, y los hemos sustituido por $v_t,\dots ,v_2,v_1$.

Veamos que $k\geq m$. Supongamos por reducción al absurdo que $k< m$.

Continuando con el proceso anterior, después de $k$ pasos hemos quitado $k$ vectores de $S$, $w_{j_1},w_{j_2},…,w_{j_k}$ que de hecho son precisamente $w_1,w_2,…,w_k$ sólo que quizás en otro orden, y los hemos sustituido por $v_k,\dots ,v_2,v_1$. Tenemos además que:
$V=\langle \{v_{k-1},v_{k-2},…,v_2,v_1,w_1,w_2,…,w_k\}-\{w_{j_1},w_{j_2},…,w_{j_k}\}\rangle$$=\langle \{v_{k-1},v_{k-2},…,v_2,v_1\}\rangle$
Pero si $V=\langle \{v_{k-1},…,v_2,v_1\}\rangle$, entonces $v_k\in \langle \{v_{k-1},…,v_2,v_1\}\rangle$ y por lo tanto, $v_1,v_2,…,v_k$ es l.d.
Entonces $v_1,v_2,…,v_m$ es l.d., lo cual contradice nuestra hipótesis.

Por lo tanto, $m\leq k$.

Corolario: Sea $V$ un $K$-espacio vectorial. Si existe $S$ un subconjunto finito de $V$ generador con $k$ elementos, entonces todo conjunto linealmente independiente es finito y tiene a lo más $k$ elementos.
En consecuencia, no existen conjuntos infinitos l.i. en $V$.

Demostración: Sea $V$ un $K$ – espacio vectorial.
Sea $S\subseteq V$ finito con $k$ elementos tal que $\langle S\rangle =V$.
Sea $T\subseteq V$ un subconjunto l.i. Supongamos por reducción al absurdo que $T$ es infinito, consideremos entonces $\hat{T}$ un subconjunto de $T$ con $k+1$ elementos. Tenemos que $\hat{T}$ es un conjunto l.i. con $k+1$ elementos, y $S$ es un conjunto generador con $k$ elementos, lo que contradice el teorema anterior. Concluimos entonces que $T$ debe ser finito.
Nuevamente por el teorema anterior se cumple que $|T|\leq |S|$, y como $|S|=k$ entonces $|T|\leq k$.

Tarea Moral

  1. Demuestra que, dado $V$ un $K$ – espacio vectorial con $K$ un campo, sólo existe un subconjunto $S$ unitario linealmente dependiente y exhíbelo.
  2. Sea $S=\{v_1,v_2,…,v_m\}\subseteq V.$
    Demuestra que son equivalentes:
    • $S$ es l.d.
    • Existe $v_j\in S$ tal que $v_j\in \langle S-{v_j}\rangle$
  3. Recordando que $\{e_1,e_2,e_3\}$ genera a $\mathbb{R}^3$ y el Teorema de esta entrada sabemos que cualquier conjunto de solo $1$ o $2$ elementos, no podrá generar a $\mathbb{R}^3$.
    • Describe qué subespacio(s) de $\mathbb{R}^3$ se puede(n) generar con un $S\subseteq\mathbb{R}^3$ arbitrario si $|S|=1$.
    • Describe qué subespacio(s) de $\mathbb{R}^3$ se puede(n) generar con un $S\subseteq\mathbb{R}^3$ arbitrario si $|S|=2$.

Más adelante…

Ahora que sabemos la relación de cardinalidad que existe entre los conjuntos linealmente independientes y los conjuntos generadores, nos damos cuenta de que, dicho muy informalmente, los conjuntos generadores de un espacio vectorial $V$ tienen una cardinalidad mayor o igual a los l.i. en $V$.
Nos enfocaremos en aquellos conjuntos que son generadores del espacio vectorial $V$ al que pertenecen y linealmente independientes. Veremos algunas propiedades de sus cardinalidades.

Entradas relacionadas

1.7. (IN)DEPENDENCIA LINEAL: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

En matemáticas es de mucho interés estudiar aquello que es único (por qué lo es, «quién» es y cómo encontrarlo). En este punto de la teoría, sabemos que el neutro aditivo de un campo $K$ cualquiera siempre existe y es único, al igual que el neutro de un $K$ – espacio vectorial $V$ cualquiera.

Sabemos que las combinaciones lineales son elementos del espacio vectorial donde estamos trabajando y ahora estudiaremos conjuntos de vectores y la(s) combinación(es) lineale(s) que podemos obtener igualadas al neutro de nuestro espacio vectorial. Este sutil detalle de que sea sólo una o resulten existir más combinaciones lineales que cumplan la igualdad será el centro del tema… al fin y al cabo, sí sabemos que al menos existe una: la trivial, obtenida si todos los escalares involucrados son el neutro aditivo del campo.

LISTA LINEALMENTE (IN)DEPENDIENTE

Definición: Sea $V$ un $K$ – espacio vectorial. Una lista $v_1,v_2,…,v_m$$\in V$ en una lista linealmente dependiente si existen $\lambda_1,\lambda_2,…,\lambda_m\in K$ no nulos tales que $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$.
Decimos que es una lista linealmente independiente en caso contrario. Es decir, si $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$ con $\lambda_1,\lambda_2,…,\lambda_m\in K$, entonces $\lambda_1,\lambda_2,…,\lambda_m=0_K$ necesariamente.

Nota: Es común abreviar «linealmente dependiente» con l.d. y «linealmente independiente» con l.i.

Ejemplos

  • Sean $K=\mathbb{R}$, $V=\mathcal{P}_3[\mathbb{R}]$
    Sean $v_1=1+x-x^2+2x^3$, $v_2=2-3x+x^3$, $v_3=4-x-2x^2+5x^3$
    La lista $v_1,v_2,v_3$ es l.d.

Justificación. Se cumple que $2v_1+1v_2-1v_3=0x^3+0x^2+0x+0=\theta_V$

  • Sean $K=\mathbb{R}$, $V=\mathbb{R}^n$
    La lista $e_1,e_2,…,e_n$ es l.i.

Justificación. Tenemos que $e_i$ se define como el vector de $n$ entradas donde la $i$-ésima es $1$ y las demás son $0$. Así, $\lambda_1e_1+\lambda_2e_2+…+\lambda_ne_n=(\lambda_1,\lambda_2,…,\lambda_n)$. Por lo que, si $\lambda_1e_1+\lambda_2e_2+…+\lambda_ne_n=(0,0,…,0)=\theta_V$, entonces $(\lambda_1,\lambda_2,…,\lambda_n)=(0,0,…,0)$ y en consecuencia $\lambda_i=0$ para toda $i\in{1,2,…,n}.$

  • Sean $K=\mathbb{R}$, $V=\mathbb{R}^2$
    Sean $v_1=(x_1,0)$, $v_2=(x_2,0)$, $v_3=(x_3,y_3)$ con $x_i\not= 0$ para toda $i\in\{1,2,3\}$.
    La lista $v_1,v_2,v_3$ es l.d.

Justificación. Consideremos $\lambda_1,\lambda_2,\lambda_3$ tales que
$\lambda_1v_1+\lambda_2v_2+\lambda_3v_3=(0,0).$
Entonces $\lambda_1(x_1,0)+\lambda_2(x_2,0)+\lambda_3(x_3,y_3)=(0,0).$
Desarrollando el lado izquierdo de esta igualdad tenemos que $(\lambda_1x_1+\lambda_2x_2+\lambda_3x_3,y_3)=(0,0).$ Por lo tanto $\lambda_1v_1+\lambda_2v_2+\lambda_3v_3=(0,0)$ si y sólo si
a) $\lambda_1x_1+\lambda_2x_2+\lambda_3x_3=0$ y b) $\lambda_3y_3=0$.
Si $\lambda_3=0$, b) se cumple para cualesquiera $\lambda_1,\lambda_2\in\mathbb{R}$. Veamos si se le puede asignar un valor distinto de cero a $\lambda_1$ o a $\lambda_2$ y que se cumpla a).
Tenemos que a) se cumple si y sólo si $\lambda_1x_1=-(\lambda_2x_2+\lambda_3x_3)$. Por lo tanto, si $\lambda_3=0$, tenemos que $\lambda_1x_1=-\lambda_2x_2$, y dado que $x_1$ es no nulo esto implica que $\lambda_1=-\lambda_2\frac{x_2}{x_1}$. Así, eligiendo $\lambda_2=1$, $\lambda_1=-\frac{x_2}{x_1}$ y $\lambda_3=0$ se cumplen a) y b), existiendo así una combinación lineal no trivial de $v_1,v_2$ y $v_3$ igualada al vector cero.

CONJUNTO LINEALMENTE (IN)DEPENDIENTE

Definición: Sea $V$ un $K$ – espacio vectorial. Un subconjunto $S$ de $V$ es un conjunto linealmente dependiente si existe $m\in\mathbb{N}^+$ tal que $S$ contiene $m$ elementos distintos que forman una lista dependiente.
Decimos que es un conjunto linealmente independiente en caso contrario. Es decir, si para cualquier $m\in\mathbb{N}^+$ todas las listas que se pueden formar con $m$ elementos distintos de $S$ son linealmente independientes.

Observación: Si $S$ es un conjunto finito con $m$ vectores distintos, digamos $\{v_1,v_2,…,v_m\}$, entonces:
i) Si se puede encontrar una combinación lineal $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$ donde $\lambda_1, \dots, \lambda_m\in \mathbb{R}$ con al menos una $\lambda_j$ distinta de $0_K$ para alguna $j\in\{1,2,…,m\}$, entonces $S$ es l.d.
ii) Si el hecho de que se tenga una combinación lineal $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$ donde $\lambda_1, \dots, \lambda_m\in \mathbb{R}$, implica que $\lambda_j$ debe ser $0_K$ para toda $j\in\{1,2,…,m\}$, entonces $S$ es l.i.

Ejemplos

  • Sean $K$ un campo y $V=\mathcal{P}_m(K)$
    $S=\{1,x,x^2,…,x^m\}$$\subseteq\mathcal{P}_m(K)$ es l.i.

Justificación. Sean $\lambda_0,\lambda_1,\lambda_2,…,\lambda_m\in\mathbb{R}$ tales que $\lambda_01+\lambda_1x+\lambda_2x^2+…+\lambda_mx^m=\theta_V$, es decir $\lambda_01+\lambda_1x+\lambda_2x^2+…+\lambda_mx^m=0+0x+0x^2+…+0x^m$.
Recordando que dos polinomios so iguales si y sólo si coinciden coeficiente a coeficiente concluimos que $\lambda_i=0$ para toda $i\in\{0,1,2,…,m\}.$

  • Sean $K=\mathbb{R}$ y $V=\mathbb{R}^3$
    $S=\{(1,3,-7),(2,1,-2),(5,10,-23)\}$$\subseteq\mathbb{R}^3$ es l.d.

Justificación. Sean $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$ tales que $\lambda_1(1,3,-7)+\lambda_2(2,1,-2)+\lambda_3(5,10,-23)=(0,0,0)$.
Entonces $(\lambda_1+2\lambda_2+5\lambda_3,3\lambda_1+\lambda_2+10\lambda_3,-7\lambda_1-2\lambda_2-23\lambda_3)=(0,0,0)$. De donde:
\begin{align*}
\lambda_1+2\lambda_2+5\lambda_3&=0…(1)\\
3\lambda_1+\lambda_2+10\lambda_3&=0…(2)\\
-7\lambda_1-2\lambda_2-23\lambda_3&=0…(3)\\
\end{align*}
De $(1)$: $\lambda_1=-2\lambda_2-5\lambda_3…(4)$
Sustituyendo $(4)$ en $(2)$: $3(-2\lambda_2-5\lambda_3)+\lambda_2+10\lambda_3=0$
$\Longrightarrow-5\lambda_2-5\lambda_3…(5)\Longrightarrow\lambda_2=-\lambda_3…(5)$
Sustituyendo $(5)$ en $(4)$: $\lambda_1=-2(-\lambda_3)-5\lambda_3$
$\Longrightarrow\lambda_1=-3\lambda_3…(6)$
En particular, si $\lambda_3=1$tenemos que $\lambda_2=-1$ y $\lambda_1=-3$, y encontramos así una solución no trivial del sistema dado por $(1)$, $(2)$ y $(3)$.

  • Sean $K=\mathbb{R}$ y $V=\mathcal{M}_{2\times 2}(\mathbb{R})$
    $S=\left\{ \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} \right\}$$\subseteq\mathcal{M}_{2\times 2}(\mathbb{R})$ es l.i.

Justificación. Sean $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$ tales que $\lambda_1 \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} +\lambda_2 \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\lambda_3\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$.

Entonces $\begin{pmatrix} \lambda_1 & \lambda_1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & \lambda_2 \\ 0 & \lambda_2 \end{pmatrix}+ \begin{pmatrix} 0 & 0 \\ \lambda_3 & \lambda_3 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $\begin{pmatrix} \lambda_1 & \lambda_1+\lambda_2 \\ \lambda_3 & \lambda_2+\lambda_3 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$. De donde:
\begin{align*}
\lambda_1&=0…(1)\\
\lambda_1+\lambda_2&=0…(2)\\
\lambda_3&=0…(3)\\
\lambda_2+\lambda_3&=0…(4)\\
\end{align*}
Sustituyendo $(1)$ en $(2)$: $\lambda_2=0$
Por lo tanto, $\lambda_1,\lambda_2,\lambda_3=0.$

  • Sean $K=\mathbb{R}$ y $V=\mathbb{R}^3$
    $S=\{(n,n,n)|n\in\mathbb{Z}\}$$\subseteq\mathbb{R}^3$ es l.d.

Justificación. La lista en $S$ dada por $(1,1,1),(5,5,5)$ es l.d. porque $-5(1,1,1)+(5,5,5)=(0,0,0)$.

Tarea Moral

Sean $K$ un campo y $V$ un $K$ – espacio vectorial.

  1. Sean $S,\tilde{S}\subseteq V$ tales que $S\subseteq\tilde{S}$.
    Para cada inciso, responde y justifica tu respuesta demostrándolo o dando un contraejemplo.
    • Si $S$ es l.d., ¿es posible determinar si $\tilde{S}$ es l.d. o l.i.?
    • Si $S$ es l.i., ¿es posible determinar si $\tilde{S}$ es l.d. o l.i.?
    • Si $\tilde{S}$ es l.d., ¿es posible determinar si $S$ es l.d. o l.i.?
    • Si $\tilde{S}$ es l.i., ¿es posible determinar si $S$ es l.d. o l.i.?
  2. Sea $S=\{v_1,v_2,…,v_m\}\subseteq V$
    Demuestra que son equivalentes:
    • $S$ es l.d.
    • Existe $v_j\in S$ tal que $\langle S\rangle=\langle S-\{v_j\}\rangle$

Más adelante…

El segundo ejercicio de la tarea moral se refiere al subespacio generado por un conjunto linealmente dependiente.
Veamos ahora más relaciones que existen entre los conjuntos linealmente dependientes, los linealmente independientes y los espacios que estos conjuntos generan.

Entradas relacionadas

Geometría Moderna II: Unidad 4 Razón Cruzada

Por Armando Arzola Pérez

4.1 Razón cruzada para hilera y haces

Introducción

Ya se ha visto que en una hilera armónica se tienen cuatro puntos colineales $A,B,C,D$, donde el segmento $AB$ está dividido por $C$ y $D$ en razones cuya razón es:
$\hspace{15em} \frac{AC}{CB} / \frac{AD}{DB} = -1$
En este caso $A$ y $B$ están separados armónicamente por $C$ y $D$, pero que pasaría si estos cuatro puntos estuvieran en posiciones cualesquiera en la recta que se encuentran, es aquí donde entra la definición de razón cruzada.

Definición (Razón Cruzada)

Dados cuatro puntos colineales distintos $A,B,C,D$ en una recta, diremos que la razón cruzada es:

$\frac{AC}{CB} / \frac{AD}{DB} = \{ ABCD \} = k$ con $k \neq -1$

Lo denotaremos $\{ ABCD \} $.

También se le conoce como razón anarmónica y razón doble.

Observación

Si los cuatro puntos son armónicos, entonces $\{ ABCD \} = -1 $, de igual forma inversamente.

Definición (Razón Cruzada con líneas concurrentes)

Sean cuatro rectas concurrentes $OA$, $OB$, $OC$ y $OD$ en un punto $O$, que no se forme un haz armónico, entonces la razón cruzada es:

$\frac{sen (AOC)}{sen (COB)} / \frac{sen (AOD)}{sen (DOB)} $,

se denotará como $O \{ ABCD \} $. De igual forma, la razón cruzada de cuatro líneas concurrentes $a,b,c,d$ se denotará $\{ a,b,c,d \} $.

Observación

Dados cuatro puntos colineales $A,B,C, D$ se tienen estos casos:

1) $\{ ABCC \} =1$ esto, ya que $\{ ABCC \} =\frac{AC}{CB} / \frac{AC}{CB} = \frac{AC * CB}{CB * AC} =1$.

2) $\{ ABCB \} =0$ esto ya que $\{ ABCB \} =\frac{AC}{CB} / \frac{AB}{BB} = \frac{AC * BB}{CB * AB} =0$.

3) $\{ ABCA \} =\infty $ esto ya que $\{ ABCA \} =\frac{AC}{CB} / \frac{AA}{AB} = \frac{AC * AB}{CB * AA} =\infty $.

Por lo cual se puede demostrar que si la razón cruzada de cuatro puntos tiene uno de los valores $1,0, \infty $ entonces dos de los puntos coinciden.

Teorema (Razón Cruzada)

Si se tienen cuatro puntos distintos $A,B,C,D$ en una recta y $O$ un punto (no está en la recta) entonces:

$\{ ABCD \} =O \{ ABCD \} $

Demostración

Para demostrar el teorema se usará lo siguiente, si dos puntos finitos $A$ y $B$ distintos en una recta, sea $P$ otro punto de la misma recta y $C$ un punto que no está en la recta, entonces

$\frac{AP}{PB}=\frac{CA*sen (ACP)}{CB*sen (PCB)}$

Entonces usando lo anterior:

$\frac{AC}{CB}=\frac{OA*sen (AOC)}{OB*sen (COB)}$ y $\frac{AD}{DB}=\frac{OA*sen( AOD)}{OB*sen (DOB)}$

$\{ ABCD \} = \frac{AC}{CB} / \frac{AD}{DB}=\frac{OA*sen(AOC)}{OB*sen(COB)} / \frac{OA*sen(AOD)}{OB*sen(DOB)}=\frac{sen(AOC)}{sen(COB)} / \frac{sen(AOD)}{sen( DOB)}=O \{ ABCD \}$ $_\blacksquare$

Razón cruzada

Corolarios

1) Sean dos rectas transversales a cuatro líneas de un haz, de las cuales ninguna pasa por el vértice, cortan a estas líneas en $A,B,C,D$ y $A’,B’,C’,D’$ respectivamente, entonces $\{ ABCD \} = \{ A’B’C’D’ \} $.

Demostración

$\{ ABCD \} = O\{ ABCD \} = O\{ A’B’C’D’ \} =\{ A’B’C’D’ \} $ $_\blacksquare$

2) Sean dos haces con vertices en $O$ y $O’$ son subtendidos por la misma hilera de puntos $A,B,C,D$ entonces $O\{ ABCD \} = O’\{ ABCD \}$.

Demostración

$O\{ ABCD \} = \{ ABCD \}=O’\{ ABCD \}$ $_\blacksquare$

3) Sean $l$ y $l’$ dos rectas en posición cualquiera y sean $A,B,C,D \in l$ y $A’,B’,C’,D’ \in l’$. Si $\{ ABCD \} = \{ A’B’C’D’ \} $ y $O$ y $O’$ son colineales con $A$ y $A’$, entonces las intersecciones $OB$ y $O’B’$, $OC$ y $O’C’$, $OD$ y $O’D’$ son colineales.

Demostración

Sea $l’$$’$ la recta que contiene a $B’$$’$ y $C’$$’$, y sean $A’$$’=l’$$’ \cap OO’$, $D’$$’=OD \cap O’D’$ y sea $D^*=l’$$’ \cap O’D’$.
Tenemos que $\{ ABCD \} = \{ A’B’C’D’ \} $ entonces $\{ A’B’C’D’ \} = \{ A’$$’B’$$’C’$$’D^* \} $.
$\Rightarrow $ $\{ ABCD \} = \{ A’$$’B’$$’C’$$’D^* \} $
$\Rightarrow $ $O\{ ABCD \} = \{ A’$$’B’$$’C’$$’D^* \} $
$\Rightarrow $ $D’$$’=D^*$ $_\blacksquare$

Más adelante…

Se seguirá abordando unas propiedades de la razón cruzada y además se construirá un cuarto elemento dada una razón.

Entradas relacionadas