Archivo de la categoría: Sin clasificar

6 Material de prueba: Un ejemplo de una norma en $\mathbb{R}^2$ que no es norma-p

Por Mariana Perez

Consideremos el paralelogramo cuyos vértices son los puntos $(2,1)$,$(-1, 1)$,$(-2, -1)$,$(1, -1)$.

Sea $A=\{(x, y) \in \mathbb{R}^2|-1\leqslant y \leqslant 1,\; -3 \leqslant y-2x \leqslant 3 \}$

Este paralelogramo es un conjunto convexo y también simétrico respecto al origen, es decir que $$(x, y) \in A \Longrightarrow (-x, -y) \in A$$

Además es cerrado, $\bar{A}=A \cup \partial A = A$, donde $\partial A$ es la unión de los elementos de recta que forman las aristas, incluyendo los vértices.

Es acotado con la norma Euclidiana (un conjunto es acotado si está contenido en una bola).

Entonces, nos preguntamos si ¿existe una norma $\| \; \|_{\square}: \mathbb{R}^2 \longrightarrow \mathbb{R}$ tal que $A$ sea la bola unitaria cerrada?, es decir $$A=\{ (x, y) \in \mathbb{R}^2 | \|(x, y)\|_{\square} \leqslant 1\}$$

Para que la frontera sea la «circunferencia unitaria» debe suceder que si $$(x, y) \in \partial A \Longrightarrow \|(x, y)\|_{\square}=1$$

Para que sea norma se debe complir que $$\|(0, 0)\|_{\square}=0$$

y además debe cumplir que $$\|t(x, y)\|_{\square} = |t| \|(x, y)\|_{\square}$$

Analicemos que:

si $$(x, y) = \lambda (a, b)$$ entonces $$\| (x, y)\|_{\square} =|\lambda|\| (a, b)\|_{\square} = |\lambda|$$ ya que el punto $(a, b)$ es un punto de $A$.

Entonces ¿cuál es la regla de correspondencia que a cada $(x, y) \longrightarrow |\lambda|=\|(x, y)\|_{\square}$?

Sea $(x, y) \in \mathbb{R}^2$, tenemos que considerar los siguientes casos:

Caso «fácil»: si $(x, y)$ está en la recta diagonal.

Caso «menos fácil»: si $(x, y)$ no está en ninguna recta que contenga a una diagonal.

Pregunta auxiliar ¿cuáles son las ecuaciones de las rectas que contienen a las diagonales del paralelogramo?

Tenemos que las ecuaciones de las rectas que contienen a las diagonales son:

Recta I: $y=\frac{1}{2}x$

Recta II: $y=-x$

Comenzamos analizando el caso «fácil»:

CASO «punto en la Recta I»: si $(x, y)=\lambda (2,1)$

entonces $(x, y) =(2\lambda , \lambda)$

por lo tanto $y = \lambda$

Ejemplo: $\|(4, 2)\|_{\square}=2$

CASO «punto en la Recta II»: si $(x, y) =\lambda (-1, 1)$

entonces $(x, y) = (-\lambda, \lambda)$

por lo que $y = \lambda$

Ejemplo: $\|(-3, 3)\|_{\square} = 3$

Análogamente se estudia el CASO III $(x, y) = \lambda (-2, -1)$ y el CASO IV, cuando $(x, y) = \lambda (1, -1)$.

Ejemplo: $\|(-10, -5)\|_{\square} =5$

$\|(8, -8)\|_{\square} = 8$

Ahora, analizamos el caso «menos fácil»:

CASO «punto en la Región I»: si $(x,y)$ está en el cono generado por los vectores $\vec{a}=(2,1)$ y $\vec{b}=(-1,1)$.

$$(x,y)=\alpha \vec{a} + \beta \vec{b} \hspace{3mm} \alpha, \beta > 0$$

Afirmación:

$t=máx \{|y|, \frac{|2x-y|}{3}\}$

Sea $(x,y) \in \mathbb{R}^2 / \partial \square$.

Consideramos 4 posibilidades, dadas por la ubicación del punto en algunas de las cuatro partes en las que queda dividido el plano, según las rectas $y=\frac{1}{2}x$ y $y=-x$.

Veamos que sucede cuando el punto está en las regiones «I» y «IV». Los dos casos restantes son análogos.

Cuando $(x,y)$ está en la Región I, cumple que: $$y>-x$$ $$y>\frac{1}{2}x$$

Observación: como $y>0$ entonces al unir $(x,y)$ con $(0,0)$ cortamos a la arista superior en un punto de la forma $(a,b)$ pero la arista superior está contenida en la recta $y=1$ por lo que $b=1$ por lo tanto $(a,b)=(a,1)$.

Luego $(x,y)=t(a,b)=t(a,1)$

Por lo tanto, $$y=t$$

$$\|(x,y)\|_\square =y$$

Cuando $(x,y)$ está en la Región IV, cumple que: $$y>-x$$ $$y<\frac{1}{2}x$$

Ahora $x>0$ por lo que al unir $(x,y)$ con $(0,0)$ cortamos a la arista del lado derecho del paralelogramos en el punto $(a,b)$, pero como la arista está contenida en la recta $y=2x-3$ tenemos que $b=2a-3$

Luego $$(x,y)=t(a,b)$$

por lo que $x=ta$ y $y=tb$ entonces $$y=t(2a-3)$$ $$y=2at-3t$$ $$a=\frac{y+3t}{2t}$$

Hemos propuesto $$\|(x,y)\|_\square := máx \{ |y|, \frac{|2x-y|}{3} \}$$

$$\| \; \|_\square : \mathbb{R}^2 \longrightarrow \mathbb{R}$$

Afirmación: $\| \; \|_\square$ es una norma.

$\|(x,y) \|_\square > 0$

$\|(x,y) \|_\square = 0 \iff (x,y) = (0,0)$

$\|(x,y) \|_\square = máx \{ |ty|, \frac{|2tx-ty|}{3} \} = |t| máx \{ |y|, \frac{|2x-y|}{3} \} = |t| \|(x,y) \|_{\square}$.

Por último probamos que satisface la desigualdad del triángulo, es decir que se cumple que: $\| u+v \|_{\square} \leqslant \|u \|_{\square} + \|v \|_{\square}$

Sean $u=(u_1, u_2)$ y $v=(v_1, v_2)$. Además $u+v =(u_1 + v_1, u_2 + v_2).$

Entonces $\|u+v \|_{\square} = máx \{ |u_2 + v_2|, \frac{2(u_1+v_1)-(u_2+v_2)}{3} \}$

Por demostrar $\| u+v \|_{\square} \leqslant \|u \|_{\square} + \|v \|_{\square}$

Si el máximo es $|u_2+v_2|$ entonces, se tiene que $$|u_2+v_2|\leqslant |u_2|+|v_2|\leqslant \|u\|_{\square} + |v\|_{\square}$$

Si el máximo es $\frac{2(u_1+v_1)-(u_2+v_2)}{3}$ entonces, $$\frac{2(u_1+v_1)-(u_2+v_2)}{3} = \frac{2u_1-u_2+2v_1-v_2}{3} \leqslant \frac{2u_1-u_2}{3} + \frac{2v_1-v_2}{3} \leqslant \|u\|_{\square} + |v\|_{\square}$$

Por lo anterior queda probado que $\| \; \|_{\square}$ es una norma.

4 Material de prueba: Norma-p

Por Mariana Perez

En $\mathbb{R}^2$ se define otra norma, llamada norma-p, de la siguiente manera:$\|(x,y)\|_p=\sqrt[p]{|x|^p+|y|^p}\; \; \; \;$ para $\; p\in [1,\infty]$

En el siguiente enlace puedes ver una animación de esta norma para valores de $p\in [1,10]$. Cambia el parámetro $p$ para que observes como la circunferencia unitaria cambia su forma.

Tal vez te preguntes, qué sucede con los valores de $p \in (0,1)$. Bueno, en el siguiente enlace puedes observar que sucede con la circunferencia unitaria. ¿Consideras qué para estos valores de $p$ se tiene una norma?

https://www.geogebra.org/m/txjay9zn

Teorema de existencia y unicidad de ecuaciones diferenciales

Por Lizbeth Fernández Villegas

Introducción

En la entrada anterior trabajamos con la ecuación diferencial $\dfrac{d \, y(x)}{dx} = y(x)$ con condición inicial $y(0)=1.$ Al identificar propiedades enunciadas en el teorema de punto fijo de Banach encontramos su solución. En esta ocasión repetiremos el proceso para demostrar que la solución a una ecuación diferencial general existe y es única.

Primeramente, veamos un concepto.

Definición. Función localmente Lipschitz continua en la segunda variable. Sea $(a,b) \subset \mathbb{R}$ y sea $\Omega \subset \mathbb{R}$ tal que $\Omega$ es abierto. Si $F:(a,b) \times \Omega \to \mathbb{R}$ es una función que satisface que para cada $x_0 \in (a,b)$ y $y_0 \in \Omega \, $ existen $\delta_0 >0$ y $c>0$ tales que $[x_0 – \delta_0, x_0 + \delta_0] \subset (a,b), \, [y_0 – \delta_0, y_0 + \delta_0] \subset \Omega$ y además que si $x \in [x_0 – \delta_0, x_0 + \delta_0] $ y si $y_1,y_2 \in [y_0 – \delta_0, y_0 + \delta_0]$ entonces
$$|F(x,y_1)-F(x,y_2)| \leq c |y_1-y_2|$$
diremos que $F$ es localmente Lipschitz continua en la segunda variable.

Solución a la ecuación diferencial $\dfrac{d \, y(x)}{dx}=F(x,y(x))$

Sea $\dfrac{d \, y(x)}{dx}=F(x,y(x))$ una ecuación diferencial con condición inicial $y(x_0)=y_0$ donde:

  1. $F$ es una función localmente Lipschitz continua en la segunda variable.
  2. $y$ es una función, al menos derivable, de variable $x$ que manda valores reales en valores reales.
  3. $x_0$ es un punto donde la $\, y \,$ buscada toma valor $y_0.$

Plan para resolverla con el teorema de punto fijo de Banach: Propondremos un espacio métrico completo $(X,d)$ de funciones entre las cuales deberá estar la $\, y \,$ buscada y una contracción $\phi:X \to X$ cuyo punto fijo sea la solución de la ecuación diferencial.

Sean $\delta_0>0$ y $c>0$ para $F$ localmente Lipschitz continua como en la definición. Se dejará como ejercicio al lector probar que $F$ restringida en $[x_0 \, – \, \delta_0, x_0 + \delta_0] \times [y_0 \, – \, \delta_0, y_0 + \delta_0]$ es continua. Como este conjunto es compacto, se sigue que $F$ está acotada en este conjunto. Por lo tanto existe $M>0$ tal que para toda $(x,y) \in [x_0 \, – \, \delta_0, x_0 + \delta_0] \times [y_0 \, – \, \delta_0, y_0 + \delta_0]$ se cumple
$$|f(x,y)| \leq M.$$

Sea $\delta$ tal que $0< \delta < min\{\frac{1}{c}, \frac{\delta_0}{M}\}$

Considera $X:= \{ f \in \mathcal{C}^0([x_0 \, – \, \delta, x_0 + \delta],\mathbb{R}): d_{\infty}(f,y_0) \leq \delta M \}$
donde $y_0$ representa, en este caso, a la función constante que arroja el valor $y_0.$ Nota que $X$ es un espacio cerrado en el espacio métrico $\mathcal{C}^0([x_0 \, – \, \delta, x_0 + \delta],\mathbb{R})$ que recordemos, tiene la propiedad de ser completo. Por lo visto en la última proposición de la entrada Espacios métricos completos concluimos que $X$ también es completo.

Propongamos la contracción $\phi$ deseada

Si $f \in X$ satisface la ecuación diferencial entonces para todo $x \in [x_0 \, – \, \delta, x_0 + \delta]$ se sigue:

\begin{align*}
&&\dfrac{d \, f(x)}{dx}&= F(x,f(x))\\
&\Rightarrow & \int_{x_0}^{x} \dfrac{d \, f(t)}{dt} \, dt &= \int_{x_0}^{x} F(t,f(t)) \, dt\\
&\Rightarrow & f(x) \, – \, f(x_0) &=\int_{x_0}^{x} F(t,f(t)) \, dt\\
&\Rightarrow & f(x) &=f(x_0) + \int_{x_0}^{x} F(t,f(t)) \, dt\\
&\Rightarrow & f(x) &= y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt
\end{align*}

Como buscamos que esta solución sea punto fijo de una contracción $\phi$ en $X$ entonces $\phi(f(x)) = f(x).$ La última igualdad nos lleva a proponer:

$$\phi(f(x)) := y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt$$

Nota que $\phi(f(x))$ pertenece a $\mathcal{C}^0([x_0 – \delta, x_0 + \delta],\mathbb{R}).$ Probaremos que también pertenece a $X.$ Si $x \in [x_0 – \delta, x_0 + \delta],$ tenemos dos casos:

Si $x_0 \leq x$

\begin{align*}
|\phi(f(x)) \, – \, y_0|&= \left|\int_{x_0}^{x} F(t,f(t)) \, dt \right| \\
&\leq \int_{x_0}^{x} |F(t,f(t))| \, dt \\
&\leq (x-x_0) M \\
&= \delta M
\end{align*}

Si $x < x_0$

\begin{align*}
|\phi(f(x)) \, – \, y_0|&= \left|\int_{x_0}^{x} F(t,f(t)) \, dt \right| \\
&= \left|- \int_{x}^{x_0} F(t,f(t)) \, dt \right| \\
&= \left| \int_{x}^{x_0} F(t,f(t)) \, dt \right| \\
&\leq \int_{x}^{x_0} |F(t,f(t))| \, dt \\
&\leq (x_0 \, – \, x) M\\
&= \delta M
\end{align*}

De ambos casos podemos concluir que $d_{\infty}(f,y_0) \leq \delta M,$ por lo tanto $\phi(f) \in X.$

$\phi$ es contracción en $X$

Sean $f,g \in X.$ Considera $I = [x_0 – \delta, x_0 + \delta]$ entonces si $x \in I,$ tenemos dos casos.

Si $x_0 \leq x.$

\begin{align*}
|\phi(f(x))- \phi(g(x))|&=\left|y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt-(y_0 + \int_{x_0}^{x} F(t,g(t)) \, dt) \right|\\
&=\left|\int_{x_0}^{x} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&\leq \int_{x_0}^{x} |F(t,f(t)) \, dt- F(t,g(t))| \, dt\\
&\leq \int_{x_0}^{x} c|f(t)- g(t)| \, dt \\
&\leq (x-x_0) c \, d_{\infty}(f,g) \\
&\leq (\delta c) \, d_{\infty}(f,g)
\end{align*}

Si $x < x_0.$

\begin{align*}
|\phi(f(x))- \phi(g(x))|&=\left|y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt-(y_0 + \int_{x_0}^{x} F(t,g(t)) \, dt) \right|\\
&=\left|\int_{x_0}^{x} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&=\left|- \int_{x}^{x_0} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&=\left| \int_{x}^{x_0} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&\leq \int_{x}^{x_0} |F(t,f(t)) \, dt- F(t,g(t))| \, dt\\
&\leq \int_{x}^{x_0} c|f(t)- g(t)| \, dt \\
&\leq (x_0-x) c \, d_{\infty}(f,g) \\
&\leq (\delta c) \, d_{\infty}(f,g)
\end{align*}

Por lo tanto, la distancia entre $\phi(f)$ y $\phi(g)$ se puede estimar como

\begin{align*}
d_\infty(\phi(f(x)), \phi(g(x))) &= \underset{x \in I}{Sup} \, \{|\phi(f(x))- \phi(g(x))| \} \\
&\leq \underset{x \in I}{Sup} \, \{ \delta c \, d_{\infty}(f,g) \} \\
&=(\delta c)d_{\infty}(f,g)
\end{align*}

Sea $\alpha := \delta c$ entonces $\alpha<1,$ por lo tanto $\phi$ es contracción en $X.$

Lo que hemos visto en esta entrada demuestra el siguiente:

Teorema. Picard-Lindelöf. Sea $F:(a,b) \times \Omega \to \mathbb{R}$ una función continua y localmente Lipschitz continua en la segunda variable. Entonces, dados $x_0 \in (a,b)$ y $y_0 \in \Omega$ existe $\delta >0$ tal que la ecuación diferencial
$$\dfrac{d \, y(x)}{dx}=F(x,y(x)), \, y(x_0)=y_0$$
tiene una única solución en el intervalo $[x_0 \, – \, \delta, x_0 + \delta].$

Generalización en $\mathbb{R}^n$

Si $\Omega \subset \mathbb{R}^n$ y $F$ tiene su contradominio en $\mathbb{R}^n$ entonces la definición y el teorema quedan como sigue:

Definición. Función localmente Lipschitz continua en la segunda variable. Sea $(a,b) \subset \mathbb{R}$ y sea $\Omega \subset \mathbb{R}^n$ tal que $\Omega$ es abierto. Si $F:(a,b) \times \Omega \to \mathbb{R}^n$ es una función que satisface que para cada $x_0 \in (a,b)$ y $y_0 \in \Omega \, $ existen $\delta_0 >0$ y $c>0$ tales que $[x_0 – \delta_0, x_0 + \delta_0] \subset (a,b), \, \overline{B}(y_0, \delta_0) \subset \Omega$ y además que si $|x-x_0| \leq \delta_0$ y si $y_1,y_2 \in \overline{B}(y_0,\delta_0)$ entonces
$$\norm{F(x,y_1)-F(x,y_2)} \leq c \norm{y_1-y_2}$$
diremos que $F$ es localmente Lipschitz continua en la segunda variable.

Teorema. Picard-Lindelöf. Sea $F:(a,b) \times \Omega \to \mathbb{R}^n$ una función continua y localmente Lipschitz continua en la segunda variable. Entonces, dados $x_0 \in (a,b)$ y $y_0 \in \Omega$ existe $\delta >0$ tal que la ecuación diferencial
$$\dfrac{d \, y(x)}{dx}=F(x,y(x)), \, y(x_0)=y_0$$
tiene una única solución en el intervalo $[x_0 \, – \, \delta, x_0 + \delta].$

En este caso el espacio completo donde podemos encontrar la solución es

$$X:= \{ f \in \mathcal{C}^0([x_0 \, – \, \delta, x_0 + \delta], \mathbb{R}^n) : \norm{f \, – \, y_0}_\infty \leq \delta M\}$$

Donde $\delta$ y $M$ se definen de forma análoga a la demostración anterior.

Más adelante

Pasaremos a la siguiente sección de esta asignatura con temas de compacidad. Aunque ya se han usado algunos resultados para el caso del espacio métrico euclidiano, mostraremos cómo el concepto puede generalizarse en otros espacios a partir de la topología que la métrica induce en ellos.

Tarea moral

  1. Sean $\delta_0>0$ y $c>0$ para $F$ localmente Lipschitz continua como en la definición. Prueba que $F$ restringida en $[x_0 \, – \, \delta_0, x_0 + \delta_0] \times [y_0 \, – \, \delta_0, y_0 + \delta_0]$ es continua.
  2. Sea $F: \mathbb{R} \times \mathbb{R} \to \mathbb{R}$ tal que $F(x,y)= 3y^{2/3}.$
    a) Prueba que $F$ no es localmente Lipschitz continua en la segunda variable.
    b) Prueba que para cualesquiera $\alpha < 0 < \beta,$ la función
    \begin{equation*}
    f_{\alpha, \beta}(x) = \begin{cases}
    (x \, – \, \alpha)^3 & \text{si x $\leq \alpha,$} \\
    0 & \text{si $\alpha \leq x \leq \beta,$}\\
    (x \, – \, \beta)^3 & \text{si $x \geq \beta.$}
    \end{cases}
    \end{equation*}
    Es diferenciable en $\mathbb{R}$ y es solución de
    $$\dfrac{d \, y(x)}{dx}=3y^{2/3}, \, y(0)=0.$$
    Así, si $F$ no es localmente Lipschitz continua en la segunda variable la ecuación puede tener una infinidad de soluciones.
  3. Sea $F: \mathbb{R} \times \mathbb{R} \to \mathbb{R}$ tal que $F(x,y)= -y^2.$
    a) Prueba que $F$ es localmente Lipschitz continua en la segunda variable.
    b) Para $\alpha \neq 0$ considera la ecuación
    $$\dfrac{d \, y(x)}{dx}=-y^2, \, y(0)= – \, \frac{1}{\alpha}.$$
    Prueba que $f(x)= \dfrac{1}{x \, – \, \alpha}$ es su solución en algún intervalo que contiene a $0$.
    c) ¿Cuál es el intervalo máximo para el que esta ecuación tiene solución?

Enlaces

Conjuntos relativamente compactos y totalmente acotados

Por Lizbeth Fernández Villegas

Introducción

En la sección La métrica de Hausdorff definimos que un conjunto acotado es aquel que está contenido en una bola del espacio métrico. Hay una propiedad más específica de los, así llamados, conjuntos totalmente acotados. Consiste en encerrar al conjunto en una unión de bolas abiertas tan pequeñas como se desee. La particularidad radica en que, por muy pequeño que sea el radio de estas bolas, bastará con una cantidad finita de ellas para cubrir todo el conjunto. Formalmente esta idea se expresa como:

Definición. Conjunto totalmente acotado: Sea $(X,d)$ un espacio métrico y $A \subset X$. Si para todo $\varepsilon >0$ existe una cantidad finita de puntos $a_1,…,a_n \in A$ tales que
$$A \subset \underset{i =1,…,n}{\bigcup}\, B(a_i,\varepsilon)$$
diremos que $A$ es totalmente acotado.

Conjunto totalmente acotado

Por supuesto que esta propiedad asegura que el conjunto sea acotado.

Proposición. Si $A \subset X$ es totalmente acotado, entonces $A$ es acotado.

Demostración:
Como $A$ es totalmente acotado, existen $a_1,a_2,…,a_n \in A$ tales que $A \subset \underset{1\leq i \leq n}{\bigcup}B(a_i,1).$ Ahora busquemos una bola abierta en $X$ que contenga al conjunto $A.$

Cubrimos al conjunto con bolas de radio $1$

Considera la máxima distancia entre $a_1$ y el resto de los centros. Llamémosla $M$ es decir, $M = máx\{d(a_1,a_k): k=2,…,n\}.$ A continuación identificaremos una bola abierta con centro en $a_1$ que cumplirá lo deseado.

Si $x \in A$ se tiene que $x \in B(a_k,1)$ para algún $k \in \{1,…,n\},$ así:
\begin{align*}
d(a_1,x)&\leq d(a_1,a_k) + d(a_k,x) \\
&\leq M + 1
\end{align*}

Por lo tanto $A \subset B(a_1,M+1),$ concluyendo así que $A$ es acotado.

Contrario a lo anterior, en general no es cierto que todo conjunto acotado sea totalmente acotado:

Contraejemplo: Considera el espacio de las sucesiones en $\mathbb{R}$ dado por $l_1 =\{(x_n): \sum_{n=1}^{\infty} x_n < \infty \}$ con la norma definida como $\norm{(x_n)}_1 = \sum_{n=1}^{\infty}|x_n|.$

Sea $A=\{e_i: i \in \mathbb{N}\}$ donde $e_i$ es la sucesión que toma a $1$ como valor en la entrada $i$ y $0$ en el resto.

Este conjunto es acotado en $l_1$ pues para cada $i \in \mathbb{N}, \, \norm{e_i}_1= \sum_{n=1}^{\infty}|x_n|= |1|=1$ de modo que $A \subset B(\mathcal{0},2)$ donde $\mathcal{0}$ es la sucesión constante cero.

No obstante, $A$ no es totalmente acotado. Si calculamos la distancia entre dos sucesiones en $A$ tenemos que para cualesquiera $i \neq j, \, d(e_i,e_j)= |1|+|1|= 2.$ Por lo tanto si se elige $\varepsilon >0,$ tal que $\varepsilon \leq 2$ cada bola de radio $\varepsilon$ con centro en alguna sucesión de $A$ excluye al resto de los elementos de $A$, de modo que no será posible cubrir $A$ con una cantidad finita de bolas de radio $\varepsilon$ cuyo centro esté en $A.$

Bolas de radio $\varepsilon \leq 2$

Esto nos permite concluir que $A$ no es totalmente acotado.

El ejemplo nos incentiva algunas preguntas: ¿Es el conjunto $A$ cerrado en $l_1?$ ¿Es compacto? ¿Bastará con que un conjunto sea totalmente acotado para que sea compacto? Al final de esta sección podrás responderlas.

Por lo pronto veamos que la propiedad de ser totalmente acotado, se hereda en subconjuntos:

Proposición: Sea $A \subset X$ un conjunto totalmente acotado. Si $B \subset A$ entonces $B$ es totalmente acotado.

Demostración:
Sea $\varepsilon >0.$ Como $A$ es totalmente acotado, existen puntos $a_1,…,a_n \in A$ tales que:

$$B \subset A \subset \underset{i =1,…,n}{\bigcup}\, B(a_i,\frac{\varepsilon}{2})$$

Consideremos únicamente a las bolas abiertas que tienen elementos de $B.$ Sea $\mathcal{J}:= \{j \in \{1,…,n\}: B(a_j, \frac{\varepsilon}{2}) \cap B \neq \emptyset\}$En efecto, $B \subset \underset{j \in \mathcal{J}}{\bigcup}\, B(a_j,\frac{\varepsilon}{2})$

Para cada $j \in \mathcal{J},$ sea $b_j \in B(a_j,\frac{\varepsilon}{2}) \cap B.$ Nota que dicha bola está contenida en $B(b_j,\varepsilon)$ por lo siguiente:

Si $x \in B(a_j,\frac{\varepsilon}{2})$ entonces $d(x,b_j) \leq d(x,a_j) + d(a_j,b_j) < \frac{\varepsilon}{2}+\frac{\varepsilon}{2} = \varepsilon.$

Por lo tanto para cada $j \in \mathcal{J}, \, B(a_j,\frac{\varepsilon}{2}) \subset B(b_j,\varepsilon),$ de modo que $B \subset \underset{j \in \mathcal{J}}{\bigcup}\, B(a_j,\frac{\varepsilon}{2}) \subset \underset{j \in \mathcal{J}}{\bigcup}\, B(b_j,\varepsilon)$ lo que nos permite concluir que $B$ es totalmente acotado.

Proposición: Si $A \subset X$ es totalmente acotado entonces $\overline{A}$ también es totalmente acotado. La demostración se deja como ejercicio.

Proposición: Si $A \subset X$ es compacto entonces $A$ es totalmente acotado.

Demostración:
Sea $\varepsilon >0$ y $A$ un conjunto compacto. Para cada punto $a \in A$ considera $B(a,\varepsilon).$ Entonces el conjunto $\{B(a,\varepsilon):a \in A\}$ es una cubierta abierta de $A.$

Cubierta abierta de bolas de radio $\varepsilon.$

Como $A$ es compacto entonces existe una subcubierta finita $\{B(a_1,\varepsilon),B(a_2,\varepsilon),…,B(a_n,\varepsilon)\}.$ Por lo tanto, $A$ es totalmente acotado.

Cubierta abierta finita

En general no es cierto que un conjunto totalmente acotado sea compacto. El regreso requiere de una propiedad más:

Proposición: $A \subset X$ es compacto si y solo si es completo y totalmente acotado.

Demostración:
Supón que $A$ es un conjunto compacto. Ya vimos que esto lo hace totalmente acotado, ahora comprobemos que también es completo. Sea $(x_n)_{n \in \mathbb{N}}$ una sucesión de Cauchy en $A.$ Por lo visto en la entrada de Compacidad en espacios métricos sabemos que $(x_n)$ tiene una subsucesión que converge en $A.$ Luego, por la entrada Sucesiones de Cauchy sabemos que esto permite concluir que $(x_n)$ es convergente, por lo tanto $A$ es completo.

En el regreso partimos de que $A$ es completo y totalmente acotado. Supongamos por el contrario que $A$ no es compacto. Entonces existe una cubierta abierta $\mathcal{C} = \{ A_i: i \in \mathcal{I} \}$ de $A$ tal que no tiene subcubierta finita.

Como $A$ es totalmente acotado, entonces está contenido en una unión finita de bolas de radio $1$

Al menos una de esas bolas no puede ser cubierta por una unión finita de elementos de $\mathcal{C}$ pues si todas las bolas pudieran ser cubiertas de esa forma, entonces sí tendríamos una subcubierta finita de $\mathcal{C}$ para $A.$

Sea $B(x_0,1)$ esa bola. Como está contenida en la bola cerrada $\overline{B}(x_0,1)$, que es compacta y, en consecuencia, totalmente acotada, se sigue que $B(x_0,1)$ también es totalmente acotada. Por lo tanto, está cubierta por un número finito de bolas abiertas de radio $\frac{1}{2}.$

Por el argumento arriba mencionado, existe una bola $B(x_1,\frac{1}{2})$ que no puede ser cubierto por una cantidad finita de elementos de $\mathcal{C}.$

Continuando con este procedimiento, podemos construir una sucesión $(x_n)_{n \in \mathbb{N}} \,$ donde para cada $n \in \mathbb{N}, \, x_n$ es el centro de una bola de radio $\frac{1}{n+1}$ que no puede ser cubierta por una cantidad finita de elementos de $\mathcal{C}$ y $x_n$ está en la bola abierta $B(x_{n-1},\frac{1}{n}).$

Queda como ejercicio al lector demostrar que la sucesión $(x_n)$ es de Cauchy. Como $A$ es completo, se sigue que $x_n \to x^*$ para algún $x^* \in A.$

Sea $\mathcal{U} \in \mathcal{C}$ tal que $x^* \in \mathcal{U}.$ Como $\mathcal{U}$ es abierto, existe $\varepsilon >0$ tal que $B(x^*,\varepsilon) \subset \mathcal{U}.$ Como $x_n \to x^*$ existe $N \in \mathbb{N}$ tal que $\forall \, k \geq N, d(x_k, x^*)< \frac{\varepsilon}{2}.$

Sea $K \in \mathbb{N}$ tal que $K > N$ y además, $\frac{1}{K} < \frac{\varepsilon}{2}.$ Demostraremos que $B(x_{K-1}, \frac{1}{K}) \subset \mathcal{U}.$

Si $x \in B(x_{K-1}, \frac{1}{K})$ se sigue que:
\begin{align*}
d(x,x^*) &\leq d(x,x_{K-1}) + d(x_{K-1},x^*) \\
&< \frac{1}{K} + \frac{\varepsilon}{2} \\
&< \frac{\varepsilon}{2} + \frac{\varepsilon}{2} \\
&= \varepsilon
\end{align*}

En consecuencia $B(x_{K-1}, \frac{1}{K}) \subset \mathcal{U}$ lo cual es una contradicción, pues habíamos dicho que no puede ser cubierto por una cantidad finita de elementos de $\mathcal{C}.$ Por lo tanto $A$ es un conjunto compacto.

Hemos visto que si un conjunto no es cerrado tampoco es compacto. No obstante puede ocurrir que la cerradura del conjunto sí lo sea. Tenemos la siguiente:

Definición. Conjunto relativamente compacto: Sea $(X,d)$ espacio métrico y sea $A \subset X$. Diremos que $A$ es relativamente compacto si $\overline{A}$ es compacto.

Proposición: Sea $(X,d)$ un espacio métrico completo. Entonces $A \subset X$ es relativamente compacto en $X$ si y solo si es totalmente acotado.

Demostración:
Si $A$ es relativamente compacto entonces $\overline{A}$ es compacta en $X$ y por tanto, totalmente acotado. Como $A \subset \overline{A}$ concluimos por una proposición vista arriba que $A$ también es totalmente acotado.

Por otro lado, partiendo de que $A$ es totalmente acotado tenemos por la proposición que dejamos como ejercicio, que $\overline{A}$ también es totalmente acotado. Además, $\overline{A}$ es completo, pues es un subconjunto cerrado en $X$ completo, (ver Espacios métricos completos) así podemos concluir por la proposición de arriba, que $\overline{A}$ es compacto.

Más adelante…

Usaremos los términos vistos en esta entrada y sus equivalencias para enunciar y demostrar el teorema de Arzelá-Ascoli.

Tarea moral

  1. Considera el espacio de las sucesiones en $\mathbb{R}$ dado por $l_1 =\{(x_n): \sum_{n=1}^{\infty} x_n < \infty \}$ donde la norma se define como $\norm{(x_n)}_1 = \sum_{n=1}^{\infty}|x_n|.$ Sea $A=\{e_i: i \in \mathbb{N}\}$ donde $e_i$ es la sucesión que toma a $1$ como valor en la entrada $i$ y $0$ en el resto. ¿Es el conjunto $A$ cerrado en $l_1?$ ¿Es compacto?
  2. Da un ejemplo de un conjunto totalmente acotado que no sea compacto.
  3. Demuestra que si $A$ es totalmente acotado entonces $\overline{A}$ también es totalmente acotado.
  4. Demuestra que la sucesión $(x_n)_{n \in \mathbb{N}}$ de la demostración de $»A \subset X$ es compacto si y solo si es completo y totalmente acotado«, es de Cauchy.
  5. Sea $X$ un espacio métrico. Demuestra que si toda sucesión en $X$ tiene una subsucesión que converge en $X$ entonces es completo y totalmente acotado. Nota que es lo que falta para concluir que son equivalentes:
    a) $X$ es compacto.
    b) Toda sucesión en $X$ tiene una subsucesión que converge en $X.$
    c) $X$ es completo y totalmente acotado.

Enlaces

Convergencia uniforme de series en espacios de Banach

Por Lizbeth Fernández Villegas

Introducción

Probablemente recuerdes de otros cursos términos que son de la forma $\sum_{k=1}^{\infty}\, a_k.$ Hacen alusión a una suma de infinitos términos. Deseamos que sea posible obtener un resultado de esta operación, pero no siempre existe. Para el caso en que los términos $a_k$ son números reales, puedes consultar las entradas Cálculo Diferencial e Integral II: Definición de series y series infinitas
Cálculo Diferencial e Integral II: Criterio de la divergencia y de acotación
Cálculo Diferencial e Integral II: Criterio de comparación y comparación del limite.

En esta sección trabajaremos con series en un espacio vectorial normado. Ya que estas se construyen a partir de sucesiones, podemos esperar que varios resultados de convergencia, vistos hasta el momento, encontrarán su versión en las sumas infinitas.

Definición. Suma parcial. Sea $V=(V, \norm{\cdot})$ un espacio vectorial normado y sea $(v_n)_{n \in \mathbb{N}} \,$ una sucesión en $V.$ Consideremos la suma de los primeros $n$ términos con $n \in \mathbb{N}.$ Se llama suma parcial y está dada por:

$$w_n:= \sum_{k=1}^{n} \, v_k.$$

Podemos pensar que conforme incrementa el valor de $n$ más términos de la sucesión son considerados en la suma. Se forma entonces una sucesión con los resultados $w_n. $ Así, $\, (w_n)_{n \in \mathbb{N}} \,$ es la sucesión de sumas parciales. ¿Será convergente?

Definición. Serie convergente. Sea $(v_n)_{n \in \mathbb{N}}$ una sucesión en $V=(V, \norm{\cdot}).$ Si la sucesión de sumas parciales $(w_n)_{n \in \mathbb{N}} \,$ converge en $V,$ decimos que la serie denotada como

$$\sum_{k=1}^{\infty} \, v_k$$

converge en $V$ y equivale al límite de las sumas parciales, es decir.

$$ \underset{n \to \infty}{lim} \, w_n \, = \, \sum_{k =1}^{\infty} \, v_k.$$

Dejaremos como ejercicio demostrar que si una serie converge, entonces su límite es único.

Representación sumas parciales de $(v_n)$

Se satisface la siguiente:

Proposición. Si la serie $\sum_{k=1}^{\infty} \, v_k$ converge en $V,$ entonces $(v_n)_{n \in \mathbb{N}} \,$ converge a $0$ en $V.$ Se sigue también que esta sucesión es acotada.

Primeros términos de la sucesión en $\mathbb{R}$ $((\frac{1}{2})^n)$ donde $\sum_{k=1}^{\infty} (\frac{1}{2})^n=1$

Demostración:
Sea $\varepsilon >0.$ Ya que $\sum_{k=1}^{\infty} \, v_k$ converge en $V,$ por definición, $(w_n)_{n \in \mathbb{N}}$ converge en $V$ y por tanto es de Cauchy, así existe $N \in \mathbb{N}$ tal que para cualesquiera $n,m \geq N,$

$$\norm{w_n-w_m} < \varepsilon$$

en particular, para cada $n \geq N$ se cumple

\begin{align*}
&&\norm{w_{n+1}-w_n} &< \varepsilon\\
&\iff& \norm{\sum_{k=1}^{n+1} v_k \, – \sum_{k=1}^{n} v_k} &< \varepsilon\\
&\iff& \norm{v_{n+1}} &< \varepsilon
\end{align*}

Por lo tanto $v_n \to 0$ en $V,$ y por lo visto en Convergencia, concluimos que $(v_n)_{n \in \mathbb{N}} \,$ es acotada.

Cuando el espacio normado $V$ es completo se tiene un resultado que muestra condiciones necesarias y suficientes para que una serie sea convergente:

Proposición. Criterio de Cauchy para series. Sea $V$ un espacio de Banach y sea $(v_n)_{n \in \mathbb{N}} \,$ una sucesión en $V.$ La serie $\sum_{k=1}^{\infty} \, v_k$ converge en $V$ si y solo si para cada $\varepsilon >0$ existe $N_0 \in \mathbb{N}$ tal que
$$\norm{v_{N+1}+…+v_{N+j}}< \varepsilon$$
para cualquier $N \geq N_0$ y cualquier $j \geq 1.$

Demostración:
Sea $\varepsilon > 0.$ La serie $\sum_{k=1}^{\infty} \, v_k$ converge en $V$ si y solo si $(w_n)_{n \in \mathbb{N}}$ converge en $V$. Como $V$ es de Banach esto ocurre si y solo si $(w_n)_{n \in \mathbb{N}}$ es de Cauchy, es decir, si y solo si existe $N_0 \in \mathbb{N}$ tal que para cualesquiera $n,m \geq N_0,$
$$\norm{w_n -w_m} < \varepsilon$$
si y solo si para cualquier $N \geq N_0$ y cualquier $j \geq 1$, como $N+j > N \geq N_0$ se sigue que
\begin{align*}
&&\norm{w_{N+j} -w_{N}} < \varepsilon\\
&\Rightarrow &\norm{\sum_{k=1}^{N+j} v_k \, – \sum_{k=1}^{N} v_k} < \varepsilon\\
&\Rightarrow &\norm{v_{N+1}+…+v_{N+j}} < \varepsilon
\end{align*}

que es lo que queríamos demostrar.

Hay otra forma de asegurar la convergencia de una serie a partir de la convergencia de la serie formada por la norma de sus términos. Es decir:

Teorema. Criterio de Weierstrass. Sea $V$ un espacio de Banach y sea $(v_n)_{n \in \mathbb{N}} \,$ una sucesión en $V.$ Si la serie de números reales $\sum_{k=1}^{\infty} \, \norm{v_k}$ converge decimos que es absolutamente convergente. En este caso se cumple que la serie $\sum_{k=1}^{\infty} \, v_k$ converge en $V$ y además:
$$\norm{\sum_{k=1}^{\infty} \, v_k} \leq \sum_{k=1}^{\infty} \, \norm{v_k}.$$

Demostración:
Dado que $\sum_{k=1}^{\infty} \, \norm{v_k}$ converge en $\mathbb{R}$ que es de Banach, se sigue por la proposición anterior, que existe $N_0 \in \mathbb{N}$ tal que para cualquier $N \geq N_0$ y cualquier $j \geq 1$ se cumple
\begin{align*}
&&&|\, \norm{v_{N+1}}+…+\norm{v_{N+j}} \,|&< \varepsilon\\
&\Rightarrow &&\norm{v_{N+1}}+…+\norm{v_{N+j}}&< \varepsilon\\
&\Rightarrow &\norm{v_{N+1}+…+v_{N+j}}\leq &\norm{v_{N+1}}+…+\norm{v_{N+j}} &< \varepsilon.
\end{align*}

Nuevamente por la proposición anterior concluimos que la serie $\sum_{k=1}^{\infty} \, v_k$ converge en $V.$

Dado que para cada $n \in \mathbb{N}$ se cumple

\begin{align*}
&&\norm{\sum_{k=1}^{n}v_k} &\leq \sum_{k=1}^{n} \norm{v_k}\\
&\Rightarrow& \underset{n \to \infty}{lim} \, \norm{\sum_{k=1}^{n}v_k} &\leq \underset{n \to \infty}{lim} \, \sum_{k=1}^{n} \norm{v_k}\\
&\Rightarrow& \norm{\sum_{k=1}^{\infty} \, v_k} &\leq \sum_{k=1}^{\infty} \, \norm{v_k}.
\end{align*}

Con lo cual concluimos la demostración. Este teorema tiene su regreso en la siguiente:

Proposición. Sea $(V, \norm{\cdot})$ un espacio vectorial normado. Entonces $V$ es completo si y solo si toda serie en $V$ absolutamente convergente es convergente. La demostración del regreso se dejará como ejercicio.

Más adelante…

Ya que nos familiarizamos con la idea de las sumas infinitas, procederemos con unas que tendrán como términos funciones. Debido a que la suma de funciones es una función, de esta naturaleza será el límite.

Tarea moral

  1. Demuestra que si una serie de un espacio vectorial normado es convergente, entonces su límite es único.
  2. Sea $(V, \norm{\cdot})$ un espacio vectorial normado. Prueba que si toda serie en $V$ absolutamente convergente es convergente entonces $V$ es completo. A continuación una guía para la demostración:
    a) Sea $(v_n)_{n \in \mathbb{N}}$ una sucesión de Cauchy en $V.$ Construye una subsucesión $(v_{nk})$ de $(v_n)$ tal que $\norm{x_{n_{k+1}}-x_{nk}}< \frac{1}{2^k}.$
    b) Prueba que $sum_{k=1}^{\infty}(x_{n_{k+1}}-x_{nk})$ es convergente.
    c) Prueba que $(v_{nk})$ converge y concluye que $(v_n)$ es convergente.

Enlaces: