Archivo del Autor: Lizbeth Fernández Villegas

Desigualdades: Young, Hölder, Minkowski y Chauchy-Schwarz

Por Lizbeth Fernández Villegas

Introducción

En la entrada anterior mencionamos que cuando un espacio vectorial tiene una norma, esta a su vez induce una métrica. Al final de esa sección enunciamos algunos ejemplos de espacios normados, ahora procederemos a probar que, en efecto, las definiciones dadas cumplen con la desigualdad del triángulo. Esto se hará a través de las desigualdades de Young, Hölder, Minkowski y Cauchy-Schwarz, cuyas demostraciones, por medio de razonamientos algebraicos, pueden consultarse en diversas fuentes (presentamos algunas al final). Si bien, el álgebra nos da la certeza de la prueba, la geometría nos regala la intuición del por qué ocurre así. Esto nos lleva a motivar la argumentación a modo de dibujos «en bonito» para lo que dedicaremos las siguientes líneas.

La desigualdad de Young

Proposición. Desigualdad de Young. Sean $p,q \in (1, \infty)$ tales que $\frac{1}{p} + \frac{1}{q} =1.$ Entonces para cualesquiera $a,b \in \mathbb{R}$ tales que $a,b \geq 0$ se cumple que

$$ab \leq \frac{1}{p}a^p + \frac{1}{q}b^q.$$

Demostración: Lo veremos geométricamente a través de integrales. Una prueba más breve puede consultarse en el libro Clapp, M., Análisis Matemático. Ciudad de México: Editorial Papirhos, IM-UNAM, 2013. Pág, 12.

Siendo $a,b \geq 0,$ considera el rectángulo de base $a$ y altura $b$ posicionado en el primer cuadrante, como muestra la figura.

Ahora considera una función continua y creciente $f: [0, \infty) \to \mathbb{R}$ tal que $f(0) = 0$ y con $[0,b]$ contenido en la imagen de $f.$ Nota que $f$ es una función inyectiva en $[0, \infty]$ y tiene inversa, cuando menos en los siguientes casos:

Caso 1: Cuando $f(a) = b.$

La función restringida $f_{[0,a]}: [0,a] \to [0,b]$ es biyectiva. El área del rectángulo es $ab$ y esto es igual al área bajo la curva de $f$ en $[a,b]$ más el área bajo la curva de la función inversa $f^{-1}$ (que es el área entre la curva y el eje vertical).

$ \int_{0}^{a} f(x) dx+ \int_{0}^{b} f^{-1}(x) dx \,$ es igual al área del rectángulo.

Caso 2: Cuando $f(a) < b.$

La función restringida $f_{[0,f^{-1}(b)]}: [0,f^{-1}(b)] \to [0,b]$ es biyectiva. En este caso, el área del rectángulo queda contenida en el área bajo la curva en el intervalo $[0,a]$ (en el eje horizontal) y el área entre la curva y el intervalo $[0,b]$ en el eje vertical.

$ \int_{0}^{a} f(x) dx+ \int_{0}^{b} f^{-1}(x) dx \,$ tiene un «pedazo» de área extra al rectángulo.

Caso 3: Cuando $f(a) >b.$

La función restringida $f_{[0,a]}: [0,a] \to [0,f(a)]$ es biyectiva. Podemos observar un «excedente» al rectángulo arriba del mismo.

El área entre la curva y los ejes en $[0,a]$ (horizontal) y $[0,b]$ (vertical) tiene un «pedazo» extra al rectángulo.

de modo que en cualquier caso

$$ab \leq \int_{0}^{a} f(x) dx+ \int_{0}^{b} f^{-1}(x) dx$$

Apliquemos esto considerando la función $f(x)= x^{p-1},$ que es creciente. Nota que $f(0)=0$ y que $f^{-1}(x)=x ^{\frac{1}{p-1}}.$ Dado que $\frac{1}{p} + \frac{1}{q} =1,$ se puede ver que $\frac{1}{p -1}=q-1.$ En consecuencia

\begin{align*}
ab &\leq \int_{0}^{a} f(x) dx+ \int_{0}^{b} f^{-1}(x) dx \\
& = \int_{0}^{a} x^{p-1} dx+ \int_{0}^{b}x ^{\frac{1}{p-1}} dx \\
& = \int_{0}^{a} x^{p-1} dx+ \int_{0}^{b}x ^{q-1} dx \\
& = \frac{a^p}{p} + \frac{b^q}{q}
\end{align*}

por lo tanto

$$ab \leq \frac{1}{p}a^p + \frac{1}{q}b^q$$

que es lo que queríamos probar. Esta desigualdad será aplicada en las siguientes demostraciones.

La función $\norm{\cdot}_p: \mathbb{R}^n \to \mathbb{R}$ satisface la desigualdad del triángulo.

Proposición. Desigualdad de Hölder en $\mathbb{R}^n$. Sean $p,q \in (1, \infty)$ tales que $\frac{1}{p}+\frac{1}{q}=1.$ Entonces para cualesquiera $x=(x_1,…,x_n), \, y=(y_1,…,y_n) \in \mathbb{R}^n,$ si $xy:= (x_1 y_1,…,x_n y_n),$ se cumple que

\begin{align*}
\norm{xy}_1 &\leq \norm{x \vphantom{y}}_p \norm{y}_q \\
\sum_{i=1}^{n}|x_i y_i| & \leq \left(\sum_{i=1}^{n}|x_i|^p \right)^\frac{1}{p} \left(\sum_{i=1}^{n}|y_i|^q \right)^\frac{1}{q}.
\end{align*}

Demostración: Si algunos de los vectores es cero, la desigualdad es inmediata, entonces supongamos que ambos son distintos de cero. Nota que si la desigualdad se cumple para $x=(x_1,…,x_n), \, y=(y_1,…,y_n) \in \mathbb{R}^n,$ entonces, si $\lambda, \mu \in \mathbb{R},$ la desigualdad también se cumple para $\lambda x = (\lambda x_1,…, \lambda x_n)$ y para $\mu y= (\mu y_1,…, \mu y_n).$ Siendo así, basta con probar la desigualdad para vectores de norma uno (en sus respectivos espacios, inducidos por la norma p o la norma q), es decir cuando

\begin{align*}
&& \norm{x \vphantom{y}}_p &= \norm{y}_q &=1 \\
\\
&\iff& \left( \sum_{i=1}^{n}|x_i|^p \right) ^\frac{1}{p} &= \left(\sum_{i=1}^{n}|y_i|^q \right) ^\frac{1}{q} &=1 \\
&\iff& \sum_{i=1}^{n}|x_i|^p &= \sum_{i=1}^{n}|y_i|^q &=1.
\end{align*}

Asumiendo esto, apliquemos la desigualdad de Young a los términos $|x_i|, \, |y_i|,$ $i = 1,…,n,$ de modo que

\begin{align*}
&& |x_i||y_i|&\leq \frac{|x_i|^p}{p} + \frac{|y_i|^q}{q} \\
&\Rightarrow& \sum_{i=1}^{n}|x_i||y_i|&\leq \sum_{i=1}^{n} \frac{|x_i|^p}{p} + \sum_{i=1}^{n} \frac{|y_i|^q}{q} \\
&\Rightarrow& \sum_{i=1}^{n}|x_i||y_i|&\leq \frac{1}{p}\sum_{i=1}^{n}|x_i|^p + \frac{1}{q}\sum_{i=1}^{n}|y_i|^q \\
&& &=\frac{1}{p} + \frac{1}{q} \\
&& &=1 \\
&& &=\norm{x \vphantom{y}}_p \norm{y}_q .
\end{align*}

Por lo tanto $\norm{xy}_1 \leq \norm{x \vphantom{y}}_p \norm{y}_q.$

Podemos pensar en la desigualdad de Hölder como un control sobre el producto término a término, de dos vectores, pues la suma no excede el producto del «tamaño» de cada vector en su respectiva norma. Cuando $2=p=q, \,$ la «balanza de los exponentes» es simétrica y tenemos la desigualdad de Cauchy-Schwarz. En este caso estaremos en el espacio métrico euclidiano. Veamos el resultado a través de la «sombra» de un vector, que nunca será más larga que el vector en cuestión.

Proposición. Desigualdad de Cauchy Schwarz. Sean $x=(x_1,…,x_n), \, y=(y_1,…,y_n) \in \mathbb{R}^n.$ Se cumple que

$$\left( \sum_{i=1}^{n}x_i y_i \right) ^2 \leq \left( \sum_{i=1}^{n}x_i^2 \right) \left( \sum_{i=1}^{n}y_i^2 \right)$$

y la igualdad se verifica si y solo si los vectores están en la misma línea, esto es, si uno es producto escalar de otro.

Demostración: Se sigue de la desigualdad de Hölder, que acabamos de probar, y de la desigualdad del triángulo que:

$$\left( \sum_{i=1}^{n}x_i y_i \right) ^2 = \left| \sum_{i=1}^{n}x_i y_i \right| ^2 \leq \left( \sum_{i=1}^{n}\left| x_i y_i \right| \right) ^2 \leq \left( \left( \sum_{i=1}^{n}|x_i|^2 \right)^{\frac{1}{2}}\left( \sum_{i=1}^{n}|y_i|^2 \right)^{\frac{1}{2}} \right) ^2 \leq \left( \sum_{i=1}^{n}x_i^2 \right) \left( \sum_{i=1}^{n}y_i^2 \right).$$

Queda como ejercicio probar que la igualdad se da si y solo si los vectores están en la misma línea.

Nota que si consideramos el producto punto euclidiano definido como $x \cdot y:= \sum_{i=1}^{n}x_i y_i$

la desigualdad de Cauchy-Schwarz es equivalente a

$$x \cdot y \leq \norm{x \vphantom{y}}_2\norm{y}_2$$

Pero veamos una interpretación geométrica:

Considera $x=(x_1, x_2), \, y = (y_1, y_2) \in \mathbb{R}^2.$

Representación de dos vectores $x$ y $y$ en $\mathbb{R}^2$ y el ángulo entre ellos.

En las notas de Neumann, M., Geometría Analítica. Producto interno. Facultad de Ciencias UNAM. 2021 se puede ver que el producto punto euclidiano
satisface
$x \cdot y = cos \theta \norm{x \vphantom{y}}_2 \norm{y}_2 $

donde $\theta$ es en ángulo entre los vectores $x$ y $y.$

Las propiedades trigonométricas nos dicen que si proyectamos el vector $x$ en el vector $y,$ el valor de $cos \theta \norm{\vphantom{y}x}_2$ coincide con la norma del vector que genera la «sombra» de la proyección. Nota que el «tamaño» de esa sombra es menor igual que el tamaño del vector proyectado (la norma de $x$), por lo tanto se verifica que:

\begin{align*}
x \cdot y &= \textcolor{magenta}{cos \theta\norm{x \vphantom{y}}_2 } \norm{y}_2 \\
&=\textcolor{magenta}{\norm{\text{sombra}}_2} \norm{y}_2 \\
&\leq \textcolor{magenta}{\norm{\vphantom{y}x}_2} \norm{y}_2 .
\end{align*}

Representación de la proyección de $x$ sobre $y.$

A continuación vamos a comprobar que la norma p satisface la desigualdad del triángulo. Es lo que se conoce como:

Proposición. Desigualdad de Minkowski en $\mathbb{R}^n.$ Sean $x=(x_1,…,x_n), \, y=(y_1,…,y_n) \in \mathbb{R}^n$ y $p \in [1,\infty]$ Se cumple que

\begin{align*}
\norm{x+y}_p &\leq \norm{x \vphantom{y}}_p+\norm{y}_p\\
\\
\left( \sum_{i=1}^n|x_i+y_i|^p \right)^{\frac{1}{p}} & \leq \left(\sum_{i=1}^n|x_i|^p \right)^{\frac{1}{p}} +\left(\sum_{i=1}^n|y_i|^p \right)^{\frac{1}{p}}.
\end{align*}

Demostración:
Si $p=1$ la desigualdad es inmediata. Considera $p>1.$ Para cada $i=1,…,n$ tenemos que

\begin{align*}
(|x_i|+|y_i|)^{p} &= (|x_i|+|y_i|)(|x_i|+|y_i|)^{p-1}\\
&= \textcolor{magenta}{|x_i|(|x_i|+|y_i|)^{p-1}}+\textcolor{RoyalBlue}{|y_i|(|x_i|+|y_i|)^{p-1}}
\end{align*}

Ahora sumemos los términos para obtener

\begin{align*}
\sum_{i=1}^{n}(|x_i|+|y_i|)^{p} = \textcolor{magenta}{\sum_{i=1}^{n}|x_i|(|x_i|+|y_i|)^{p-1}}+ \textcolor{RoyalBlue}{\sum_{i=1}^{n}|y_i|(|x_i|+|y_i|)^{p-1}}.
\end{align*}

Sea $\textcolor{RedOrange}{q:= \frac{p}{p-1}}.$ Nota que $\frac{1}{p}+\frac{1}{q}= \frac{1}{p}+\frac{p-1}{p}=\frac{p}{p}=1.$ Apliquemos la desigualdad de Hölder a lo siguiente

\begin{align*}
\textcolor{magenta}{\sum_{i=1}^{n}|x_i|(|x_i|+|y_i|)^{p-1}} &\leq \left(\sum_{i=1}^n|x_i|^p \right)^{\frac{1}{p}} \left(\sum_{i=1}^n|(|x_i|+|y_i|)^{p-1}|^\textcolor{RedOrange}{q} \right)^{\frac{1}{q}} \\
& \leq \norm{x \vphantom{y}}_p \left(\sum_{i=1}^n|(|x_i|+|y_i|)^{p-1}|^\textcolor{RedOrange}{q} \right)^{\frac{1}{q}} \\
& \leq \norm{x \vphantom{y}}_p \left(\sum_{i=1}^n|(|x_i|+|y_i|)^{p-1}|^\textcolor{RedOrange}{\frac{p}{p-1}} \right)^{\frac{1}{q}} \\
& \leq \norm{x \vphantom{y}}_p \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}.
\end{align*}

Análogamente, podemos probar que
\begin{align*}
\textcolor{RoyalBlue}{\sum_{i=1}^{n}|y_i|(|x_i|+|y_i|)^{p-1}}
& \leq \norm{y \vphantom{y}}_p \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}.
\end{align*}

Sustituyendo tenemos

\begin{align*}
\sum_{i=1}^{n}(|x_i|+|y_i|)^{p} &= \textcolor{magenta}{\sum_{i=1}^{n}|x_i|(|x_i|+|y_i|)^{p-1}}+ \textcolor{RoyalBlue}{\sum_{i=1}^{n}|y_i|(|x_i|+|y_i|)^{p-1}}\\
&\leq \textcolor{magenta}{\norm{x \vphantom{y}}_p \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}} + \textcolor{RoyalBlue}{ \norm{y \vphantom{y}}_p \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}} \\
&= (\norm{x \vphantom{y}}_p+\norm{y \vphantom{y}}_p) \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}.
\end{align*}

Dividamos ambos lados de la desigualdad entre $\left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}.$ Esto nos lleva a usar las leyes de los exponentes del lado izquierdo. Al calcular $1-\frac{1}{q}= \frac{1}{p}$ se sigue:

\begin{align*}
\left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{p}}
&\leq \norm{x \vphantom{y}}_p+\norm{y \vphantom{y}}_p .
\end{align*}

Finalmente aplicamos la desigualdad del triángulo en números reales en la parte señalada para obtener

\begin{align*}
\norm{x+y}_p &=\left(\sum_{i=1}^n\textcolor{RedOrange}{|x_i+y_i|}^{p} \right)^{\frac{1}{p}}\\
&\leq \left(\sum_{i=1}^n\textcolor{RedOrange}{(|x_i|+|y_i|)}^{p} \right)^{\frac{1}{p}} \\
&\leq \norm{x \vphantom{y}}_p+\norm{y \vphantom{y}}_p .
\end{align*}

que es lo que queríamos probar.

Aplicaremos este resultado para probar la desigualdad del triángulo en espacios de sucesiones $\ell_p$ con la norma definida en Espacios normados:

La función $\norm{\cdot}_{p}: \ell_{p} \to \mathbb{R}$ satisface la desigualdad del triángulo.

Proposición. Desigualdad de Minkowski para series. Sea $p \in [1, \infty)$ y sean $(x_n)_{n \in \mathbb{N}}, \, (y_n)_{n \in \mathbb{N}} \in \ell_p.$ Se cumple que

\begin{align*}
\norm{(x_n)+(y_n)}_p &\leq \norm{(x_n) \vphantom{y}}_p+\norm{(y_n)}_p\\
\\
\left( \sum_{i=1}^{\infty}|x_i+y_i|^p \right)^{\frac{1}{p}} & \leq \left(\sum_{i=1}^{\infty}|x_i|^p \right)^{\frac{1}{p}} +\left(\sum_{i=1}^{\infty}|y_i|^p \right)^{\frac{1}{p}}.
\end{align*}

Demostración:
De acuerdo con el criterio de acotación para series de números reales (lo puedes repasar en Cálculo Diferencial e Integral II: Criterio de la divergencia y de acotación), para ver que la serie $\left( \sum_{i=1}^{\infty}|x_i+y_i|^p \right)^{\frac{1}{p}}$ converge basta probar que su sucesión de sumas parciales está acotada. Como las series $(x_n), \in (y_n) \in \ell_p$ podemos hablar del valor de su norma, donde:

\begin{align*}
\textcolor{magenta}{\norm{(x_n) \vphantom{y}}_p} &= \textcolor{magenta}{\left(\sum_{i=1}^{\infty}|x_i|^p \right)^{\frac{1}{p}}} \\
\text{y } \,
\textcolor{RoyalBlue}{ \, \norm{(y_n) \vphantom{y}}_p} &= \textcolor{RoyalBlue}{\left(\sum_{i=1}^{\infty}|y_i|^p \right)^{\frac{1}{p}}}.
\end{align*}

Si sumamos los primeros $N$ elementos, por la desigualdad que acabamos de probar se sigue que

\begin{align*}
\left( \sum_{i=1}^N|x_i+y_i|^p \right)^{\frac{1}{p}} & \leq \textcolor{magenta}{\left(\sum_{i=1}^N|x_i|^p \right)^{\frac{1}{p}}} + \textcolor{RoyalBlue}{\left(\sum_{i=1}^N|y_i|^p \right)^{\frac{1}{p}}}\\
&\leq \textcolor{magenta}{\left(\sum_{i=1}^{\infty}|x_i|^p \right)^{\frac{1}{p}}} + \textcolor{RoyalBlue}{\left(\sum_{i=1}^{\infty}|y_i|^p \right)^{\frac{1}{p}}}\\
&= \textcolor{magenta}{\norm{(x_n) \vphantom{y}}_p} + \textcolor{RoyalBlue}{ \, \norm{(y_n) \vphantom{y}}_p}.
\end{align*}

Como $N$ es cualquier número natural, concluimos que la sucesión de sumas parciales está acotada por $\textcolor{magenta}{\norm{(x_n) \vphantom{y}}_p} + \textcolor{RoyalBlue}{ \, \norm{(y_n) \vphantom{y}}_p} \,$ entonces la serie converge y

$$\norm{(x_n+y_n) \vphantom{y}}_p = \left( \sum_{i=1}^{\infty}|x_i+y_i|^p \right)^{\frac{1}{p}} \leq \norm{(x_n) \vphantom{y}}_p + \, \norm{(y_n) \vphantom{y}}_p$$

que es lo que queríamos probar.

Ahora conozcamos la versión continua de estas desigualdades, esto es, para espacios donde la norma se define a partir de una integral.

La función $\norm{\cdot \vphantom{b}}_{p}: \mathcal{C}^0[a,b] \to \mathbb{R}$ satisface la desigualdad del triángulo.

Proposición. Desigualdad de Hölder para integrales. Sean $f,g \in \mathcal{C}^0[a,b]$ y $p,q \in (1, \infty)$ tales que $\frac{1}{p} + \frac{1}{q}=1.$ Se cumple que

\begin{align*}
\int_{a}^{b} |f(x)g(x)| \,dx &\leq \left(\int_{a}^{b} |f(x)|^p \,dx \right)^{1/p} \left(\int_{a}^{b} |g(x)|^q \,dx \right)^{1/q} \\
\norm{fg}_1 &\leq \norm{f}_p \norm{g}_q.
\end{align*}

Demostración:
La desigualdad es inmediata si $f=0 \,$ o $\, g=0$ entonces supongamos que tanto $f$ como $g$ son distintas de cero. Es sencillo probar que $\norm{f}_p \neq 0$ y $\norm{g}_p \neq 0.$

Sea $x \in [a,b].$ Apliquemos la desigualdad de Young, vista arriba, a los números:

\begin{align*}
\textcolor{magenta}{\frac{|f(x)|}{\norm{f}_p}} \,\text{ y } \, \textcolor{RoyalBlue}{\frac{|g(x)|}{\norm{g}_q}}
\end{align*}

tenemos que

\begin{align*}
\textcolor{magenta}{\frac{|f(x)|}{\norm{f}_p}} \, \textcolor{RoyalBlue}{\frac{|g(x)|}{\norm{g}_q}} &\leq \frac{1}{p}\left(\textcolor{magenta}{\frac{|f(x)|}{\norm{f}_p}}\right)^p +\frac{1}{q}\left(\textcolor{RoyalBlue}{\frac{|g(x)|}{\norm{g}_q}}\right)^q \\

\Rightarrow \frac{|\textcolor{magenta}{f(x)}\textcolor{RoyalBlue}{g(x)}|}{\textcolor{magenta}{\norm{f}_p} \textcolor{RoyalBlue}{\norm{g}_q}} &\leq \frac{|f(x)|^p}{p\norm{f}_p^p} + \frac{|g(x)|^q}{q\norm{g}_q^q} \\

\Rightarrow \int_{a}^{b} \frac{|f(x)g(x)|}{\norm{f}_p \norm{g}_q} dx &\leq \int_{a}^{b}\frac{|f(x)|^p}{p\norm{f}_p^p} + \frac{|g(x)|^q}{q\norm{g}_q^q} dx \\
\end{align*}

De lo anterior se sigue:

\begin{align*}
\Rightarrow \frac{1}{\norm{f}_p \norm{g}_q} \int_{a}^{b} |f(x)g(x)| dx &\leq \frac{1}{p\norm{f}_p^p}\textcolor{magenta}{\int_{a}^{b}|f(x)|^p dx} + \frac{1}{q\norm{g}_q^q} \textcolor{RoyalBlue}{\int_{a}^{b}|g(x)|^q dx} \\

&= \frac{1}{p\norm{f}_p^p}\textcolor{magenta}{\norm{f}_p^p} + \frac{1}{q\norm{g}_q^q} \textcolor{RoyalBlue}{\norm{g}_q^q} \\
&= \frac{1}{p}+\frac{1}{q}\\
&=1.
\end{align*}

Al multiplicar ambos lados por $\norm{f}_p \norm{g}_q$ se verifica

\begin{align*}
\Rightarrow \int_{a}^{b} |f(x)g(x)| dx &\leq \norm{f}_p \norm{g}_q
\end{align*}

que es lo que queríamos demostrar, pues
$$\int_{a}^{b} |f(x)g(x)| \,dx =
\norm{fg}_1$$
$$ \text{y }\, \left(\int_{a}^{b} |f(x)|^p \,dx \right)^{1/p} \left(\int_{a}^{b} |g(x)|^q \,dx \right)^{1/q} = \norm{f}_p \norm{g}_q$$

Proposición. Desigualdad de Minkowski para integrales. Sean $f,g \in \mathcal{C}^0[a,b]$ y $p \in [1, \infty].$ Entonces se verifica la desigualdad del triángulo en $\norm{\cdot}_p,$ es decir

\begin{align*}
\norm{f+g}_p \leq \norm{f}_p + \norm{g}_p.
\end{align*}

Ver definición de $\norm{\cdot}_p$ en entrada Espacios normados – El blog de Leo.

Demostración:
Comencemos con el caso en que $p= \infty.$ Sea $x \in [a,b].$ Por la desigualdad del triángulo para números reales tenemos

\begin{align*}
|f(x)+g(x)| &\leq |f(x)|+|g(x)| \\
&\leq \underset{a \leq x \leq b}{max} \, |f(x)|
+\underset{a \leq x \leq b}{max} \, |g(x)| \\
&= \norm{f}_{\infty} +\norm{g}_{\infty}
\end{align*}

Dado que $\underset{a \leq x \leq b}{max} \, |f(x)+g(x)|$ es la menor de las cotas superiores concluimos:

$$\norm{f+g}_{\infty} = \underset{a \leq x \leq b}{max} \, |f(x)+g(x)|\leq \norm{f}_{\infty} +\norm{g}_{\infty}.$$

Por otro lado, cuando $p=1$ la desigualdad se sigue de la linealidad de la integral. Supongamos que $p \in (1,\infty).$

Supongamos también que ambas funciones son distintas de la constante cero (si alguna es cero la desigualdad es inmediata). Veamos que

\begin{align*}
\int_{a}^{b}(|f(x)|+|g(x)|)^p dx &= \int_{a}^{b}(|f(x)|+|g(x)|)(|f(x)|+|g(x)|)^{p-1} dx \\
&= \textcolor{magenta}{\int_{a}^{b}|f(x)|(|f(x)|+|g(x)|)^{p-1} dx}+ \textcolor{RoyalBlue}{\int_{a}^{b}|g(x)|(|f(x)|+|g(x)|)^{p-1} dx} \\
\end{align*}

Como $p>1,$ arriba vimos que si $\textcolor{RedOrange}{q:= \frac{p}{p-1}}$ entonces $\frac{1}{q}+\frac{1}{p}=1.$ Apliquemos la desigualdad de Hölder para integrales en $\textcolor{magenta}{\int_{a}^{b}|f(x)|(|f(x)|+|g(x)|)^{p-1} dx}$ de donde

\begin{align*}
\textcolor{magenta}{\int_{a}^{b}|f(x)|(|f(x)|+|g(x)|)^{p-1} dx} &\leq \left(\int_{a}^{b}|f(x)|^p dx\right)^{\frac{1}{p}} \left(\int_{a}^{b}((|f(x)|+|g(x)|)^{p-1})^{\textcolor{RedOrange}{q}} dx\right)^{\frac{1}{q}} \\
&= \norm{f}_p \left(\int_{a}^{b}((|f(x)|+|g(x)|)^{p-1})^{\textcolor{RedOrange}{\frac{p}{p-1}}} dx\right)^{\frac{1}{q}} \\
&= \norm{f}_p \left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}.
\end{align*}

Se puede verificar de forma análoga que

\begin{align*}
\textcolor{RoyalBlue}{\int_{a}^{b}|g(x)|(|f(x)|+|g(x)|)^{p-1} dx} &\leq \norm{g}_p \left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}.
\end{align*}

En consecuencia

\begin{align*}
\int_{a}^{b}(|f(x)|+|g(x)|)^p dx &= \int_{a}^{b}(|f(x)|+|g(x)|)(|f(x)|+|g(x)|)^{p-1} dx \\
&= \textcolor{magenta}{\int_{a}^{b}|f(x)|(|f(x)|+|g(x)|)^{p-1} dx}+ \textcolor{RoyalBlue}{\int_{a}^{b}|g(x)|(|f(x)|+|g(x)|)^{p-1} dx} \\
&\leq \textcolor{magenta}{\norm{f}_p \left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}} + \textcolor{RoyalBlue}{\norm{g}_p \left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}}\\
&\leq (\norm{f}_p +\norm{g}_p)\left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}.
\end{align*}

Ahora dividamos ambos lados de la desigualdad entre $\left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}.$ Del lado izquierdo aplicamos leyes de los exponentes, restando $1- \frac{1}{q}=\frac{1}{p}.$ Usamos también la desigualdad del triángulo en la parte señalada. Finalmente tenemos:

\begin{align*}
\left(\int_{a}^{b}\textcolor{RedOrange}{|f(x)+g(x)|}^p\right) ^{\frac{1}{p}} &\leq \left(\int_{a}^{b}\textcolor{RedOrange}{(|f(x)|+|g(x)|)}^p\right) ^{\frac{1}{p}} \\ &\leq \norm{f}_p +\norm{g}_p \\
\Rightarrow \norm{f+g}_p &\leq \norm{f}_p +\norm{g}_p
\end{align*}

Que es lo que queríamos probar.

Más adelante…

En la siguiente entrada procederemos a identificar todos los puntos que están «cerca» de un punto específico. ¿Te suena familiar? Vamos a ver si el conjunto formado por estos puntos es diferente al que estamos acostumbrados a representar como una bola «redonda» de radio $\varepsilon > 0$.

Tarea moral

  1. Prueba que se cumple la igualdad en la desigualdad de Cauchy Schuarz si y solo si los vectores están en la misma línea.
  2. Prueba la desigualdad de Hölder para series: Si $p,q \in (1, \infty)$ y $\frac{1}{p} +\frac{1}{q}=1$ y tenemos dos sucesiones tales que $(x_n)_{n \in \mathbb{N}} \in \ell_p$ y $(y_n)_{n \in \mathbb{N}} \in \ell_q,$ entonces $(x_ny_n)_{n \in \mathbb{N}} \in \ell_1$ y
    \begin{align*}
    \norm{(x_ny_n)}_1 &\leq \norm{(x \vphantom{y}_n)}_p \norm{(y_n)}_q \\
    \sum_{i=1}^{\infty}|x_i y_i| & \leq \left(\sum_{i=1}^{\infty}|x_i|^p \right)^\frac{1}{p} \left(\sum_{i=1}^{\infty}|y_i|^q \right)^\frac{1}{q}.
    \end{align*}
  3. Prueba que las funciones definidas en Espacios normados en efecto son normas.

Bibliografía

Enlaces

La compacidad en espacios normados

Por Lizbeth Fernández Villegas

Introducción

En la sección de Compacidad en espacios métricos hablamos de un conjunto en el espacio $\ell_{\infty}:$ El conjunto dado por $\overline{B}(\mathcal{0},1)$ (donde $\mathcal{0}$ es la sucesión que en todos los términos vale 0). Tiene la propiedad de ser cerrado y acotado en $\ell_{\infty}$ pero no es compacto. Esto se probó mostrando que no era posible cubrirlo con una cantidad finita de bolas abiertas, cuyo radio era «muy pequeño», lo suficiente para no tener más de un elemento $e_i$ dentro (donde $e_i$ es la sucesión que toma a $1$ como valor en la entrada $i$ y $0$ en el resto). Se vio que era posible elegir un radio así porque los elementos $e_i$ estaban «alejados» entre sí.

Aparentemente no basta con tener nuestros elementos atrapados en un entorno para asegurar que no estén lejos unos de otros. En esta sección vamos a ver qué condiciones impiden que así suceda. Primero necesitaremos estos resultados:

Teorema. Cualesquiera dos normas en un espacio vectorial de dimensión finita son equivalentes.

Demostración:
Sea $V$ un espacio vectorial de dimensión $n$ y $\{v_1, \, v_2,…,v_n\}$ una base para $V.$ Primero definiremos una norma $\textcolor{magenta}{\norm{\cdot}^*}$ en $V$ para luego demostrar que cualquier otra norma en $V$ es equivalente a esta:

Sea $v \in V.$ Entonces $v = \sum_{i=1}^{n}x_i v_i$ para algunos (únicos) escalares $x_i \in \mathbb{R}, \, i=1,…,n.$ Definimos

$$\textcolor{magenta}{\norm{v}^*}:= \textcolor{magenta}{\sum_{i=1}^{n}|x_i|}$$

Nota que este valor coincide con la norma 1 en $\mathbb{R}^n$ del vector $(x_1,…,x_n).$ $\textcolor{orange}{\text{Dejaremos como ejercicio probar que }} \textcolor{magenta}{\norm{v}^*}$ $\textcolor{orange}{\text{ es una norma en $V$ y que la transformación}}$

$T: (\mathbb{R}^n, \norm{\cdot}_1) \to (V,\textcolor{magenta}{\norm{v}^*}) \,$ definida como $T(x_1,…,x_n)= \sum_{i=1}^{n}x_i v_i$ $\textcolor{orange}{\text{es una isometría entre estos espacios}}$ y por tanto, $T$ es una equivalencia (ejercicio 4 en Tarea moral de Más conceptos de continuidad).

Considera la esfera unitaria $S_V= \{v \in V \, | \, \textcolor{magenta}{\norm{v}^*} =1\}.$ Nota que es la imagen de $T$ en la esfera unitaria en $\mathbb{R}^n$ dada por $\mathbb{S}^{n-1}:= \{x \in \mathbb{R}^n \, | \, \norm{x}_1=1\}.$ $\textcolor{orange}{\text{Dejaremos como ejercicio probar que }}$ $\mathbb{S}^{n-1}$ es cerrado y acotado en $\mathbb{R}^n$ con la métrica usual y por tanto, compacto en ese espacio. En Más conceptos de continuidad vimos que $\norm{\cdot}_1$ y $\norm{\cdot}_2$ son equivalentes en $\mathbb{R}^n.$ Eso significa que ambos espacios métricos tienen los mismos abiertos (una cubierta abierta en $\norm{\cdot}_1$ lo es en $\norm{\cdot}_2$ y viceversa), por lo tanto $\mathbb{S}^{n-1}$ también es compacto en $(\mathbb{R}^n, \norm{\cdot}_1).$

Por la continuidad de $T$ se sigue que $T(\mathbb{S}^{n-1})= S_V$ es compacto en $(V,\textcolor{magenta}{\norm{v}^*}).$

Sea $\textcolor{RoyalBlue}{\norm{\cdot}}$ cualquier otra norma en $V.$ Vamos a probar que las normas $\textcolor{RoyalBlue}{\norm{\cdot}}$ y $\textcolor{magenta}{\norm{v}^*}$ son equivalentes.

Sea $v = \sum_{i=1}^{n}x_i v_i.$ Por propiedades de la norma se sigue:

\begin{align*}
\textcolor{RoyalBlue}{\norm{\sum_{i=1}^{n}x_i v_i}} &\leq \sum_{i=1}^{n}|x_i|\textcolor{RoyalBlue}{\norm{v_i}}\\
&\leq \underset{1 \leq i \leq n}{max} \, \textcolor{RoyalBlue}{\norm{v_i}}\textcolor{magenta}{\sum_{i=1}^{n}|x_i|}\\
\end{align*}

Haciendo $c := \underset{1 \leq i \leq n}{max} \, \textcolor{RoyalBlue}{\norm{v_i}}$ concluimos que para cualquier $v \in V,$

\begin{align}
\textcolor{RoyalBlue}{\norm{v}} \leq c \textcolor{magenta}{\norm{v}^*}
\end{align}

Nota que podemos pensar en $\textcolor{RoyalBlue}{\norm{\cdot}}$ como una función continua en el espacio $(V,\textcolor{magenta}{\norm{v}^*})$ al espacio $\mathbb{R}.$ De hecho es lipschitz continua, pues por lo que acabamos de probar, para cada $u, v \in V$ se satisface:

$$|\textcolor{RoyalBlue}{\norm{v}} -\textcolor{RoyalBlue}{\norm{u}}| \leq \textcolor{RoyalBlue}{\norm{v -u}} \leq c \textcolor{magenta}{\norm{v -u}^*}$$

y como $S_V$ es compacto en $(V,\textcolor{magenta}{\norm{v}^*})$ se sigue que $\textcolor{RoyalBlue}{\norm{\cdot}}$ alcanza su mínimo $c_2$ en $S_V.$ Nota que para cualquier $v \in S_V,$ $c \leq \textcolor{RoyalBlue}{\norm{v}}$ y que $c_2 >0,$ pues si el mínimo se alcanza en $v_0 \in S_V$ entonces $c_2=0 \iff \textcolor{RoyalBlue}{\norm{v_0}}=0 \iff v_0 =0 \iff \textcolor{magenta}{\norm{v_0}^*} =0$ entonces $v_0$ no pertenece a $S_V,$ lo cual es una contradicción.

Sea $v \neq 0 \in V.$ Entonces $\frac{v}{\textcolor{magenta}{\norm{v}^*}} \in S_V$ entonces

\begin{align}
\nonumber c_2 &\leq \textcolor{RoyalBlue}{\norm{\frac{v}{\textcolor{magenta}{\norm{v}^*}}}}\\
\nonumber \Rightarrow c_2 \textcolor{magenta}{\norm{v}^*} &\leq \textcolor{RoyalBlue}{\norm{v}} \\
\Rightarrow \textcolor{magenta}{\norm{v}^*} &\leq \frac{1}{c_2} \textcolor{RoyalBlue}{\norm{v}}.
\end{align}

De 1 y 2 concluimos que cualquier norma en $V$ es equivalente a $\textcolor{magenta}{\norm{v}^*}.$ Por lo tanto, cualesquiera dos normas en un espacio vectorial de dimensión finita son equivalentes.

Ahora estamos listos para mostrar la prueba de una afirmación presentada al final de Espacios métricos completos.

Corolario. Todo espacio normado de dimensión finita es de Banach.

Demostración:
Sea $V$ un espacio de dimensión finita $n$ con norma $\textcolor{RoyalBlue}{\norm{\cdot}}.$ Ya que $(\mathbb{R}^n,\norm{\cdot}_2)$ es completo, de acuerdo con lo visto en Espacios métricos completos bastará mostrar que existe una equivalencia entre ambos espacios.

La prueba anterior muestra que existe una equivalencia entre $(V, \textcolor{magenta}{\norm{v}^*})$ y $(\mathbb{R}^n,\norm{\cdot}_1).$ También que todas las normas en $\mathbb{R}^n$ son equivalentes, por lo que, en particular $(\mathbb{R}^n,\norm{\cdot}_1)$ es de Banach (pues $\norm{\cdot}_1$ es equivalente a $\norm{\cdot}_2)$. Luego $(V, \textcolor{magenta}{\norm{v}^*})$ es de Banach y al ser $\textcolor{magenta}{\norm{v}^*}$ equivalente a $\textcolor{RoyalBlue}{\norm{\cdot}}$ se sigue que $(V, \textcolor{RoyalBlue}{\norm{\cdot}})$ es de Banach.

Corolario. Sea $V$ un espacio vectorial normado. Todo subespacio vectorial de dimensión finita de $V$ es cerrado en $V.$

Demostración:
Sea $W$ subespacio vectorial de $V$ de dimensión finita. Por el resultado anterior, $W$ es completo. En Espacios métricos completos vimos que si un subespacio métrico es completo entonces es cerrado en el espacio que lo contiene, por lo tanto, $W$ es cerrado en $V.$

Lema de Riesz. Sea $V$ un espacio vectorial normado (de cualquier dimensión) y $W$ un subespacio vectorial de $V$ tal que $W$ es cerrado y $W \neq V.$ Entonces para cada $\delta \in (0,1)$ existe $v_{\delta} \in V$ tal que $\norm{v_{\delta}}=1$ y $\norm{v_{\delta}-w}\geq \delta$ para toda $w \in W.$

Demostración:
Como $W \neq V$ podemos tomar $v \in V \setminus W.$ Como $W$ es cerrado, existe $\varepsilon >0$ tal que $B(v, \varepsilon) \subset V \setminus W,$ en consecuencia $0 < r := \underset{w \in W}{inf} \, \norm{v-w}.$

Sea $\delta \in (0,1),$ nota que $r < \frac{r}{\delta}.$ Como $r$ es ínfimo, existe $w_0 \in W$ tal que $r \leq \textcolor{RoyalBlue}{\norm{v -w_0} \leq \frac{r}{\delta}}.$

Sea
$$v_{\delta} = \frac{v -w_0}{\norm{v -w_0}}$$

Entonces $\norm{v_{\delta}}=1.$ Probemos ahora que para cada $w \in W,$ $\norm{v_{\delta} -w}\geq \delta.$

\begin{align*}
\norm{v_{\delta}-w} &= \norm{\frac{v -w_0}{\norm{v -w_0}} -w} \\
&= \norm{\frac{v -w_0}{\norm{v -w_0}} -\frac{\norm{v -w_0}w}{\norm{v -w_0}}} \\
&= \frac{1}{\norm{v -w_0}} \norm{v -\textcolor{magenta}{w_0 -\norm{v -w_0}w}}
\end{align*}

Dado que $\textcolor{magenta}{w_0 -\norm{v -w_0}w}$ es combinación lineal de elementos en $W,$ se sigue que $\textcolor{magenta}{w_0 -\norm{v -w_0}w}$ pertenece a $W.$ En consecuencia

\begin{align*}
\norm{v -\textcolor{magenta}{w_0 -\norm{v -w_0}w}} &\geq r\\
\Rightarrow \frac{1}{\norm{v -w_0}} \norm{v -\textcolor{magenta}{w_0 -\norm{v -w_0}w}} &\geq \textcolor{RoyalBlue}{\frac{1}{\norm{v -w_0}}} r\\
\Rightarrow \norm{v_{\delta}-w} &\geq \textcolor{RoyalBlue}{\frac{\delta}{r}}r\\
\Rightarrow \norm{v_{\delta}-w} &\geq \delta
\end{align*}

que es lo que queríamos probar.

Teorema de Riesz. Sea $V$ un espacio vectorial normado. La esfera unitaria $S_V= \{v \in V \, | \, \norm{v} =1\}$ es compacta si y solo si, $V$ es de dimensión finita.

Demostración:
Supongamos por el contrario que $V$ es de dimensión infinita. Partimos de que $S_V$ es compacto. En Compacidad en espacios métricos vimos que toda sucesión de un compacto tiene una subsucesión convergente. Nuestra contradicción será una sucesión que no tiene esta propiedad:

Sea $W_1 := \langle w_1 \rangle$ el espacio generado por un vector $w_1 \in S_V$ Entonces $W_1$ es subespacio propio de $V$ (pues $V$ es de dimensión infinita) y por los dos últimos resultados de arriba, $W_1$ es cerrado y para $\delta = \frac{1}{2}$ existe $w_2 \in S_V$ tal que $\norm{w_2 -w} \geq \frac{1}{2}$ para cada $w \in W_1.$

Sea $W_2 := \langle w_1, w_2 \rangle$ el espacio generado por los vectores $w_1$ y $w_2.$ Entonces $W_2$ es subespacio propio de $V$ (pues $V$ es de dimensión infinita) y por los dos últimos resultados de arriba, $W_2$ es cerrado y para $\delta = \frac{1}{2}$ existe $w_3 \in S_V$ tal que $\norm{w_3 -w} \geq \frac{1}{2}$ para cada $w \in W_2.$
.
.
.
Sea $W_k := \langle w_1, w_2,…,w_k \rangle$ el espacio generado por los vectores $w_1, w_2,….,w_k.$ Entonces $W_k$ es subespacio propio de $V$ (pues $V$ es de dimensión infinita) y por los dos últimos resultados de arriba, $W_k$ es cerrado y para $\delta = \frac{1}{2}$ existe $w_{k+1} \in S_V$ tal que $\norm{w_{k+1} -w} \geq \frac{1}{2}$ para cada $w \in W_k.$

De esta construcción se tiene que $(w_n)_{n \in \mathbb{N}} \,$ es una sucesión de elementos de $S_V.$ Para cualesquiera dos elementos distintos de la sucesión $w_l, w_m$ supón sin pérdida de generalidad que $l < m$ entonces $w_l \in W_l \subset W_{m-1} \subsetneq W_m$ por lo que $\norm{w_l -w_m} \geq \frac{1}{2}$ en consecuencia no existe ninguna subsucesión de Cauchy para $(w_n)$ por lo que no hay tampoco una subsucesión convergente, lo que contradice que $S_V$ es compacto, por lo tanto $V$ es de dimensión finita. El regreso queda como ejercicio, (nota que $S_V$ es cerrado y acotado en $V$ y que lo puedes llevar a $(\mathbb{R}^n, \norm{\cdot}_2$ donde por Heine Borel sabemos que es compacto).

La misma argumentación prueba la siguiente:

Proposición. La bola cerrada $\overline{B}(0,1) = \{v \in V \, | \, \norm{v} \leq 1\}$ es compacta si y solo si $V$ es de dimensión finita. Lo mismo ocurre para cualquier bola cerrada en $V.$ Esto quedará como ejercicio.

De manera más general, se cumple:

Proposición. Sea $V$ un espacio vectorial normado de dimensión finita. Entonces $A \subset V$ es compacto en $V$ si y solo si $A$ es cerrado y acotado en $V.$

Demostración: Queda como ejercicio.

Más adelante…

Cuando hablamos de un espacio vectorial normado de dimensión finita $n$ podemos considerar una base de elementos $\{v_1, v_2,…,v_n\}$ todos de norma uno. La distancia entre cualesquiera dos de ellos siempre será mayor que cero y, de hecho, mayor que un $r \in \mathbb{R}.$ Ya que todos los elementos de la base están «lejos» del resto, cada uno necesitará su bolita para ser cubierto, pero al ser la base un conjunto finito, bastará una cantidad finita de bolitas para lograrlo. En dimensión infinita no ocurre así: tal como vimos, el Lema de Riesz permite seleccionar infinitos elementos en la esfera, alejados entre sí. Si queremos cubrir con bolitas «más pequeñas» que esa distancia necesitaremos una bolita para cada elemento, solo en eso ya se nos va una cantidad infinita de bolitas. Podemos ver que no podemos seleccionar cubiertas finitas para este tipo de cubiertas abiertas.

En esta entrada aprendimos que ser cerrado y acotado no basta para garantizar la compacidad en espacios de dimensión finita, lo siguiente será analizar específicamente cuando no falla lo que estamos intentando hacer (cubrir con finitas bolas chiquititas). Un conjunto donde sí se pueda hacer eso se denominará totalmente acotado. ¿Será suficiente para tener la compacidad?

Tarea moral

  1. Resuelve la parte de la prueba que quedó pendiente en el primer teorema.
  2. Demuestra el regreso del teorema de Riesz.
  3. Prueba que si $V$ es un espacio vectorial normado, entonces una bola cerrada en $V$ es compacta si y solo si $V$ es de dimensión finita.
  4. Sea $V$ un espacio vectorial normado de dimensión finita. Prueba que $A \subset V$ es compacto en $V$ si y solo si $A$ es cerrado y acotado en $V.$

Bibliografía

Enlaces

$\varepsilon\text{-$redes$}\,$ y la compacidad como generalización de la finitud

Por Lizbeth Fernández Villegas

MATERIAL EN REVISIÓN

Introducción

En la entrada conjuntos relativamente compactos y totalmente acotados hablamos de la propiedad que tiene un conjunto cuando podemos cubrirlo con una cantidad finita de bolas muy pequeñitas, en concreto, hablamos de la definición de un conjunto totalmente acotado en un espacio métrico. También vimos que un espacio compacto tiene esa propiedad.

Un conjunto totalmente acotado es cubierto por finitas bolas de radio $\varepsilon.$

En esta ocasión veremos una definición equivalente, a través del concepto de las $\varepsilon\text{-$redes$}.\,$ No profundizaremos en la argumentación de los resultados, pero esperamos que sean de tu interés y puedas consultarlos en la bibliografía presentada.

Definición. $\varepsilon\text{-$red$}\,$ de un conjunto. Sea $(X,d)$ un espacio métrico, $A \subset X$ y $\varepsilon>0.$ Decimos que $S\subset X$ es una $\varepsilon\text{-$red$}\,$ de $A$ si para cada $a \in A$ se cumple que $\text{dist}(a,S):= \underset{s \in S}{inf \,} d(a,s) \leq \varepsilon.$ Nota que esta distancia, de un punto a un conjunto, ya se había definido en la métrica de Hausdorff.

En la imagen, el conjunto morado es $S,$ representa una $\varepsilon\text{-$red$}\,$ del conjunto $A$ de color rosa.
Cada punto $a \in A$ está a distancia $\leq \varepsilon$ del conjunto $S$ morado.

Presentamos una definición alternativa a los conjuntos totalmente acotados. La prueba queda como tarea moral.

Proposición. $A\subset X$ es totalmente acotado si y solo si para cada $\varepsilon >0$ existe una $\varepsilon\text{-$red$}\,$ finita de $A.$

Demostración: Ejercicio.

Mientras pruebas esto verás que basta con tomar los centros de las bolitas de radio $\varepsilon,$ que son una cantidad finita, para formar con ellos una $\varepsilon\text{-$red$},\,$ lo que nos permite cambiar nuestra idea mental de ellas en conjuntos totalmente acotados:

El conjunto formado por los centros es una $\varepsilon\text{-$red$},\,$ para el conjunto rosa.

Recordemos que la distancia de Hausdorff, $d_H,$ asigna distancias entre conjuntos de un espacio métrico.

Si $A$ es el conjunto representado por la estrella rosa y $B,$ el representado por la estrella verde, dado que $d_H(A,B) = max \left\{\underset{a \in A}{sup} \, d(a,B), \underset{b \in B}{sup} \, d(b,A) \right\},$ podemos pensar en que dos conjuntos $A,B$ están «muy cerca» en la distancia de Hausdorff cuando cada punto de $A$ está muy cerca de algún punto en $B$ y viceversa.

El concepto de $\varepsilon\text{-$red$}\,$ está naturalmente relacionado con $d_H$ de la siguiente manera:

Dado un espacio métrico $(X,d)$ y un subconjunto $S \subset X,$ es inmediato verificar que si $d_{H}(S,X) < \varepsilon$ entonces $S$ es una $\varepsilon\text{-$red$}\,$ para $X$ y así mismo, $X$ es una $\varepsilon\text{-$red$}\,$ para $S.$

Esta reformulación y el hecho de que un espacio compacto es totalmente acotado (visto en Conjuntos relativamente compactos y totalmente acotados) hacen aparente un hecho conceptualmente interesante:

Si $X$ es compacto entonces para cada $\varepsilon >0$ podemos encontrar $S_{\varepsilon} \subset X$ una $\varepsilon\text{-$red$}\,$ finita.

Observa que si tenemos $0 <\varepsilon_2 < \varepsilon_1$ se tiene que $S_{\varepsilon_2}$ refina a $S_{\varepsilon_1},$ es decir, $S_{\varepsilon_2}$ tiene puntos que están «más cerca» de los puntos de $X.$

$(X,d)$ es representado por el conjunto rosa. $S_{\varepsilon_1}$ es representado por los puntos negros.
$S_{\varepsilon_2}$ es representado por los puntos negros.

De modo que si $\, (\varepsilon_n)_{n \in \mathbb{N}} \to 0 \,$ tendremos que $\, d_{H} (S_{\varepsilon_n},X) \to 0.$

En otras palabras, $X$ se puede aproximar por conjuntos finitos, (es decir, existe una sucesión de conjuntos en el espacio métrico de Hausdorff que converge a $X).$ ¡La compacidad se puede ver como una generalización de la finitud!

Representación de $S_{\varepsilon_1}.$
Representación de $S_{\varepsilon_2}.$
Representación de $S_{\varepsilon_3}.$
Representación de $S_{\varepsilon_k}.$

Para ponerlo de otra forma, los espacios métricos compactos son aquellos que le siguen en complejidad a los espacios finitos, en cierto sentido.

Es interesante mencionar que M. Cassarla probó que también se puede aproximar en el caso compacto a $X$ por otros objetos llamados «gráficas métricas» (que representa, a grandes rasgos un grafo dotado de una métrica) si $X$ es geodésico; la construcción básicamente se reduce a colocar aristas entre los puntos de las $\varepsilon\text{-$redes$}\,$ de manera inteligente.

Para este resultado y otra generalización aproximada por superficies suaves, ver cita artículo de Cassarla «Approximating compact inner spaces by surfaces».

Podemos sacarle aún más jugo a este análisis. Si ahora nos enfocamos en la llamada distancia de Gromov-Hausdorff (ver Burago-Burago-Ivanov capítulo 6), ¡el mismo razonamiento nos dice que la clase de espacios finitos es $d_{GH}$ -densa en la clase de espacios compactos!

Esto además de ser bonito, tiene consecuencias geniales; en esencia, toda propiedad geométrica que se pueda formular en términos de las distancias entre configuraciones finitas de puntos, es estable bajo convergencia en Gromov-Hausdorff. Por ejemplo, para aquellos que hayan llevado un curso de Geometría Diferencial, es posible describir la condición
$$sec \geq k$$
en términos de triángulos. Por lo tanto $sec \geq k$ es estable bajo $d_{GH},$ lo cual ayuda a definir el concepto de curvatura seccional en espacios métricos que no sean variedades diferenciables. (Para ver más al respecto ver Burago-Burago-Ivanov).

Más adelante

Tarea moral

  1. Prueba que $A\subset X$ es totalmente acotado (según la definición vista en Conjuntos relativamente compactos y totalmente acotados) si y solo si para cada $\varepsilon >0$ existe una $\varepsilon\text{-$red$}\,$ finita de $A.$

Enlaces

El teorema de Arzelá-Ascoli

Por Lizbeth Fernández Villegas

Introducción

Como ya podrás haber notado, identificar la compacidad en un espacio métrico es una situación recurrente y de interés en cursos de Análisis. Naturalmente han surgido resultados que permiten identificarla con mayor facilidad en conjuntos cuya métrica no es tan sencilla de manejar, como los espacios de funciones.

En esta entrada veremos un teorema útil para trabajar en el espacio $\mathcal{C^0}(X,Y)$ donde $X$ es compacto y $Y$ es completo. Primero veamos si el siguiente conjunto de funciones es compacto.

Para cada $n \in \mathbb{N}$ considera la función $f_n:[0,2] \to \mathbb{R}$ dada por

\begin{equation*}
f_n(x):=\begin{cases} 1 -n^2|x-\frac{1}{n}|, \, &\text{si $|x-\frac{1}{n}|<\frac{1}{n^2}$}\\
\\
0 \, &\text{en otro caso}
\end{cases}
\end{equation*}

Gráficas de $f_1$ y $f_2.$
Las gráficas suben y bajan formando triángulos cada vez más angostos.

La familia de funciones $\mathcal{H}:= \{f_i \, | \, i \in \mathbb{N}\}$ no es compacta en el espacio $\mathcal{C}^0[0,2]$ porque no es totalmente acotada: Es sencillo ver que para cualesquiera dos funciones $f_l, f_m \in \mathcal{H}$ con $l \neq m,$ se cumple que $d_{\infty}(f_l,f_m)=1.$ De modo que no es posible cubrir $\mathcal{H}$ con una cantidad finita de bolas abiertas de radio $\frac{1}{2}.$ Esto se debe a que cualquier bola abierta $B(f, \frac{1}{2}) \subset \mathcal{C}^0[0,2]$ tiene a lo más un elemento de $\mathcal{H}:$ Si $f_l, f_m \in B(f, \frac{1}{2})$ se cumple que $d_{\infty}(f_l,f_m) \leq d_{\infty}(f_l,f)+d_{\infty}(f,f_m) < \frac{1}{2}+\frac{1}{2}= 1$ lo cual es una contradicción a la distancia entre ambas funciones. En consecuencia no será posible cubrir todos los elementos de $\mathcal{H}$ con una cantidad finita de bolas por lo que $\mathcal{H}$ no será totalmente acotado.

Las características de esta familia de funciones nos impiden «atraparlas» en bolitas pequeñitas. Como la distancia entre funciones está en función de las distancias en puntos del codominio, necesitaremos propiedades que restrinjan el comportamiento de alguna manera. Una propiedad que lo logra es, como vimos en la entrada anterior, la equicontinuidad en funciones. Puedes observar que $\mathcal{H}$ no es equicontinua, pues para $\varepsilon = \frac{1}{2}$ no existe ningún valor de $\delta$ que funcione. Conforme $n \to \infty$ la gráfica de las funciones genera un pico que sube y baja rápidamente en un intervalo, de tamaño $\frac{2}{n^2},$ que también se va haciendo más pequeño. Siempre será posible elegir una función donde el tamaño del intervalo es menor que $\delta.$ Habrá un punto $x$ y una función $f_k$ tal que $|x- \frac{1}{k}|< \delta$ pero $|f_k(x)-f_k(\frac{1}{k})| =|0-1|=1> \frac{1}{2}.$

Hay una función $f_k$ que forma un triángulo de base menor que $\delta.$ $\, f_k(\frac{1}{k})=1$ pero habrá un $x$ «fuera de la base», pero dentro del intervalo de tamaño $\delta,$ tal que $f_k(x)=0.$

¿Bastará la equicontinuidad de una familia de funciones para que esta sea compacta? No es así. Presentamos una familia de funciones equicontinuas que no es totalmente acotada.

Tomaremos funciones del espacio $\mathcal{C}^0([0,1],\ell_2).$ Donde $[0,1]$ es compacto y $\ell_2$ es completo. La prueba de esto puede consultarse en Bracamonte, M. R. (2024, 11 de octubre). lp es un espacio de Banach [Video]. YouTube.youtube.com.

Para cada $n \in \mathbb{N}$ y $x \in [0,1]$ sea $f_n(x):= e_n,$ donde $e_n$ es la sucesión que toma valor $1$ en la entrada i-ésima y $0$ en el resto. Entonces la familia $\mathcal{H}:= \{f_n \, | \, n \in \mathbb{N}\}$ es equicontinua pues, para todo $\varepsilon >0,$ (sin importar el valor de $\delta),$ para cualesquiera $x,y \in [0,1]$ se cumplirá para cualquier $f_n \in \mathcal{H}$ que $\norm{f_n(x)-f_n(y)}_2= \norm{e_n-e_n}_2 = 0 < \varepsilon.$

No obstante, esta familia no es totalmente acotada: Para cualesquiera dos funciones en $\mathcal{H},$ digamos $f_l, f_m, l \neq m$ tenemos que $d_{\infty}(f_l,f_m) = \norm{e_l-e_m}_2 = \sqrt{|1|^2+|1|^2} = \sqrt{2}.$ En consecuencia, no será posible cubrir $\mathcal{H}$ con una cantidad finita de bolas abiertas de radio $\frac{\sqrt{2}}{2}$ por lo que esta familia no es totalmente acotada.

Esta vez no bastó la equicontinuidad, incluso con funciones tan «estables» que son constantes. La falla radicó en que, al variar la función en la que evaluamos un punto $x$ del dominio, el conjunto dado por las imágenes de $\{x\}$ no es relativamente compacto.

Ahora veremos las condiciones necesarias y suficientes que debe tener una familia de funciones para ser relativamente compacta:

Teorema Arzelá-Ascoli. Sean $X$ un espacio métrico compacto y $Y$ un espacio métrico completo. Un subconjunto $\mathcal{H}$ de $\mathcal{C^0}(X,Y)$ es relativamente compacto en el espacio $\mathcal{C^0}(X,Y)$ si y solo si $\mathcal{H}$ es equicontinuo y los conjuntos definidos como $\mathcal{H}(x):= \{f(x) \, | \, f \in \mathcal{H}\}$ son relativamente compactos en $Y$ para cada $x \in X.$

Representación del teorema de Arzelá-Ascoli.

Demostración:
En Convergencia uniforme y continuidad concluimos que por las propiedades de $X$ y $Y, \,$ $\mathcal{C^0}(X,Y)$ es completo, así por lo visto en conjuntos relativamente compactos y totalmente acotados sabemos que como $\mathcal{H}$ es relativamente compacto en $\mathcal{C^0}(X,Y),$ esto implica que $\mathcal{H}$ es totalmente acotado.
Sea $\varepsilon >0.$ Existen funciones $g_1, \, g_2,…,g_m \in \mathcal{H}$ tales que
\begin{align}
\mathcal{H} \subset B_\infty \left(g_1, \, \frac{\varepsilon}{3} \right) \cup B_\infty \left(g_2, \, \frac{\varepsilon}{3} \right) \cup … \cup B_\infty \left(g_m, \, \frac{\varepsilon}{3} \right).
\end{align}
Donde $B_\infty$ denota bolas abiertas con la métrica uniforme en $\mathcal{C^0}(X,Y)$

En el dibujo las $g’s $ aunque son puntos representan funciones. La zona verde es el conjunto de funciones $\mathcal{H}.$ Las bolas abiertas descritas lo cubren.

Esto significa que cualquier función de $\mathcal{H}$ se aproxima mucho a alguna $g_i, \, i \in \{1,2,..,m\}.$ Sea $x \in X.$ Considera el conjunto
$$\mathcal{H}(x):= \{f(x) \, | \, f \in \mathcal{H}\}$$

La función $f$ es elemento de alguna de las bolas abiertas que cubren a $\mathcal{H}.$

Dado un $f(x) \in \mathcal{H}(x),$ por (1) sabemos que existe $i \in \{1,2,..,m\}$ tal que la función $f \in B_\infty \left(g_i, \, \frac{\varepsilon}{3} \right).$

La distancia entre dos puntos $f(x)$ y $g_i(x)$ es menor igual que la distancia entre ambas funciones.

De modo que $d_\infty (g_i,f) < \frac{\varepsilon}{3}. $ En particular para $x$ se cumple que $d_Y(g_i(x),f(x)) < \frac{\varepsilon}{3}$ por lo tanto
$$f(x) \in B_Y \left( g_i(x), \, \frac{\varepsilon}{3} \right)$$


De donde se sigue
\begin{align}
\mathcal{H}(x) \subset B_Y \left( g_1(x), \, \frac{\varepsilon}{3} \right) \cup B_Y \left( g_2(x), \, \frac{\varepsilon}{3} \right) \cup … \cup B_Y \left( g_m(x), \, \frac{\varepsilon}{3} \right)
\end{align}
lo que significa que $\mathcal{H}(x)$ es totalmente acotado. Como $Y$ es completo se sigue por la equivalencia de conjuntos relativamente compactos y totalmente acotados que $\mathcal{H}(x)$ es relativamente compacto en $Y.$

Para probar que $\mathcal{H}$ es equicontinuo tomemos en cuenta que $X$ es compacto y por lo visto en la entrada Continuidad uniforme sabemos que cada $g_i$ es uniformemente continua en $X.$ Entonces cada $g_i$ tiene su respectiva $\delta_i >0$ tal que para cualesquiera $x,z \in X,$ si $d_X(x,z)< \delta_i$ entonces
$$d_Y(g_i(x),g_i(z)) < \frac{\varepsilon}{3.}$$

Sea $\delta := min \{\delta_1,…,\delta_m\}.$
Sea $f \in \mathcal{H}.$ Dicho lo anterior y recordando que existe $i \in \{1,2,..,m\}$ tal que $f \in B_\infty \left(g_i, \, \frac{\varepsilon}{3} \right),$ tenemos que si $d_X(x,z) < \delta$ entonces

\begin{align}
\nonumber d_Y(f(x),f(z)) &\leq d_Y(f(x),g_i(x)) + d_Y(g_i(x),g_i(z))+ d_Y(g_i(z),f(z)) \\
\nonumber &< \frac{\varepsilon}{3}+\frac{\varepsilon}{3}+\frac{\varepsilon}{3} \\
&= \varepsilon
\end{align}

lo cual prueba que $\mathcal{H}$ es equicontinuo.

A continuación probaremos el regreso. Tengamos presentes las ideas: suponemos que $\mathcal{H}$ es equicontinuo y para cada $x \in X,$ los conjuntos definidos como $\mathcal{H}(x):= \{f(x) \, | \, f \in \mathcal{H}\}$ son relativamente compactos en $Y.$ Buscamos demostrar que $\mathcal{H}$ de $\mathcal{C^0}(X,Y)$ es relativamente compacto en el espacio $\mathcal{C^0}(X,Y).$

Dado que $\mathcal{C^0}(X,Y)$ es completo, por la equivalencia de conjuntos relativamente compactos y totalmente acotados basta con probar que $\mathcal{H}$ es totalmente acotado.

Sea $\varepsilon >0.$ Como $\mathcal{H}$ es equicontinuo, para cada $x \in X$ existe $\delta_x >0$ tal que para toda $f \in \mathcal{H}$ siempre que $d_X(x,z) < \delta_x,$ con $z \in X,$ se satisface
\begin{align}
d_Y(f(z),f(x)) < \frac{\varepsilon}{4}
\end{align}

Por supuesto que $\{B_X \left( x, \delta_x \right) \, | \, \, x \in X \}$ es una cubierta abierta de $X.$

$X$ cubierto por bolas abiertas con centro en cada punto de $X.$

Como es compacto, existen $x_1, \, x_2,…,x_n \, \in X$ tales que

\begin{align}
X \subset B_X \left( x_1, \delta_{x_1} \right) \cup B_X \left( x_2, \delta_{x_2} \right) \cup … \cup B_X \left( x_n, \delta_{x_n} \right)
\end{align}

$X$ cubierto por una cantidad finita de esas bolas.

y como cada $\mathcal{H}(x_i), \, i \in \{1,…,n\}$ es totalmente acotado, para cada $x_i$ existen $y^i_1,\ y^i_2,…,y^i_{k_i} \, \in Y$ tales que
\begin{align}
\mathcal{H}(x_i) \subset B_Y \left( y^i_1, \frac{\varepsilon}{4} \right) \cup B_Y \left( y^i_2, \frac{\varepsilon}{4} \right) \cup… \cup B_Y \left( y^i_{k_i}, \frac{\varepsilon}{4} \right)
\end{align}

Uniendo todos los $\mathcal{H}(x_i)$ y todas las bolas que cubren a estos conjuntos tenemos que, renombrando los centros, existen finitos $y_1,…,y_{m} \, \in Y$ que satisfacen

\begin{align}
\mathcal{H}(x_1) \cup … \cup \mathcal{H}(x_n) \subset B_Y \left( y_1, \frac{\varepsilon}{4} \right) \cup … \cup B_Y \left( y_{m}, \frac{\varepsilon}{4} \right)
\end{align}

Podemos pensar en clasificar las funciones de $\mathcal{H}$ dependiendo de a qué bola de radio $y_k,$ para algún $k \in \{1,…,m\}$ es enviado cada $x_i, \, i \in \{1,…,n\}.$ Como este comportamiento puede asignarse a través de una función $\sigma:\{1,2,…,n\} \to \{1,2,…,m\},$ definimos los conjuntos:

$$\mathcal{H_\sigma}:= \left\{ f \in \mathcal{H} \, \Big| \, \, f(x_i) \in B_Y\left(y_{\sigma(i)},\frac{1}{4}\right) \, \forall \, i=1,2,…,n\right\}.$$

Sea $S$ el conjunto de todas las funciones con dominio en $\{1,2,…,n\}$ e imagen en $\{1,2,…,m\}.$ Se cumple que

\begin{align}
\mathcal{H} \subset \underset{\sigma \in S}{\cup} \, \mathcal{H}_\sigma
\end{align}

Argumentando formalmente, si $f \in \mathcal{H}$ por la expresión (7) se asegura que cada $f(x_i)$ con $i \in \{1,2,…,n\}$ está en alguna bola $B_Y \left( y_k, \frac{\varepsilon}{4} \right)$ para algún $k \in \{1,2,…,m\}.$ Nota que la función que relaciona a cada $i$ con su respectiva $k,$ según esta descripción, es algún elemento $\sigma \in S,$ por lo tanto se cumple (8).

Ahora vamos a probar que cada $\mathcal{H}_\sigma$ está contenida en una bola de radio $\varepsilon$ con centro en $\mathcal{H}.$

Considera $f,g \in \mathcal{H}_\sigma$ y sea $x \in X.$ Por (5) $x$ pertenece a alguna bola abierta $B_X(x_i, \delta_{x_i})$ para algún $i \in \{1,2,…,n\}.$ Entonces $d_X(x,x_i)< \delta_{x_i}.$ Recordemos que esta $\delta_{x_i}$ se eligió de tal forma que satisface la definición de equicontinuidad en $x_i.$ Así, según (4) se sigue que para cada $h \in \mathcal{H}:$
$$d_Y(h(x),h(x_i)) < \frac{\varepsilon}{4}.$$

De esto y la desigualdad del triángulo tenemos:

\begin{align}
\nonumber d_Y(f(x),g(x)) &\leq d_Y(f(x),f(x_i)) + d_Y(f(x_i),g(x))\\
\nonumber &\leq d_Y(f(x),f(x_i)) + d_Y(f(x_i),y_{\sigma(i)})+ d_Y(y_{\sigma(i)},g(x))\\
\nonumber &\leq d_Y(f(x),f(x_i)) + d_Y(f(x_i),y_{\sigma(i)})+ d_Y(y_{\sigma(i)},g(x_i))+ d_Y(g(x_i),g(x))\\
\nonumber &< \frac{\varepsilon}{4} +\frac{\varepsilon}{4} +\frac{\varepsilon}{4} +\frac{\varepsilon}{4} \\
&= \varepsilon.
\end{align}

Si tomamos el máximo de las $x´s \in X$ concluimos que $d_\infty(f,g) < \varepsilon$ para cualesquiera $f,g \in \mathcal{H}_\sigma,$ en consecuencia el conjunto $\mathcal{H}_\sigma$ está contenido en una bola de radio $\varepsilon$ con centro en cualquiera de sus funciones. Es decir, para cualquier $g_\sigma \in \mathcal{H}_\sigma$

$$\mathcal{H}_\sigma \subset B_\infty(g_\sigma,\varepsilon)$$

De esta contención y la expresada en (8) obtenemos que

$$\mathcal{H} \subset \underset{\sigma \in S}{\cup}B_\infty(g_\sigma,\varepsilon).$$

Y como $S$ es finito, concluimos que $\mathcal{H}$ es totalmente acotado.

Terminemos esta sección con el siguiente:

Corolario. Sea $X$ un espacio métrico compacto. Un subconjunto $\mathcal{H}$ de $\mathcal{C}^0(X, \mathbb{R}^n)$ es relativamente compacto en $\mathcal{C}^0(X, \mathbb{R}^n)$ si y solo si $\mathcal{H}$ es equicontinuo y acotado en $\mathcal{C}^0(X, \mathbb{R}^n).$

Demostración:
Sea $\mathcal{H}$ un subconjunto relativamente compacto en $\mathcal{C}^0(X, \mathbb{R}^n).$ Por el teorema de Arzelá-Ascoli, $\mathcal{H}$ es equicontinuo. Como $\overline{\mathcal{H}}$ es compacto entonces es acotado en $\mathcal{C}^0(X, \mathbb{R}^n),$ por lo tanto $\mathcal{H}$ también es acotado en $\mathcal{C}^0(X, \mathbb{R}^n).$

Ahora supongamos que $\mathcal{H}$ es equicontinuo y acotado en $\mathcal{C}^0(X, \mathbb{R}^n).$ Entonces existen $f_0 \in \mathcal{H}$ y $M>0$ tales que para cada $f \in \mathcal{H}$

$$\norm{f-f_0}_\infty := \underset{x \in X}{max}\norm{f(x) \, – \, f_0(x)} \leq M$$

De aquí podemos concluir que para cada $x \in X,$ el conjunto $\mathcal{H}(x)$ está acotado en $\mathbb{R}^n$ entonces así lo es también su cerradura, por lo que $\overline{\mathcal{H}}$ es cerrado y acotado en $\mathbb{R}^n$ de modo que $\mathcal{H}(x)$ es relativamente compacto y por el teorema de Arzelá-Ascoli, se cumple que $\mathcal{H}$ es relativamente compacto en $\mathcal{C}^0(X, \mathbb{R}^n).$

Más adelante…

Terminaremos la sección de compacidad mostrando un concepto que sigue la misma idea de las bolas de radio $\varepsilon$ que son las $\varepsilon$-redes. Hablaremos de la métrica de Hausdorff y de cómo es posible entender la compacidad a través de conjuntos finitos.

Tarea moral

  1. Para cada $n \in \mathbb{N},$ sea $f_n:[0, \infty) \to \mathbb{R}$ tal que $f_n(x):= sen \sqrt{x + 4 \pi ^2 n ^2}.$ Demuestra que
    a) El conjunto $\mathcal{H} := \{f_n \, | \, n \in \mathbb{N} \}$ es equicontinuo.
    b) Para cada $x \in [0, \infty)$ el conjunto $\mathcal{H}(x)$ es relativamente compacto en $\mathbb{R}.$ Te sugerimos probar que la sucesión $(f_n)_{n \in \mathbb{N}}$ converge puntualmente a $0$ en $[0, \infty).$
    c) $\mathcal{H}$ no es un subconjunto compacto de $\mathcal{C}_b ^0([0, \infty), \mathbb{R}).$ Te sugerimos probar que la sucesión $(f_n)_{n \in \mathbb{N}}$ no converge uniformemente a $0$ en $[0, \infty).$
    Concluye que la compacidad de $X$ es necesaria en el teorema de Arzelá-Ascoli.
  2. Sea $X := \{ (x,y) \in \mathbb{R}^2 \, | \, (x,y) \neq (\frac{1}{2},0) \}$ y sea $f_n \in \mathcal{C}^0([0,1],X)$ tal que $f_n(x) := (x, \frac{1}{n} sen \pi x).$ Considera el conjunto $\mathcal{H} := \{f_n \, | \, n \in \mathbb{N}\}.$
    a) ¿Es $\mathcal{H}$ equicontinuo?
    b) ¿Es $\mathcal{H}$ acotado en $\mathcal{C}^0([0,1],X)?$
    c) ¿Es $\mathcal{H}$ relativamente compacto en $\mathcal{C}^0([0,1],X)?$

Bibliografía

Enlaces

Y para terminar, dos resultados fuertes de la integral de Riemann-Stieltjes

Por Lizbeth Fernández Villegas

$\textit{MATERIAL EN REVISIÓN}$

Introducción

El contenido de esta sección se basa predominantemente en el libro
Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015, págs 34-37.

En la entrada anterior vimos que para cualesquiera $P_1, P_2 \in \mathcal{P}_{[a,b]}$ se cumple que $\underline{S}_{P_1} \leq \overline{S}_{P_2},$ entonces

\begin{align}
-\infty < \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} \leq \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} < \infty.
\end{align}

Esto también ocurre con la integral de Riemann que se estudia en los cursos de Cálculo, donde además, cuando se da la igualdad $\, \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} \, $ se toma el valor del límite como el valor de la integral. (Ver Cálculo Diferencial e Integral II: Definición de la integral definida).

Nota que nosotros no hemos definido así la integral de Riemann-Stieltjes, sino tomando particiones cuyas normas tienden a cero. Aunque la intuición nos dice que particiones de intervalos muy pequeños se aproximan demasiado al valor de la integral, esto no siempre ocurre. Específicamente, incluso cuando se cumple que $\, \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} \,$ en el caso de las sumas inferior y superior de Riemann-Stieltjes, la integral podría no existir. Veamos un ejemplo.

Sean $f:[a,b] \to \mathbb{R}\,$ y $\, \alpha:[a,b] \to \mathbb{R}$ definidas como

\begin{equation*}
f(x) = \begin{cases}
0 &\text{ si } &-1 \leq x <0 \\
1 &\text{ si } &0 \leq x \leq 1.
\end{cases}
\end{equation*}

\begin{equation*}
\alpha (x) = \begin{cases}
0 &\text{ si } &-1 \leq x \leq 0 \\
1 &\text{ si } &0 < x \leq 1 .
\end{cases}
\end{equation*}

Observa que $f$ y $\alpha$ tienen un punto de discontinuidad común que provoca que $\int_{-1}^{1}f \, d\alpha$ no exista. En efecto, si $P= \{x_0=-1,…,x_n =1\}$ es una partición en la que $x_{j-1} < 0 < x_j$ para algún $j \in \{1,…,n\}$
se puede ver que $S(P,f,\alpha)= f(\xi_j)$ con $\xi_j \in [x_{j-1}, x_j],$ (queda como ejercicio) y así

$$S(P,f,\alpha)= 0\, \text{ o }\, S(P,f,\alpha)= 1$$
sin importar qué tan pequeños sean los intervalos de la partición, por lo que no existe $\underset{|P| \to 0}{lim} \, S(P,f,\alpha).$

Pese a lo anterior, es sencillo verificar que
$$ \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} = 1.$$

La siguiente proposición muestra hipótesis en las que la integral de Riemann-Stieltjes y los límites de las sumas sí coinciden.

Proposición. Sea $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ monótona creciente. Si $\int_{a}^{b}f \, d\alpha$ existe, entonces

$$\underset{|P| \to 0}{lim} \, \underline{S}_P \, \text{ y } \, \underset{|P| \to 0}{lim} \, \overline{S}_P$$

existen y

$$\underset{|P| \to 0}{lim} \, \underline{S}_P \, = \, \underset{|P| \to 0}{lim} \, \overline{S}_P = \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} = \int_{a}^{b}f \, d\alpha.$$

Demostración:
En el caso no trivial, supongamos que $\alpha$ no es constante en $[a,b].$

Sea $I = \int_{a}^{b}f \, d\alpha.$ Entonces dada $\varepsilon >0$ existe $\delta>0$ tal que si $|P|< \delta$ entonces $|I \, – \, S(P,f,\alpha)|< \varepsilon.$

Supongamos que $P= \{x_0 = a,…, x_n =b\}$ con $|P|< \delta.$ Tomemos $\xi_i, \, \eta_i \in [x_{i-1},x_i], \, i=1,…,n, \,$ tales que

\begin{align}
0 \leq M_i \, – \, f(\xi_i) &< \frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)} \, \, \text{ y } \\
0 \leq f(\eta_i) \, – \, m_i &< \frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)}
\end{align}

Sean

\begin{align}
S’_P&= \sum_{i=1}^{n}f(\xi_i) \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \, \, \text{ y } \\
S^{\prime \prime}_P&= \sum_{i=1}^{n}f(\eta_i) \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))
\end{align}

entonces

\begin{align}
|I \, – \, S’_P|&< \varepsilon \, \, \text{ y}\\
|I \, – \, S^{\prime \prime}_P|&< \varepsilon.
\end{align}

Por otro lado, por (2),

\begin{align}
\nonumber 0 \leq \overline{S}_P \, – \, S’_P &= \sum_{i=1}^{n}M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \, – \sum_{i=1}^{n}f(\xi_i) \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
\nonumber &= \sum_{i=1}^{n}[M_i \, – \, f(\xi_i)] \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \\
\nonumber &< \sum_{i=1}^{n}\frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)}\, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \\
\nonumber &= \frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)}\, \sum_{i=1}^{n} (\alpha(x_i) \, – \, \alpha(x_{i-1})) \\
\nonumber &= \frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)}\, (\alpha(b) \, – \, \alpha(a)) \\
&= \varepsilon.
\end{align}

Análogamente

\begin{align}
0 \leq S^{\prime \prime}_P \, – \, \underline{S}_P < \varepsilon.
\end{align}

De (6), (8) y la desigualdad del triángulo se sigue

$$|\overline{S}_P \, – \, I|\leq |\overline{S}_P\, – \, S’_P|+|S’_P \, – \, I|< \varepsilon + \varepsilon = 2 \varepsilon,$$

mientras que de (7), (9) y la desigualdad del triángulo tenemos

$$|\underline{S}_P \, – \, I|\leq |\underline{S}_P\, – \, S^{\prime \prime}_P|+|S^{\prime \prime}_P \, – \, I|< \varepsilon + \varepsilon = 2 \varepsilon,$$

por lo tanto

$$\underset{|P|\to 0}{lim}\, \overline{S}_P = I = \underset{|P|\to 0}{lim}\, \underline{S}_P .$$

Dado que

$$\underline{S}_P \leq \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} \leq \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} \leq \overline{S}_P$$

entonces también

$$\underset{|P|\to 0}{lim}\, \underline{S}_P =\underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} = \underset{|P|\to 0}{lim}\, \overline{S}_P$$

terminando así la prueba.

Para finalizar, veamos la siguiente:

Proposición. Sean $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ monótona creciente y continua, entonces

a)
$$\underset{|P| \to 0}{lim} \, \underline{S}_P \, \text{ y } \, \underset{|P| \to 0}{lim} \, \overline{S}_P$$

existen y se cumplen las siguientes igualdades:

\begin{align}
\underset{|P| \to 0}{lim} \, \underline{S}_P &= \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} \\
\underset{|P| \to 0}{lim} \, \overline{S}_P &= \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P}.
\end{align}

b) Si además $\underset{P \in \mathcal{P}_{[a,b]}}{sup} \, \underline{S}_P = \underset{P \in \mathcal{P}_{[a,b]}}{inf} \, \overline{S}_P$ entonces

$$\int_{a}^{b}f \, d\alpha$$

existe y

$$\underset{P \in \mathcal{P}_{[a,b]}}{sup} \, \underline{S}_P = \int_{a}^{b}f \, d\alpha= \underset{P \in \mathcal{P}_{[a,b]}}{inf} \, \overline{S}_P.$$

Demostración:
a) Será suficiente probar (10) y (11). Presentamos la demostración de (11). La igualdad faltante es análoga y se dejará como ejercicio al lector.

Para simplificar la notación, hagamos

$$\underset{P \in \mathcal{P}_{[a,b]}}{inf} \, \overline{S}_P := \overline{S}.$$

Nota que (11) se cumple si y solo si dado $\varepsilon>0$ existe $\delta>0$ tal que si $|P|< \delta$ entonces

\begin{align}
\nonumber &&|\overline{S}_P \, – \, \overline{S}| &< \varepsilon\\
\nonumber &\iff& \overline{S}_P \, – \, \overline{S} &< \varepsilon\\
&\iff& \overline{S}_P &< \overline{S} + \varepsilon
\end{align}

Tomemos $\hat{P}=\{\hat{x_0}=a,…,\hat{x_n}=b\}$ una partición de $[a,b]$ tal que

$$\overline{S}_{\hat{P}}<\overline{S}+ \frac{\varepsilon}{2}.$$

y sea
\begin{align}
\textcolor{RoyalBlue}{M= \underset{x \, \in \, [a,b]}{sup} \, |f(x)|.}
\end{align}

Ya que $\alpha$ es uniformemente continua en $[a,b],$ existe $\eta>0$ tal que si $|x \, – \, x’|< \eta$ entonces

\begin{align}
\textcolor{magenta}{|\alpha(x) \, – \, \alpha(x’)| < \frac{\varepsilon}{4(n+1)M}}.
\end{align}

Ahora tomemos $P=\{x_0=a,…,x_m=b\}$ partición de $[a,b]$ tal que $|P|< \eta$ y
$$|P|< \underset{i \in \{1,…,n\}}{min}\, (\hat{x_i}\, – \, \hat{x}_{i-1}).$$

Vamos a mostrar que $\overline{S}_P$ cumple (12).

Nota que

\begin{align}
\overline{S}_P &= \sum_{i=1}^{m}M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
&= \sum’ + {\sum}^{\prime \prime}
\end{align}

donde $\sum’$ representa a los sumandos cuyos intervalos no tienen puntos de $\hat{P}\,$ y $\, \sum^{\prime \prime}$ representa a los que sí. Observa que, por como fueron elegidas $P$ y $\hat{P},$ cada intervalo generado por $P$ tiene a lo más un punto de $\hat{P},$ así

\begin{align}
\overline{S}_{P \cup \hat{P}} = \sum’ + {\sum}^{\prime \prime \prime}
\end{align}

donde $\sum^{\prime \prime \prime}$ resulta de reemplazar cada sumando en $\sum^{\prime \prime}$ que es de la forma

$$M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))$$

por la expresión

$$\underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \, (\alpha(\hat{x}_j) \, – \, \alpha(x_{i-1})) + \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x) \, (\alpha(x_i) \, – \, \alpha(\hat{x}_j) ) $$

donde $\hat{x}_j$ es el punto de $\hat{P}$ en $(x_{i-1}, x_i).$

Por lo tanto de (16) y (17) tenemos
$$\overline{S}_P \, – \, \overline{S}_{P \cup \hat{P}} = {\sum}^{\prime \prime} \, – \, {\sum}^{\prime \prime \prime}.$$

Observa que se satisface al menos una de las siguientes igualdades:

\begin{align}
M_i &= \underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \, \text{ o bien} \\
M_i &= \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x)
\end{align}

Si se cumple (18) entonces

\begin{align}
\nonumber M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \, – \, [\underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \, (\alpha(\hat{x}_j) \, – \, \alpha(x_{i-1})) + \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x) \, (\alpha(x_i) \, – \, \alpha(\hat{x}_j) )] = \\
=\textcolor{RoyalBlue}{\left( M_i \, – \, \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x) \right)} \, \textcolor{magenta}{(\alpha(x_i) \, – \, \alpha(\hat{x}_j) )}
\end{align}

Pero si se cumple (19) se sigue que

\begin{align}
\nonumber M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \, – \, [\underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \, (\alpha(\hat{x}_j) \, – \, \alpha(x_{i-1})) + \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x) \, (\alpha(x_i) \, – \, \alpha(\hat{x}_j) )] = \\
=\textcolor{RoyalBlue}{\left(M_i \, – \, \underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \right)} \, \textcolor{magenta}{(\alpha(\hat{x}_j) \, – \, \alpha(x_{i-1}) )}
\end{align}

En cualquier caso, de (13) y (14) la diferencia es a lo más
$$\frac{\textcolor{RoyalBlue}{2M}\textcolor{magenta}{\varepsilon}}{\textcolor{magenta}{4(n+1)M}} = \frac{\varepsilon}{2(n+1)}$$

Entonces.

$$\overline{S}_P \, – \, \overline{S}_{P \cup \hat{P}} \leq \frac{\varepsilon(n+1)}{2(n+1)} = \frac{\varepsilon}{2}.$$

Más aún

$$\overline{S}_{P \cup \hat{P}} \leq \overline{S}_\hat{P} < \overline{S}+\frac{\varepsilon}{2}$$

con lo cual queda demostrada la proposición.

b) Dado que para cualquier $P \in \mathcal{P}_{[a,b]}$

$$\underline{S}_P \leq S(P,f,\alpha) \leq \overline{S}_P$$
entonces haciendo $|P| \to 0$ concluimos:

$$\underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \int_{a}^{b}f \, d\alpha = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P}.$$

Más adelante…

¡Gracias por acompañarnos en la exposición de este curso! Si deseas continuar, puedes consultar el contenido correspondiente a Análisis Matemático II. La comunidad sigue creciendo y ya trabaja creando notas con ejercicios que motiven el aprendizaje. Pronto te las compartiremos.

Tarea moral

  1. En el ejemplo descrito al inicio, demuestra que
    a)
    $$S(P,f,\alpha)= f(\xi_j)$$
    con $\xi_j \in [x_{j-1}, x_j]$ donde $[x_{j-1}, x_j]$ es el intervalo de la partición que tiene al cero.
    Prueba también que para todo $\delta>0$ existe una partición $P$ con $|P|< \delta$ tal que
    $S(P,f,\alpha)= 0$ o $S(P,f,\alpha)= 1$
    dependiendo el punto $\xi_j$ elegido. Concluye que no existe $\underset{|P| \to 0}{lim} \, S(P,f,\alpha).$
    b) Verifica que
    $$ \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} = 1.$$
  2. Demuestra la igualdad (10).

Bibliografía

  • Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015. Págs: 34-37.

Enlaces