Archivo del Autor: Lizbeth Fernández Villegas

Propiedades de la integral de Riemann-Stieltjes. Parte 2

Por Lizbeth Fernández Villegas

Introducción

El contenido de esta sección corresponde al libro
Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015, págs 30-34.

Continuaremos viendo condiciones bajo las cuales sea posible afirmar la existencia de la integral $\int_{a}^{b}f \, d\alpha.$ Comencemos con la siguiente:

Proposición: Sean $f, \alpha:[a,b] \to \mathbb{R}.$ Si $\, \int_{a}^{b}\textcolor{RoyalBlue}{f} \, d\textcolor{magenta}{\alpha} \,$ existe, entonces también $\, \int_{a}^{b}\textcolor{magenta}{\alpha} \, d\textcolor{RoyalBlue}{f} \,$ existe y además

\begin{align}
\int_{a}^{b}f \, d\alpha = [f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \int_{a}^{b} \alpha \, df.
\end{align}

Demostración:
Considera $P= \{x_0=a,…,x_n=b\}$ una partición de $[a,b] \,$ y sean $\xi_i \in [x_{i-1},x_i], \, i=1,…,n.$ Entonces se siguen las siguientes igualdades:

\begin{align*}
S(P,f,\alpha)&= \sum_{i=1}^{n}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
&= \sum_{i=1}^{n}f(\xi_i)\alpha(x_i) \, – \, \sum_{i=1}^{n}f(\xi_i)\alpha(x_{i-1})\\
&= \sum_{i=1}^{n}f(\xi_i)\alpha(x_i) \, – \, \sum_{i=0}^{n-1}f(\xi_{i+1})\alpha(x_i)\\
&= \sum_{i=1}^{n-1}f(\xi_i)\alpha(x_i)+ f(\xi_n)\alpha(x_n)\, – \, \sum_{i=1}^{n-1}f(\xi_{i+1})\alpha(x_i) \, – \, f(\xi_1)\alpha(x_0)\\
&=- \sum_{i=1}^{n-1}\alpha(x_i)(f(\xi_{i+1}) \, – \, f(\xi_i))) + f(\xi_n)\alpha(b) \, – \, f(\xi_1)\alpha(a).
\end{align*}

Nota que el lado derecho de la igualdad coincide con

$$[f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \, \textcolor{blue}{T_P}$$

donde

$$\textcolor{blue}{T_P}= \sum_{i=1}^{n-1}\alpha(x_i)(f(\xi_{i+1}) \, – \, f(\xi_i))+\alpha(a)(f(\xi_1) \, – \, f(a))+\alpha(b)(f(b) \, – \, f(\xi_n)). $$

Por lo tanto

\begin{align}
S(P,f,\alpha) = [f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \, \textcolor{blue}{T_P}.
\end{align}

Observa que $\textcolor{blue}{T_P}$ es una suma de Riemann-Stieltjes para $\textcolor{blue}{\int_{a}^{b} \alpha \, df.}$ Tomando el límite cuando $|P| \to 0$ en (2) vemos que $\int_{a}^{b}f \, d\alpha$ existe si y solo si $\int_{a}^{b} \alpha \, df$ existe y que

\begin{align*}
\int_{a}^{b}f \, d\alpha = [f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \int_{a}^{b} \alpha \, df,
\end{align*}

que es lo que queríamos demostrar.

Ya que el valor de las sumas de Riemann-Stieltjes depende de los valores $\xi_i$ elegidos, cuando la función $f$ es acotada, podemos delimitar el valor de $f(\xi_i)$ y, por tanto, acotar las sumas como muestra la siguiente:

Definición: Suma inferior y suma superior de Riemann-Stieltjes. Sea $f$ acotada, $\alpha$ una función monótona creciente en $[a,b]$ y $P=\{x_0=a,…,x_n=b\}.$ Definimos los términos:

\begin{align*}
m_i= \underset{x \, \in \, [x_{i-1}, x_i]}{\text{ínf}} \, f(x)
\end{align*}

Representación del ínfimo en un intervalo de $P.$

\begin{align*}
M_i= \underset{x \, \in \, [x_{i-1}, x_i]}{\text{sup}} \, f(x)
\end{align*}

Representación del supremo en un intervalo de $P.$

Las siguientes sumas

\begin{align}
\underline{S}_P = \sum_{i=1}^{n} m_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
\nonumber \\
\overline{S}_P = \sum_{i=1}^{n} M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))
\end{align}

reciben el nombre de suma inferior y suma superior de Riemann-Stieltjes, respectivamente.

Dado que $-\infty < m_i \leq M_i < \infty \,$ y $\, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\geq 0, \,$ (pues $\alpha$ es creciente), podemos ver que

$$\underline{S}_P \leq S(P,f,\alpha) \leq \overline{S}_P.$$

Esta forma de definir sumas permite conocer el comportamiento de la función, como sugiere el siguiente:

Lema: Sea $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ creciente. Se cumplen:

a) Si $Q$ es un refinamiento de $P \in \mathcal{P}_{[a,b]},$ entonces

$$\underline{S}_P \leq \underline{S}_Q \leq \overline{S}_Q \leq \overline{S}_P.$$

b) Si $P_1$ y $P_2$ son dos particiones, entonces
$$\underline{S}_{P_1} \leq \overline{S}_{P_2},$$
es decir, cualquier suma inferior de Riemann-Stieltjes es menor igual que cualquier suma superior de Riemann-Stieltjes.

Demostración:
a) Vamos a demostrar que $\overline{S}_Q \leq \overline{S}_P.$ El argumento para las sumas inferiores es análogo y lo dejaremos como ejercicio.

Sea $P=\{x_0=a,…,x_n=b\} \,$ y $\, P \subset Q.$ Para fines prácticos supongamos que $Q$ tiene apenas un punto más que $P.$ Sea $x^*$ ese punto.
Entonces $x^* \in [x_{j-1},x_j]$ para algún $j \in \{1,…,n\}$

entonces

\begin{align*}
\underset{[x_{j-1},x^*]}{sup} \, f(x) &\leq M_j \, \text{ y} \\
\\
\underset{[x^*,x_j]}{sup} \, f(x) &\leq M_j
\end{align*}

Representación de supremos.

en consecuencia
$$\underset{[x_{j-1},x^*]}{sup} \, f(x) \, \, (\alpha(x^*) \, – \, \alpha(x_{i-1})) + \underset{[x^*,x_j]}{sup} \, f(x) \, \, (\alpha(x_j) \, – \, \alpha(x^*)) \leq M_j (\alpha(x_j) \, – \, \alpha(x_{j-1})). $$

Este razonamiento se puede repetir añadiendo uno a uno cada punto de $\, Q \setminus P \,$ hasta obtener $Q.$ Finalmente,

$$\overline{S}_Q \leq \overline{S}_P.$$

b) Nota que $P_1 \cup P_2$ es un refinamiento tanto de $P_1$ como de $P_2.$ Aplicando a) obtenemos:

$$\underline{S}_{P_1} \leq \underline{S}_{P_1 \cup P_2} \leq \overline{S}_{P_1 \cup P_2} \leq \overline{S}_{P_2}$$

con lo cual terminamos la prueba.

El siguiente enunciado muestra condiciones suficientes para la existencia de la integral de Riemann-Stieltjes.

Proposición: Sea $f:[a,b] \to \mathbb{R}$ continua y $\alpha:[a,b] \to \mathbb{R}$ de variación acotada en $[a,b],$ entonces $\int_{a}^{b}$ existe. Más aún

$$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b]. $$

Demostración:
Para demostrar la existencia recordemos que el teorema de Jordan visto en la entrada Funciones de variación acotada dice que $\alpha, \, $ al ser de variación acotada, puede expresarse como $\alpha = \alpha_1 \, – \, \alpha_2\, $ con $\alpha_1$ y $\alpha_2$ funciones crecientes acotadas en $[a,b].$ Si probamos que existe tanto $\int_{a}^{b}f \, d\alpha_1$ como $\int_{a}^{b}f \, d\alpha_2, \,$ entonces, por lo visto en la entrada anterior link también existe la integral buscada pues

\begin{align}
\nonumber \int_{a}^{b}f \, d\alpha_1 \, – \int_{a}^{b}f \, d\alpha_2 &= \int_{a}^{b}f \, d\alpha_1 \, + \int_{a}^{b}f \, d(-\alpha_2) \\
\nonumber&=\int_{a}^{b}f \, d(\alpha_1- \alpha_2)\\
&=\int_{a}^{b}f \, d\alpha.
\end{align}

Sin pérdida de generalidad, probemos que $\int_{a}^{b}f \, d\alpha_1\, $ existe. Sea $P=\{x_1=a,…,x_n=b\}.$ De acuerdo con la proposición que acabamos de ver

$$\underline{S}_P \leq S(P,f, \alpha_1) \leq \overline{S}_P.$$

A continuación vamos a demostrar que $\underset{|P| \to 0}{lim}\, \underline{S}_P \,$ y $\, \underset{|P| \to 0}{lim}\, \overline{S}_P$ existen y son iguales. La condición es evidente si $\alpha_1$ es constante así que supongamos que no lo es.

Sea $\varepsilon>0.$ Ya que $f$ es uniformemente continua en $[a,b]$ sabemos que existe $\delta>0$ tal que si $|P|< \delta,$ entonces

\begin{align*}
\textcolor{PineGreen}{M_i-m_i < \frac{\varepsilon}{\alpha_1(b) \, – \, \alpha_1(a)}}.
\end{align*}

Nota que $\alpha_1(b) \, – \, \alpha_1(a)$ es distinto de cero, pues $\alpha_1$ es monótona no constante.

Si $|P|< \delta \,$ se sigue:

\begin{align*}
0 \leq \overline{S}_P \, – \, \underline{S}_P &= \sum_{i=1}^{n}\textcolor{PineGreen}{(M_i\, – \, m_i)}(\alpha_1(x_i) \, – \, \alpha_1(x_{i-1}))\\
&< \sum_{i=1}^{n}\textcolor{PineGreen}{\left( \frac{\varepsilon}{\alpha_1(b) \, – \, \alpha_1(a)} \right)}(\alpha_1(x_i) \, – \, \alpha_1(x_{i-1}))\\
&= \frac{\varepsilon}{\alpha_1(b) \, – \, \alpha_1(a)} \sum_{i=1}^{n} (\alpha_1(x_i) \, – \, \alpha_1(x_{i-1}))\\
&=\left( \frac{\varepsilon}{\cancel{\alpha_1(b) \, – \, \alpha_1(a)}} \right) \cancel{(\alpha_1(b) \, – \, \alpha_1(a))}\\
&= \varepsilon.
\end{align*}

Por lo tanto
\begin{align}
\underset{|P| \to 0}{lim} \, (\overline{S}_P \, – \, \underline{S}_P) = 0.
\end{align}

A continuación probaremos que existe $\underset{|P| \to 0}{lim} \, \overline{S}_P$ en $\mathbb{R}.$ Si suponemos que no existe entonces, por el criterio de Cauchy visto en la entrada anterior link , existen $\varepsilon >0$ y $(P’_k)_{k \in \mathbb{N}}$ y $(P´´_k)_{k \in \mathbb{N}} \,$ sucesiones de particiones cuyas normas tienden a cero tales que

$$\textcolor{purple}{\overline{S}_{P’_k} \, – \, \overline{S}_{P´´_k} > \varepsilon}.$$

Por (6) sabemos que para $k$ suficientemente grande

\begin{align*}
&& \overline{S}_{P’_k} \, – \, \underline{S}_{P’_k} &< \frac{\varepsilon}{2} \\
&\Rightarrow& \underline{S}_{P’_k} \, – \, \overline{S}_{P’_k} &>-\frac{\varepsilon}{2} \\
&\Rightarrow& \textcolor{purple}{\overline{S}_{P’_k} \, – \, \overline{S}_{P´´_k}}+ \underline{S}_{P’_k} \, – \, \overline{S}_{P’_k} &> \textcolor{purple}{\varepsilon}\, -\frac{\varepsilon}{2}\\
&\Rightarrow& \underline{S}_{P’_k} \, – \, \overline{S}_{P´´_k} &> \frac{\varepsilon}{2}\\
&\Rightarrow& \underline{S}_{P’_k} \, – \, \overline{S}_{P´´_k} &> 0
\end{align*}

lo que contradice el hecho de que $\underline{S}_{P’} \leq \overline{S}_{P´´}$ para cualquier $P’$ y $P´´.$

Por lo tanto $\underset{|P| \to 0}{lim} \, \overline{S}_P$ existe y en consecuencia $\int_{a}^{b}f \, d \alpha_1$ existe. Análogamente, $\int_{a}^{b}f \, d \alpha_2 \,$ existe, por lo tanto $\int_{a}^{b}f \, d \alpha \,$ también existe.

Para terminar la prueba nota que la desigualdad

$$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b] $$

se sigue de una suma de Riemann-Stieltjes similar y haciendo tender el límite a cero. La prueba de este hecho se dejará como ejercicio.

Finalizaremos esta sección con un teorema conocido, pero ahora en la versión con la integral de Riemann-Stieltjes.

Teorema. Del valor medio para la integral de Riemann-Stieltjes. Sea $f:[a,b] \to \mathbb{R}$ continua y $\alpha:[a,b] \to \mathbb{R}$ acotada y creciente. Entonces existe $\xi \in [a,b]$ tal que

\begin{align}
\int_{a}^{b} f \, d\alpha = f(\xi) \, (\alpha(b)\, – \, \alpha(a)).
\end{align}

Demostración:
Dado que $\alpha$ es creciente, se satisface para cualquier $P \in \mathcal{P}_{[a,b]}$

$$\left(\underset{x \, \in \, [a,b]}{\text{mín}} f(x)\right) (\alpha(b)\, – \, \alpha(a)) \leq S(P,f,\alpha) \leq \left(\underset{x \, \in \, [a,b]}{\text{máx}} f(x)\right)(\alpha(b)\, – \, \alpha(a))$$

El resultado anterior nos permite afirmar que $\int_{a}^{b} f \, d\alpha$ existe, entonces también se cumple

$$\left(\underset{x \, \in \, [a,b]}{\text{mín}} f(x)\right) (\alpha(b)\, – \, \alpha(a)) \leq \int_{a}^{b} f \, d\alpha \leq \left(\underset{x \, \in \, [a,b]}{\text{máx}} f(x)\right) (\alpha(b)\, – \, \alpha(a)),$$

y como $f$ es continua en $[a,b]$ se sigue del teorema del valor intermedio que existe $\xi \in [a,b]$ tal que

$$\int_{a}^{b} f \, d\alpha = f(\xi) \, (\alpha(b)\, – \, \alpha(a)),$$

que es lo que queríamos demostrar.

Así como definimos la integral de Riemann-Stieltjes en intervalos cerrados, también podemos hacerlo en intervalos abiertos $(a,b) \in \mathbb{R}$ de esta forma: Si $[a’,b’] \subset (a,b)$ y existe $\int_{a’}^{b’}f \, d\alpha,$ haciendo $a’ \to a$ y $b’ \to b$ definimos

$$\int_{a}^{b}f \, d\alpha = \underset{a’ \to a \, ; \, b’ \to b}{lim}\int_{a’}^{b’}f \, d\alpha$$

cuando el límite existe. Así mismo

$$\int_{-\infty}^{\infty}f \, d\alpha = \underset{a \to -\infty \, ; \, b \to \infty}{lim}\int_{a}^{b}f \, d\alpha,$$

cuando el límite existe.

Más adelante…

Hasta el momento no es muy evidente la relacion entre la existencia de la integral de Riemann-Stieltjes con los limites de las sumas inferior y superior de Riemann-Stieltjes, pese a que en Cálculo llegan incluso a considerarse equivalentes cuando coinciden. En la próxima entrada veremos bajo qué condiciones el resultado es válido en la integral que estamos estudiando.

Tarea moral

  1. Sea $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ creciente. Sea $Q$ un refinamiento de $P \in \mathcal{P}_{[a,b]}.$ Demuestra que
    $$\underline{S}_P \leq \underline{S}_Q.$$
  2. Demuestra la desigualdad pendiente
    $$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b] $$
    donde $f$ es continua y $\alpha$ es de variación acotada.
  3. Sean $f, \alpha:[a,b] \to \mathbb{R}.$ Prueba que se cumplen:
    a) Si $\int_{a}^{b}f \, d\alpha$ existe y $\alpha$ no es constante en ningún subintervalo de $[a,b]$ muestra que $f$ es acotada en $[a,b].$
    b) Si $\int_{a}^{b}f \, d\alpha$ existe y $\alpha$ es creciente, muestra que para cada $P \in \mathcal{P}_{[a,b]}$ tenemos $\underline{S}_P \leq \int_{a}^{b}f \, d\alpha \leq \overline{S}_P.$

Enlaces

  • Análisis Matemático.
  • Enlace a entrada anterior.
  • Enlace a entrada siguiente.

Una motivación con probabilidad

Por Lizbeth Fernández Villegas

Introducción

Hemos llegado al punto en que presentaremos la integral de Riemann-Stieltjes. Antes de abordar el tema con resultados más abstractos y formales (que expondremos en las siguientes dos entradas del blog) motivaremos la definición con funciones distribución de probabilidad. Aunque no requerimos más que la idea de dicha función para entender esta sección, para un conocimiento más profundo podrías consultar las entradas:
Probabilidad I: Funciones de Distribución de Probabilidad,
Probabilidad I: Variables Aleatorias Discretas y
Probabilidad I: Variables Aleatorias Continuas.

Dada $\mathcal{X}$ una variable aleatoria, se conoce como función de distribución de $\mathcal{X}$ a la función $F_{\mathcal{X}}: \mathbb{R} \to \mathbb{R} \,$ definida como:
$$F_{\mathcal{X}}(x) := \mathbb{P}(\mathcal{X} \leq x)$$
es decir, la probabilidad de que la variable aleatoria tome valores menores o iguales que $x.$ Satisface lo siguiente:

  1. $\forall \, x \in \mathbb{R}, \, 0 \leq F_{\mathcal{X}}(x) \leq 1$
  2. Es continua por la derecha y tiene límite por la izquierda.
  3. Es no decreciente, es decir, si $x_1 \leq x_2$ entonces $F_{\mathcal{X}}(x_1) \leq F_{\mathcal{X}}(x_2).$
  4. $\underset{x \to \, -\infty}{F_{\mathcal{X}}(x)} = 0.$
  5. $\underset{x \to \, \infty}{F_{\mathcal{X}}(x)} = 1.$

Dependiendo las propiedades de la variable aleatoria, la función $F_\mathcal{X}$ puede ser de dos formas:

Si $\mathcal{X}$ es variable aleatoria discreta, entonces

$$F_{\mathcal{X}}(x) = \underset{t \leq x}{\sum}f(t).$$

Donde $f(t)$ es la probabilidad de que $\mathcal{X}$ tome el valor $t$, la cual es distinta de cero solamente para un conjunto a lo más numerable de valores $t.$

Como ejemplo, uno tomado de Probabilidad I: Variables Aleatorias Discretas.

\begin{equation*}
F_{\mathcal{X}}(x)=\begin{cases}
0 \, \text{ si $x< -1$}\\
\\
0.1 \, \text{ si $-1 \leq x < 0$}\\
\\
0.3 \, \text{ si $0 \leq x < 1$}\\
\\
0.8 \, \text{ si $1 \leq x < 2$}\\
\\
1 \, \text{ si $2 \leq x$}\\
\end{cases}
\end{equation*}

Ríos García, OD. (2022). Probabilidad I: Variables Aleatorias Discretas. https://blog.nekomath.com/proba1-variables-aleatorias-discretas/

Si $\mathcal{X}$ es variable aleatoria continua, entonces

$$F_{\mathcal{X}}(x) = \int_{- \infty}^{x}f(t)dt.$$

Donde $f(t)$ es la probabilidad de que $\mathcal{X}$ tome el valor $t$, la cual es distinta de cero solamente para un conjunto a lo más numerable de valores $t.$

Como ejemplo, uno tomado de Probabilidad I: Variables Aleatorias Continuas

\begin{equation*}
F_{\mathcal{X}}(x)= \begin{cases}
1 \, – \, e^{-\lambda x} \, \text{ si $x \geq 0,$}\\
\\
0 \, \text{ en otro caso.}
\end{cases}
\end{equation*}

Donde la función densidad está dada por:

\begin{equation*}
f(x)=
\begin{cases}
\lambda e^{-\lambda x} \, \text{ si $x \geq 0,$}\\
\\
0 \, \text{ en otro caso.}
\end{cases}
\end{equation*}

Ríos García, OD. (2022). Probabilidad I: Variables Aleatorias Continuas. https://blog.nekomath.com/proba1-variables-aleatorias-continuas/

Podríamos preguntarnos si es posible definir una integral que muestre el valor de la función, sin importar el tipo de variable aleatoria.

En los cursos de cálculo se habla del concepto de integral de Riemann de una función $f:[a,b] \to \mathbb{R}, \, a,b \in \mathbb{R}.$ A partir de una partición $P= \{x_0= a,…, x_n = b\}$ se define la suma de Riemann como
$$S(P,f) = \sum_{i =1}^{n} f(\xi_i)(x_i \, – \, x_{i-1})$$
donde $\xi_i \in [x_{i-1}, x_i] \,$ y
$$\, S(P,f) \to \int_{a}^{b}f(x) \, dx \,$$
cuando $\, n \to \infty.$

La integral de Riemann-Stieltjes generaliza esta idea, modificando los intervalos generados por la partición a través de una función $\alpha:[a,b] \to \mathbb{R}.$

Definición. Suma de Riemann-Stieltjes. Sean $f:[a,b] \to \mathbb{R}, \,$ $\alpha:[a,b] \to \mathbb{R} \,$ funciones y $P= \{x_0=a,…,x_n=b\}$ una partición de $[a,b].$ Definimos la suma de Riemann-Stieltjes de $P$ con respecto a $f$ y $\alpha$ como

\begin{align}
S(P,f,\alpha) := \sum_{i =1}^{n} f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1}))
\end{align}

Definición. Integral de Riemann-Stieltjes. Sean $f, \, \alpha$ y $P\, $ como en la definición anterior. Si existe el límite en $S(P,f, \alpha)$ cuando $n \to \infty,$ se define y denota a la integral de Riemann-Stieltjes como

\begin{align}
\int_{a}^{b}f(x) \, d \alpha := \underset{n \to \infty}{lim} \, \sum_{i =1}^{n} f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1}))
\end{align}

Para visualizar las ideas, consideremos los siguientes:

Ejemplos

En cualquier caso, $\alpha:[a,b] \to \mathbb{R}.$

  • $\alpha(x) = x.$ En este caso coincide con la integral de Riemann. Evidentemente:
    \begin{align*}
    \int_{a}^{b}f(x) \, d \alpha := \underset{n \to \infty}{lim} \, \sum_{i =1}^{n} f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})) = \underset{n \to \infty}{lim} \, \sum_{i =1}^{n} f(\xi_i)(x_i \, – \, x_{i-1}).
    \end{align*}
  • Si $\alpha(x) = F_{\mathcal{X}}(x)$ es la función de distribución de $\mathcal{X},$ entonces la integral de Riemman-Stieltjes es la esperanza de la variable aleatoria $Y=f(\mathcal{X}).$
  • $\alpha(x) = \lceil x \rceil.$ La función techo, es decir:
    \begin{align*}
    \lceil x \rceil = {\text{mín} \,} \{k \in \mathbb{Z} : k \geq x\}
    \end{align*}
Gráfica de $\alpha(x) = \lceil x \rceil.$

Analicemos más esta última función. Sea $P= \{x_0 = a,…,x_n =b\}$. Entonces para cada $i=0,…,n$

$$\alpha(x_i) \, – \, \alpha(x_{i-1}) = \lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil$$

Si suponemos que los intervalos son muy pequeños, podemos pedir que $|P|<1.$ En esta situación dos puntos consecutivos de la partición podrían estar entre dos enteros consecutivos o bien, tener un entero entre ellos. Así tenemos dos casos:

  1. \begin{align*}
    \lceil x_i \rceil &= \lceil x_{i-1} \rceil\\
    \Rightarrow \, \lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil &= 0
    \end{align*}
    o bien
  2. \begin{align*}
    \lceil x_i \rceil &> \lceil x_{i-1} \rceil \, \\
    \Rightarrow \, \lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil &= 1.
    \end{align*}

En consecuencia, si $\xi_i \in [x_{i-1}, x_i]$ entonces cada sumando toma los siguientes valores:

En el caso 1. $f(\xi_i)(\lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil) = 0.$
En el caso 2. $f(\xi_i)(\lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil) = f(\xi_1).$

La siguiente imagen permite visualizar este comportamiento.

Ejemplo de partición en el intervalo $[0,10]$

Calculemos $\int_{0}^{10}1 \, d \, \lceil x \rceil.$

En esta situación, los únicos sumandos significativos serán los que tienen algún entero en $\{1,2,…,10\}.$ Por lo tanto

$\int_{0}^{10}1 \, d \, \lceil x \rceil = \sum_{i=1}^{10} 1 = 10.$

¿Puedes calcular $\int_{0}^{10}f(x) \, d \, \lceil x \rceil,$ para cualquier $f$ continua en $[0,10]?$
Generaliza aún más y calcula $\int_{a}^{b}f(x) \, d \, \lceil x \rceil$ para cualquier intervalo $[a,b].$ $\textcolor{orange}{(\text{Ejercicio como tarea moral).}}$

Hay exactamente $10$ intervalos en una partición con $|P|<1$ donde el sumando no se anula.

En las siguientes entradas veremos que se satisface:

Proposición: Si $f$ es continua en $[a,b]$ y $\alpha$ es monótona, existe $\int_{a}^{b} f(x) \, d \alpha.$

Con la integral de Riemann-Stieltjes es posible identificar las funciones de distribución de variables aleatorias, sin importar si la variable es discreta, continua o una «mezcla» de ambas.

Gráfica de $\alpha.$

Ejemplo

La siguiente expresión refleja el comportamiento de una variable aleatoria que es continua en un «pedazo» y discreta en el resto.
\begin{equation*}
\alpha(x) = \begin{cases}
\frac{1}{\sqrt{2 \pi}}\int_{-\infty}^{x} e ^{-\frac{t^2}{2}} dt \, &\text{ si $x<0$ }\\
\\
1 \, &\text{ si $x \geq 0$}
\end{cases}
\end{equation*}

Entonces, si $F_{\mathcal{X}}$ es la función distribución de la variable aleatoria descrita se satisface:

$F_{\mathcal{X}}(b) \, – \, F_{\mathcal{X}}(a) = \text{Probabilidad de que } \mathcal{X} \text{ tome valores en } [a,b] = \int_{a}^{b}1 \, d \alpha.$

La esperanza de una variable aleatoria puede expresarse con una integral de Riemann-Stieltjes

A continuación presentamos una definición de la esperanza con la integral que estamos conociendo y es equivalente a la usada convencionalmente. Para profundizar en la teoría, visitar Probabilidad I: Valor Esperado de una Variable Aleatoria

Definición. Esperanza de $\mathcal{X}.$ Sea $\mathcal{X}$ una variable aleatoria con función de distribución $\alpha(x).$ La esperanza de $\mathcal{X}$ es
$$E(\mathcal{X}) = \int_{-\infty}^{\infty}x \, d\alpha.$$

Ejemplos

Sea $\mathcal{X}$ variable aleatoria con distribución binomial, $n=3, \, p= \frac{1}{2}.$ Dado que

$$\mathbb{P}(\mathcal{X} = k) = \binom{3}{k}\frac{1}{2}^k\frac{1}{2}^{3-k}$$

Se sigue:

$\mathbb{P}(\mathcal{X} = 0) = \frac{1}{8}$

$\mathbb{P}(\mathcal{X} = 1) = \frac{3}{8}$

$\mathbb{P}(\mathcal{X} = 2) = \frac{3}{8}$

$\mathbb{P}(\mathcal{X} = 3) = \frac{1}{8}$

Y así, la función distribución es:

\begin{equation*}
F_{\mathcal{X}} =\begin{cases}
0 \, &\text{ si }&x < 0 \\
\\
\frac{1}{8} \, &\text{ si $0\leq$} &x < 1 \\
\\
\frac{1}{2} \, &\text{ si $1 \leq$} &x < 2 \\
\\
\frac{7}{8} \, &\text{ si $2 \leq$} &x < 3 \\
\\
1 \, &\text{ si $3 \leq$} &x \\
\end{cases}
\end{equation*}.

Función distribución de $\mathcal{X}.$

Y la esperanza es

\begin{align*}
\sum_{k=0}^{3}k \, \mathbb{P}(\mathcal{X} = k) &= (0)\left(\frac{1}{8}\right) + (1)\left(\frac{3}{8}\right) + (2)\left(\frac{3}{8}\right) + (3)\left(\frac{1}{8}\right) \\
&=\frac{6}{4}
\end{align*}

Dejaremos como $\textcolor{orange}{\text{ejercicio de tarea moral,}}$ verificar la integral de Riemann-Stieltjes

\begin{align*}
\int_{\infty}^{\infty}x \, d\alpha &= \int_{-\infty}^{0}x \, d\alpha + \int_{0}^{3}x \, d\alpha + \int_{3}^{\infty}x \, d\alpha\\
&=0 + \dfrac{6}{4} +0\\
&= \dfrac{6}{4}.
\end{align*}

Representación de una partición de $[0,3].$

Como sugerencia, verifica que en una partición de $[0,3]$ con intervalos muy pequeños $(\delta< 1)$ los únicos sumandos que no se anulan en la suma de Riemann-Stieltjes serán los correspondientes a intervalos que tienen algún entero en $\{0,1,2,3\}.$

Otro ejemplo para terminar esta sección

Ahora supongamos que la función de distribución de una variable aleatoria está dada por:

\begin{equation*}
F_{\mathcal{X}}(x) =\begin{cases}
0 \, &\text{ si }&x < 0 \\
\\
\frac{x}{2}+\frac{1}{4} \, &\text{ si $0\leq$} &x < \frac{1}{2} \\
\\
\frac{x}{2}+\frac{1}{2} \, &\text{ si $\frac{1}{2} \leq$} &x < 1 \\
\\
1 \, &\text{ si $1 \leq$} &x \\
\end{cases}
\end{equation*}.

Grafica de $F_{\mathcal{X}}(x).$

Vamos a calcular la esperanza de $\mathcal{X}$ por medio de:

$$\int_{-\infty}^{\infty}x \, d\alpha.$$

Los detalles se dejarán como $\textcolor{orange}{\text{ejercicios de tarea moral.}}$ Nota que

$$\int_{-\infty}^{\infty}x \, d\alpha= \textcolor{PineGreen}{\int_{-\infty}^{0}x \, d\alpha} \textcolor{blue}{+ \int_{0}^{\frac{1}{2}}x \, d\alpha + \int_{\frac{1}{2}}^{1}x \, d\alpha} \textcolor{PineGreen}{+ \int_{1}^{\infty}x \, d\alpha}.$$

Primero vamos a obtener

$$ \textcolor{blue}{\int_{0}^{\frac{1}{2}}x \, d\alpha}.$$

Sea $P= \{x_0=0,…,x_{n-1},x_n= \frac{1}{2}\}$ una partición de $[0,\frac{1}{2}].$ Calculemos

\begin{align}
\sum_{i=1}^{n}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1}))= \sum_{i=1}^{n-1}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})) + f(\xi_n)(\alpha(\frac{1}{2}) \, – \, \alpha(x_{n-1}))
\end{align}

Observa que todos los intervalos a excepción del último cumplen que
\begin{align*}
\alpha(x_i) \, – \, \alpha(x_{i-1}) &= \left(\frac{x_i}{2}+\frac{1}{4}\right) \, – \, \left(\frac{x_{i-1}}{2}+\frac{1}{4}\right)\\
&= \frac{x_i \, – \, x_{i-1}}{2}
\end{align*}

Representación de una partición en $[0, \frac{1}{2}].$

Entonces

\begin{align*}
\sum_{i=1}^{n-1}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})) &= \sum_{i=1}^{n-1}f(\xi_i)\left( \frac{x_i \, – \, x_{i-1}}{2}\right)\\
&=\frac{1}{2} \sum_{i=1}^{n-1}f(\xi_i)(x_i \, – \, x_{i-1})
\end{align*}

De modo que
\begin{align}
\nonumber \underset{n\to \infty}{lim}\, \sum_{i=1}^{n-1}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})) &= \frac{1}{2}\int_{0}^{\frac{1}{2}}x \, dx \\
\nonumber &= \frac{1}{2} \frac{x^2}{2}\Big|_{0}^{\frac{1}{2}}\\
&= \frac{1}{16}.
\end{align}

En cuanto al último intervalo, cuando el tamaño de este tiende a $0$ se satisface

\begin{align}
f(\xi_n)(\alpha(\frac{1}{2}) \, – \, \alpha(x_{n-1})) \, \, \to \frac{1}{2}\left(\frac{3}{4} \, – \, \frac{1}{2}\right) = \frac{1}{8}
\end{align}

Por lo tanto, haciendo $n \to \infty$ en (3) por (4) y (5) tenemos:

\begin{align}
\textcolor{blue}{\int_{0}^{\frac{1}{2}}x \, d\alpha}= \frac{1}{16}+\frac{1}{8} = \frac{3}{16}
\end{align}

Análogamente se puede verificar que también

\begin{align}
\textcolor{blue}{\int_{\frac{1}{2}}^{1}x \, d\alpha}= \frac{3}{16}
\end{align}

En cuanto a la integral $\int_{-\infty}^{0}x \, d\alpha \,$ nota que eligiendo $\frac{1}{k}$ muy pequeñito podemos separarla como

\begin{align}
\int_{-\infty}^{0}x \, d\alpha = \int_{-\infty}^{-\frac{1}{k}}x \, d\alpha + \int_{-\frac{1}{k}}^{0}x \, d\alpha
\end{align}

Evidentemente, la primera parte $\int_{-\infty}^{-\frac{1}{k}}x \, d\alpha \,$ se anula. La otra integral $\int_{-\frac{1}{k}}^{0}x \, d\alpha \,$ se puede calcular con sumas de Riemann-Stieltjes: Si $P=\{x_0= \frac{1}{k},…,x_n=0\}$ es una partición de $[\frac{1}{k},0]$ el único sumando significativo es el último donde $f(\xi_n)(\alpha(x_{0}) \, – \, \alpha(x_{n-1})) \, \to \, 0(\frac{1}{4} \, – \, 0)=0.$

Representación de una partición en $[\frac{1}{k},0].$

Por lo tanto

\begin{align}
\textcolor{PineGreen}{\int_{-\infty}^{0}x \, d\alpha = 0}.
\end{align}

Es sencillo comprobar que también

\begin{align}
\textcolor{PineGreen}{\int_{1}^{\infty}x \, d\alpha = 0}.
\end{align}

Y así, de (6), (7),(9) y (10) concluimos que
\begin{align}
\int_{-\infty}^{\infty}x \, d\alpha = \frac{6}{16}= \frac{3}{8}.
\end{align}

Más adelante…

Veremos resultados formales de la integral de Riemann-Stieltjes y algunas de sus propiedades.

Tarea moral

  1. Resuelve los detalles pendientes de esta entrada que se fueron indicando.
  2. Sea $\alpha:[a,b] \to \mathbb{R}\, $ una función escalonada, calcula $\int_{a}^{b}f \, d\alpha$ con $f:[a,b] \to \mathbb{R}$ continua.

Enlaces

  • Análisis Matemático.
  • Enlace a entrada anterior.
  • Enlace a entrada siguiente.

Funciones de variación acotada

Por Lizbeth Fernández Villegas

Introducción

El contenido de esta sección corresponde al libro
Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015, págs 17-22.

Estamos por presentar las últimas notas de blog del curso de Análisis Matemático I. Pretendemos mostrar un puente entre lo que vimos aquí y lo que se aprenderá en Análisis Matemático II. Conoceremos algunas ideas que, eventualmente, nos llevarán al concepto de la integral de Riemann-Stieljes, un concepto que generaliza a la integral de Riemann (que suele verse en los cursos de Cálculo) pero que también es un caso particular de la integral de Lebesgue, la que se verá en la siguiente sección del blog. Para comenzar, analicemos los cambios que una función va tomando en un dominio cerrado.

Definición. Partición de un intervalo $\textbf{[a,b].}$ Sea $[a,b]$ un intervalo de $\mathbb{R}.$ Si $P = \{x_0=a, \, x_1, \, x_2,…,x_{n-1}, \, x_n = b\}, \, i=0,1,2,…,n \,$ es una colección de puntos tales que $x_0 =a, \, x_n = b$ y para cada $i =1,2,…,n$ se cumple que $x_{i-1}< x_i,$ entonces diremos que $P$ es una partición de $[a,b].$

Definición. Variación de $f$ sobre $[a,b].$ Considera una función $f:[a,b] \subset \mathbb{R} \to \mathbb{R} \,$ y sea $P=\{x_0, \, x_1, \, …, \, , x_n\}$ una partición de $[a,b].$ Definimos $S_P[f;a,b]$ (o bien $S_P$ cuando no hay necesidad de especificar la función y el intervalo) como:
$$S_P[f;a,b] := \sum_{i=1}^{n}|f(x_i) \, -\, f(x_{i-1})|$$

La suma del tamaño de los segmentos naranjas es la $S_P.$

Entonces se suman las distancias que se generan al evaluar $f$ en cualesquiera dos puntos consecutivos de la partición.

Ya que para cada partición $P$ de $[a,b]$ existe su respectiva $S_P,$ podemos pensar en si la colección de todas las sumas tiene supremo. El supremo de las sumas de todas las particiones de $[a,b]$ recibe el nombre de variación de $f$ sobre $[a,b].$ Se denota como:
$$ \underset{P \, \in \, \mathcal{P_{[a,b]}}}{Sup} \, S_P \, =V[f;a,b] \, = V [a,b]\, = V$$

Donde $\mathcal{P}_{[a,b]} \,$ es el conjunto de particiones de $[a,b].$

Las sumas pueden dar resultados distintos con particiones distintas

Definición. Función de variación acotada y de variación no acotada. Sea $f:[a,b] \to \mathbb{R}.$ Considera $V[f;a,b].$ Si el supremo de hecho existe en $\mathbb{R},$ entonces $0 \leq V$ y diremos que $f$ es de variación acotada en $[a,b].$
En otro caso diremos que $V = \infty \,$ y que $f$ es de variación no acotada.

Ejemplos de variación en funciones

A continuación presentamos las variaciones de algunas funciones. Al final de esta sección te pediremos calcular los resultados formalmente.

  • Sea $f:[a,b] \to \mathbb{R} \,$ tal que $f$ es monótona. Entonces para cualquier partición $P,$
    $$S_P=|f(b) \, – \, f(a)|=V.$$
$f$ es monótona.
  • Sea $f:[a,b] \to \mathbb{R}$ tal que $f$ puede expresarse en pedazos monótonos acotados, es decir, existe una partición $P = \{x_0 =a, \, x_1,…,x_n =b\}$ tal que $f$ es monótona en cada intervalo $[x_{i-1}, \, x_i].$ Entonces
    $$V = S_P.$$
$f$ es monótona en cada intervalo $[x_{i-1}, \, x_i].$
  • Sea $[a,b]$ un intervalo con el $\, 0$ en su interior y $f:[a,b] \to \mathbb{R}$ tal que
    \begin{equation*}
    f(x) = \begin{cases}
    1 & \text{si $x = 0$} \\
    0 & \text{si $x \neq 0$}
    \end{cases}
    \end{equation*}
    Entonces $S_P = 2 \,$ o $\, S_P = 0,$ de modo que $V=2.$
$f$ no es continua en un punto.
  • Sea $f:[a,b] \to \mathbb{R}$ la función de Dirichlet, es decir
    \begin{equation*}
    f(x) = \begin{cases}
    1 & \text{si $x \, \in \, \mathbb{Q}$} \\
    0 & \text{si $x \, \notin \, \mathbb{Q}$}
    \end{cases}
    \end{equation*}
    Entonces $V = \infty.$
$f$ es la función de Dirichlet.

Las siguientes son propiedades de las funciones de variación acotada.

Proposición. Si $f$ es de variación acotada en $[a,b]$ entonces $f$ es acotada en $[a,b].$

Demostración:
Sea $x \in [a,b].$ Considera la partición $\{a, \, x, \, b\},$ entonces
$$|f(x) \, – \, f(a)| \leq |f(x) \, – \, f(a)| +|f(b) \, – \, f(x)| \leq V.$$
Por lo tanto, $f$ es acotada en $[a,b].$

El regreso no es cierto, esto es, podemos tener una función acotada en $[a,b]$ pero que no sea de variación acotada. La función de Dirichlet ejemplifica esta situación. Podrás ver otro caso también en la tarea moral de la siguiente entrada).

Proposición. Sean $f,g \,$ funciones de variación acotada en $[a,b]$ y sea $c \in \mathbb{R}.$ Entonces las funciones

  • $cf,$
  • $f+g \,$ y
  • $fg$

son de variación acotada en $[a,b].$ Además

  • $\dfrac{f}{g}$

también es de variación acotada en $[a,b]$ si para todo $x \in [a,b]$ existe $\varepsilon >0$ tal que $|g(x)| \geq \varepsilon.$ La demostración queda como ejercicio.

Con las siguientes ideas tendremos recursos para aproximar mejor el valor de $V$ de una función.

Definición. Refinamiento. Sean $P,Q \in \mathcal{P}_{[a,b]} \,$ tales que $P \subseteq Q,$ es decir, $Q$ tiene todos los puntos de $P$ y, posiblemente, algunos otros. Entonces decimos que $Q$ es un refinamiento de $P,$ o que $Q$ refina a $P.$

Proposición: Si $Q$ es un refinamiento de $P,$ entonces $S_P \leq S_Q.$ La demostración la dejamos como ejercicio.

Proposición: Sea $f:[a,b] \to \mathbb{R}.$ Si $[a’,b’] \subseteq [a,b]$ entonces $V[a’,b’] \leq V[a,b],$ es decir, la variación potencialmente incrementa con el intervalo.

Demostración:
Sea $P= \{x_0= a’,…,x_n=b’\} \,$ una partición de $[a’,b’]$ y sea $Q = P \cup \{a,b\}.$ Claramente, $Q$ es partición de $[a,b]$ y
\begin{align*}
S_P[f;a’,b’] &= \sum_{i=1}^{n}|f(x_i) \, -\, f(x_{i-1})|\\
&\leq \sum_{i=1}^{n}|f(x_i) \, -\, f(x_{i-1})|+|f(x_0) \, -\, f(a)|+|f(b) \, -\, f(x_{n})|\\
&= S_Q[f;a,b]
\end{align*}

lo cual indica que para cada $S_P, \, P \in \mathcal{P}_{[a’,b’]}$ existe $S_Q, \, Q \in \mathcal{P}_{[a,b]}$ tal que $S_P \leq S_Q.$ Por lo tanto $V[a’,b’] \leq V[a,b].$

Proposición: Sea $f:[a,b] \to \mathbb{R}.$ Si $a < c < b$ entonces
$$V[a,b] = V[a,c] + V[c,b].$$
Es decir, la variación es aditiva en intervalos adyacentes.

Demostración:
Probemos primero que $V[a,c] + V[c,b] \leq V[a,b].$ Sea $P_1$ y $P_2$ particiones de $[a,c]$ y $[c,b],$ respectivamente. Entonces $P = P_1 \cup P_2$ es una partición de $[a,b].$

En consecuencia
$$S_{P_1}[f,a,c]+S_{P_2}[f,c,b] = S_P[f,a,b].$$
Ya que aún podrían existir otros valores más grandes de $S_{P’}[f,a,b]$ con $P’$ partición de $[a,b],$ se sigue que $V[a,c] + V[c,b] \leq V[a,b].$

Ahora probemos que $V[a,b] \leq V[a,c] + V[c,b].$ Sea $P$ una partición de $[a,b]$ y $\hat{P}= P \cup \{c\}.$

Entonces $\hat{P}$ es un refinamiento de $P,$ y por la proposición que dejamos al lector tenemos
$$S_P[f,a,b] \leq S_{\hat{P}}[f,a,b] = S_{P_1}[f,a,c]+S_{P_2}[f,c,b]$$
por lo tanto $V[a,b] \leq V[a,c] + V[c,b],$ con lo que concluimos que

$$V[a,b] = V[a,c] + V[c,b].$$

Definición. Partes positiva y negativa de $x$. Para cualquier $x \in \mathbb{R}$ definimos la parte positiva de $x$ como:

\begin{equation*}
x^+ = \begin{cases}
x & \text{si $x >0$} \\
0 & \text{si $x \leq 0$}
\end{cases}
\end{equation*}

Y la parte negativa de $x$ como:

\begin{equation*}
x^- = \begin{cases}
0 & \text{si $x >0$} \\
-x & \text{si $x \leq 0$}
\end{cases}
\end{equation*}

Nota que las partes positiva y negativa de un número real, satisfacen las siguientes relaciones:

  1. $x^+,x^- \geq 0.$
  2. $|x|=x^++x^- .$
  3. $x = x^+-x^- .$

Definición. Suma de términos positivos y suma de términos negativos de $S_P.$ Sea $f:[a,b] \to \mathbb{R} \,$ y $P=\{x_0, \, x_1, \, … \, , x_{n-1}, \, x_n\}.$ Definimos la suma de términos positivos de $S_P$ como:

$$S_P^+=S_P^+[f;a,b]= \sum_{i =1}^{n} \, (f(x_i)-f(x_{i-1}))^+.$$

Y la suma de términos negativos de $S_P$ como:

$$S_P^-=S_P^-[f;a,b]= \sum_{i =1}^{n} \, (f(x_i)-f(x_{i-1}))^-.$$

En la siguiente imagen, las líneas naranjas representan los sumandos distintos de cero en $S_P^+$ y las líneas verdes, los de $S_P^-.$

Representación $S_P^+$ y $S_P^-.$

Es sencillo comprobar que

\begin{align}
S_P^+ + S_P^- &= S_P \, \, \, \text{ y } \\
S_P^+ \, – \, S_P^- &=f(b) – f(a).
\end{align}

Definición: Variación positiva y variación negativa de $f.$ Definimos la variación positiva de $f$ como:

$$S^+=S^+[f;a,b]= \underset{P \in \mathcal{P}}{Sup \, } \, S_P^+$$

Y la variación negativa de $f$ como:

$$S^-=S^-[f;a,b]= \underset{P \in \mathcal{P}}{Sup \,} \, S_P^-$$

Nota que ambas son mayores iguales que cero y pueden valer $\infty$ cuando no existe el supremo en $\mathbb{R}$.

Proposición. Si alguno de $S^+, \, S^-, \, $ o $V$ es finito entonces los tres son finitos. Más aún, se satisface:

\begin{align}
S^++S^- &=V, \\
S^+-S^- &= f(b)-f(a)
\end{align}

o equivalentemente

\begin{align}
S^+&= \frac{1}{2}[V+f(b)-f(a)], \\
S^-&= \frac{1}{2}[V-f(b)+f(a)]
\end{align}

Demostración:
Supongamos que $V$ es finito. Por (1)
$$S_P^+ + S_P^- = S_P$$
y como $S_P \leq V,$ se sigue que
\begin{align*}
S_P^+ + S_P^- \leq V.
\end{align*}

Ya que tanto $S_P^+$ como $S_P^- $ son no negativos, tenemos
$$S_P^+ \leq V \, \Rightarrow \, S^+ \leq V.$$
De igual manera
$$S_P^- \leq V \, \Rightarrow \, S^- \leq V.$$

Por lo tanto, si $V$ es finito, $S^+$ y $S^-$ también lo son.

Ahora supongamos que $S^+$ es finito. Despejando en (2), se cumple:

\begin{align*}
&& S_P^- &= S_P^+ – \, (f(b) \, – \, f(a))\\
& \Rightarrow & &\leq S^+ – \, (f(b) \, – \, f(a))\\
\end{align*}

De modo que el conjunto de sumas de términos negativos está acotado y por lo tanto $S^-$ también es finito.

Por (1)
\begin{align}
\nonumber && S_P = S_P^+ + S_P^- &\leq S^+ + S^- \\
&\Rightarrow& V &\leq S^+ + S^-
\end{align}

En consecuencia, $V$ es finito.
Análogamente, podemos concluir que si $S^-$ es finito, $S^+$ y $V$ son finitos.

Para probar (4) considera una sucesión de particiones $(P_n)_{n \in \mathbb{N}}$ tal que la sucesión de sumas positivas cumple que

$$(S_{P_n}^+) \, \to \, S^+.$$

Vamos a demostrar que también $(S_{P_n}^-) \, \to \, S^-$ y que $S^+ \, – \, (f(b)\, – \, f(a)) = S^-,$ que es equivalente a (4).

Por (2) tenemos que $S_{P_n}^- = S_{P_n}^+- \, (f(b) \, – \, f(a)) ,$
y como $(S_{P_n}^+) \, \to \, S^+$
entonces $S_{P_n}^+- \, (f(b) \, – \, f(a)) \, \to \, S^ + -\, (f(b) \, – \, f(a)),$
y por transitividad
\begin{align}
S_{P_n}^- \, \to \, S^ + -\, (f(b) \, – \, f(a)).
\end{align}

Dado que $S_{P_n}^ – \leq S^ -,$ se sigue
\begin{align}
S^ + – \, (f(b) \, – \, f(a)) \leq S ^-.
\end{align}

Queremos que se cumpla la igualdad. Supón por el contrario que

$$S^ + – \, (f(b) \, – \, f(a)) < S ^-,$$

como $S ^-$ es el supremo de las sumas negativas, existe una partición $P$ de $[a,b]$ tal que

\begin{align}
&&S^ + – \, (f(b) \, – \, f(a))&<S_P ^- \\
&\Rightarrow& S^ + &<S_P ^- + (f(b) \, – \, f(a)) \\
&& &= S_P^+
\end{align}

lo cual es una contradicción, pues $S ^+$ es el supremo de las sumas positivas. Por lo tanto

\begin{align}
S^ + – \, (f(b) \, – \, f(a)) = S ^-,
\end{align}

Lo que prueba (4),

y por (8)
\begin{align}
S_{P_n} ^- \, \to \, S ^-,
\end{align}

Por otro lado, por (1)
$$S_{P_n}^+ + S_{P_n}^- = S_P \leq V$$
de modo que tomando el límite
\begin{align}
S^+ + S^- \leq V
\end{align}

y de (7) y (15) concluimos finalmente

$$S^+ + S^- = V$$

que es (3).

Finalizamos esta sección con el siguiente

Corolario. Teorema de Jordan. Una función $f:[a,b] \to \mathbb{R}$ es de variación acotada en $[a,b]$ si y solo si puede ser expresada como la diferencia de dos funciones crecientes acotadas en $[a,b].$

La función en rojo es diferencia de las otras dos. Por lo tanto es de variación acotada en $[1,3].$

Demostración:
Supón que $f$ es de variación acotada. Por un resultado visto arriba, sabemos que $f$ es de variación acotada en cada subintervalo $[a,x]$ con $x \in [a,b].$ Para cada $x,$ sean $S(x) ^+$ y $S(x) ^-$ las variaciones positiva y negativa de $f$ en $[a,x].$ Es sencillo demostrar que estas funciones son crecientes y acotadas en $[a,b],$ (ver tarea moral), y aplicando el teorema anterior en cada $[a,x],$
\begin{align*}
&& S(x) ^+ \, – \, S(x) ^- &= f(x) \, – \, f(a) \\
&\Rightarrow&f(x) &= (S(x) ^+ +f(a)) \, – \, S(x) ^-
\end{align*}

Como $S(x)$ es creciente y acotada, también lo es $(S(x) ^+ +f(a))$, de modo que $f$ es la diferencia de dos funciones crecientes y acotadas.

En contraparte, supongamos que $f = f_1 \, – \, f_2,$ donde $f_1$ y $f_2$ son funciones crecientes y acotadas en $[a,b].$ De acuerdo con el primer ejemplo, ambas funciones son de variación acotada. Finalmente, por un resultado enunciado arriba, $ f_1 \, – \, f_2 = f \,$ es de variación acotada.

Más adelante…

Seguiremos con el estudio de las funciones de variación acotada y conectaremos con curvas rectificables, una concepción de cómo considerar la longitud de una curva que podría no coincidir, con medir la gráfica de la misma.

Tarea moral

  1. Verifica la variación de cada función de los ejemplos enunciados arriba.
  2. Demuestra que si $f,g \,$ son funciones de variación acotada en $[a,b]$ y $c \in \mathbb{R},$ entonces las funciones
    $$cf, \, f+g \, \, \text{ y } \, \, fg$$
    son de variación acotada en $[a,b].$ Además
    $$\frac{f}{g}$$
    también es de variación acotada en $[a,b]$ si para todo $x \in [a,b]$ existe $\varepsilon >0$ tal que $|g(x)| \geq \varepsilon.$
  3. Prueba que si $Q$ es un refinamiento de $P,$ entonces $S_P \leq S_Q.$
  4. Para cada $x,$ sean $S(x) ^+$ y $S(x) ^-$ las variaciones positiva y negativa de $f$ en $[a,x].$ Demuestra que estas funciones son crecientes y acotadas en $[a,b].$
  5. Prueba que si $f:[a,b] \to \mathbb{R}$ es Lipschitz continua, entonces es de variación acotada.

Enlaces

  • Análisis Matemático.
  • Enlace a entrada anterior.
  • Enlace a entrada siguiente.

Teorema de existencia y unicidad de ecuaciones diferenciales

Por Lizbeth Fernández Villegas

Introducción

En la entrada anterior trabajamos con la ecuación diferencial $\dfrac{d \, y(x)}{dx} = y(x)$ con condición inicial $y(0)=1.$ Al identificar propiedades enunciadas en el teorema de punto fijo de Banach encontramos su solución. En esta ocasión repetiremos el proceso para demostrar que la solución a una ecuación diferencial general existe y es única.

Primeramente, veamos un concepto.

Definición. Función localmente Lipschitz continua en la segunda variable. Sea $(a,b) \subset \mathbb{R}$ y sea $\Omega \subset \mathbb{R}$ tal que $\Omega$ es abierto. Si $F:(a,b) \times \Omega \to \mathbb{R}$ es una función que satisface que para cada $x_0 \in (a,b)$ y $y_0 \in \Omega \, $ existen $\delta_0 >0$ y $c>0$ tales que $[x_0 – \delta_0, x_0 + \delta_0] \subset (a,b), \, [y_0 – \delta_0, y_0 + \delta_0] \subset \Omega$ y además que si $x \in [x_0 – \delta_0, x_0 + \delta_0] $ y si $y_1,y_2 \in [y_0 – \delta_0, y_0 + \delta_0]$ entonces
$$|F(x,y_1)-F(x,y_2)| \leq c |y_1-y_2|$$
diremos que $F$ es localmente Lipschitz continua en la segunda variable.

Solución a la ecuación diferencial $\dfrac{d \, y(x)}{dx}=F(x,y(x))$

Sea $\dfrac{d \, y(x)}{dx}=F(x,y(x))$ una ecuación diferencial con condición inicial $y(x_0)=y_0$ donde:

  1. $F$ es una función localmente Lipschitz continua en la segunda variable.
  2. $y$ es una función, al menos derivable, de variable $x$ que manda valores reales en valores reales.
  3. $x_0$ es un punto donde la $\, y \,$ buscada toma valor $y_0.$

Plan para resolverla con el teorema de punto fijo de Banach: Propondremos un espacio métrico completo $(X,d)$ de funciones entre las cuales deberá estar la $\, y \,$ buscada y una contracción $\phi:X \to X$ cuyo punto fijo sea la solución de la ecuación diferencial.

Sean $\delta_0>0$ y $c>0$ para $F$ localmente Lipschitz continua como en la definición. Se dejará como ejercicio al lector probar que $F$ restringida en $[x_0 \, – \, \delta_0, x_0 + \delta_0] \times [y_0 \, – \, \delta_0, y_0 + \delta_0]$ es continua. Como este conjunto es compacto, se sigue que $F$ está acotada en este conjunto. Por lo tanto existe $M>0$ tal que para toda $(x,y) \in [x_0 \, – \, \delta_0, x_0 + \delta_0] \times [y_0 \, – \, \delta_0, y_0 + \delta_0]$ se cumple
$$|f(x,y)| \leq M.$$

Sea $\delta$ tal que $0< \delta < min\{\frac{1}{c}, \frac{\delta_0}{M}\}$

Considera $X:= \{ f \in \mathcal{C}^0([x_0 \, – \, \delta, x_0 + \delta],\mathbb{R}): d_{\infty}(f,y_0) \leq \delta M \}$
donde $y_0$ representa, en este caso, a la función constante que arroja el valor $y_0.$ Nota que $X$ es un espacio cerrado en el espacio métrico $\mathcal{C}^0([x_0 \, – \, \delta, x_0 + \delta],\mathbb{R})$ que recordemos, tiene la propiedad de ser completo. Por lo visto en la última proposición de la entrada Espacios métricos completos concluimos que $X$ también es completo.

Propongamos la contracción $\phi$ deseada

Si $f \in X$ satisface la ecuación diferencial entonces para todo $x \in [x_0 \, – \, \delta, x_0 + \delta]$ se sigue:

\begin{align*}
&&\dfrac{d \, f(x)}{dx}&= F(x,f(x))\\
&\Rightarrow & \int_{x_0}^{x} \dfrac{d \, f(t)}{dt} \, dt &= \int_{x_0}^{x} F(t,f(t)) \, dt\\
&\Rightarrow & f(x) \, – \, f(x_0) &=\int_{x_0}^{x} F(t,f(t)) \, dt\\
&\Rightarrow & f(x) &=f(x_0) + \int_{x_0}^{x} F(t,f(t)) \, dt\\
&\Rightarrow & f(x) &= y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt
\end{align*}

Como buscamos que esta solución sea punto fijo de una contracción $\phi$ en $X$ entonces $\phi(f(x)) = f(x).$ La última igualdad nos lleva a proponer:

$$\phi(f(x)) := y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt$$

Nota que $\phi(f(x))$ pertenece a $\mathcal{C}^0([x_0 – \delta, x_0 + \delta],\mathbb{R}).$ Probaremos que también pertenece a $X.$ Si $x \in [x_0 – \delta, x_0 + \delta],$ tenemos dos casos:

Si $x_0 \leq x$

\begin{align*}
|\phi(f(x)) \, – \, y_0|&= \left|\int_{x_0}^{x} F(t,f(t)) \, dt \right| \\
&\leq \int_{x_0}^{x} |F(t,f(t))| \, dt \\
&\leq (x-x_0) M \\
&= \delta M
\end{align*}

Si $x < x_0$

\begin{align*}
|\phi(f(x)) \, – \, y_0|&= \left|\int_{x_0}^{x} F(t,f(t)) \, dt \right| \\
&= \left|- \int_{x}^{x_0} F(t,f(t)) \, dt \right| \\
&= \left| \int_{x}^{x_0} F(t,f(t)) \, dt \right| \\
&\leq \int_{x}^{x_0} |F(t,f(t))| \, dt \\
&\leq (x_0 \, – \, x) M\\
&= \delta M
\end{align*}

De ambos casos podemos concluir que $d_{\infty}(f,y_0) \leq \delta M,$ por lo tanto $\phi(f) \in X.$

$\phi$ es contracción en $X$

Sean $f,g \in X.$ Considera $I = [x_0 – \delta, x_0 + \delta]$ entonces si $x \in I,$ tenemos dos casos.

Si $x_0 \leq x.$

\begin{align*}
|\phi(f(x))- \phi(g(x))|&=\left|y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt-(y_0 + \int_{x_0}^{x} F(t,g(t)) \, dt) \right|\\
&=\left|\int_{x_0}^{x} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&\leq \int_{x_0}^{x} |F(t,f(t)) \, dt- F(t,g(t))| \, dt\\
&\leq \int_{x_0}^{x} c|f(t)- g(t)| \, dt \\
&\leq (x-x_0) c \, d_{\infty}(f,g) \\
&\leq (\delta c) \, d_{\infty}(f,g)
\end{align*}

Si $x < x_0.$

\begin{align*}
|\phi(f(x))- \phi(g(x))|&=\left|y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt-(y_0 + \int_{x_0}^{x} F(t,g(t)) \, dt) \right|\\
&=\left|\int_{x_0}^{x} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&=\left|- \int_{x}^{x_0} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&=\left| \int_{x}^{x_0} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&\leq \int_{x}^{x_0} |F(t,f(t)) \, dt- F(t,g(t))| \, dt\\
&\leq \int_{x}^{x_0} c|f(t)- g(t)| \, dt \\
&\leq (x_0-x) c \, d_{\infty}(f,g) \\
&\leq (\delta c) \, d_{\infty}(f,g)
\end{align*}

Por lo tanto, la distancia entre $\phi(f)$ y $\phi(g)$ se puede estimar como

\begin{align*}
d_\infty(\phi(f(x)), \phi(g(x))) &= \underset{x \in I}{Sup} \, \{|\phi(f(x))- \phi(g(x))| \} \\
&\leq \underset{x \in I}{Sup} \, \{ \delta c \, d_{\infty}(f,g) \} \\
&=(\delta c)d_{\infty}(f,g)
\end{align*}

Sea $\alpha := \delta c$ entonces $\alpha<1,$ por lo tanto $\phi$ es contracción en $X.$

Lo que hemos visto en esta entrada demuestra el siguiente:

Teorema. Picard-Lindelöf. Sea $F:(a,b) \times \Omega \to \mathbb{R}$ una función continua y localmente Lipschitz continua en la segunda variable. Entonces, dados $x_0 \in (a,b)$ y $y_0 \in \Omega$ existe $\delta >0$ tal que la ecuación diferencial
$$\dfrac{d \, y(x)}{dx}=F(x,y(x)), \, y(x_0)=y_0$$
tiene una única solución en el intervalo $[x_0 \, – \, \delta, x_0 + \delta].$

Generalización en $\mathbb{R}^n$

Si $\Omega \subset \mathbb{R}^n$ y $F$ tiene su contradominio en $\mathbb{R}^n$ entonces la definición y el teorema quedan como sigue:

Definición. Función localmente Lipschitz continua en la segunda variable. Sea $(a,b) \subset \mathbb{R}$ y sea $\Omega \subset \mathbb{R}^n$ tal que $\Omega$ es abierto. Si $F:(a,b) \times \Omega \to \mathbb{R}^n$ es una función que satisface que para cada $x_0 \in (a,b)$ y $y_0 \in \Omega \, $ existen $\delta_0 >0$ y $c>0$ tales que $[x_0 – \delta_0, x_0 + \delta_0] \subset (a,b), \, \overline{B}(y_0, \delta_0) \subset \Omega$ y además que si $|x-x_0| \leq \delta_0$ y si $y_1,y_2 \in \overline{B}(y_0,\delta_0)$ entonces
$$\norm{F(x,y_1)-F(x,y_2)} \leq c \norm{y_1-y_2}$$
diremos que $F$ es localmente Lipschitz continua en la segunda variable.

Teorema. Picard-Lindelöf. Sea $F:(a,b) \times \Omega \to \mathbb{R}^n$ una función continua y localmente Lipschitz continua en la segunda variable. Entonces, dados $x_0 \in (a,b)$ y $y_0 \in \Omega$ existe $\delta >0$ tal que la ecuación diferencial
$$\dfrac{d \, y(x)}{dx}=F(x,y(x)), \, y(x_0)=y_0$$
tiene una única solución en el intervalo $[x_0 \, – \, \delta, x_0 + \delta].$

En este caso el espacio completo donde podemos encontrar la solución es

$$X:= \{ f \in \mathcal{C}^0([x_0 \, – \, \delta, x_0 + \delta], \mathbb{R}^n) : \norm{f \, – \, y_0}_\infty \leq \delta M\}$$

Donde $\delta$ y $M$ se definen de forma análoga a la demostración anterior.

Más adelante

Pasaremos a la siguiente sección de esta asignatura con temas de compacidad. Aunque ya se han usado algunos resultados para el caso del espacio métrico euclidiano, mostraremos cómo el concepto puede generalizarse en otros espacios a partir de la topología que la métrica induce en ellos.

Tarea moral

  1. Sean $\delta_0>0$ y $c>0$ para $F$ localmente Lipschitz continua como en la definición. Prueba que $F$ restringida en $[x_0 \, – \, \delta_0, x_0 + \delta_0] \times [y_0 \, – \, \delta_0, y_0 + \delta_0]$ es continua.
  2. Sea $F: \mathbb{R} \times \mathbb{R} \to \mathbb{R}$ tal que $F(x,y)= 3y^{2/3}.$
    a) Prueba que $F$ no es localmente Lipschitz continua en la segunda variable.
    b) Prueba que para cualesquiera $\alpha < 0 < \beta,$ la función
    \begin{equation*}
    f_{\alpha, \beta}(x) = \begin{cases}
    (x \, – \, \alpha)^3 & \text{si x $\leq \alpha,$} \\
    0 & \text{si $\alpha \leq x \leq \beta,$}\\
    (x \, – \, \beta)^3 & \text{si $x \geq \beta.$}
    \end{cases}
    \end{equation*}
    Es diferenciable en $\mathbb{R}$ y es solución de
    $$\dfrac{d \, y(x)}{dx}=3y^{2/3}, \, y(0)=0.$$
    Así, si $F$ no es localmente Lipschitz continua en la segunda variable la ecuación puede tener una infinidad de soluciones.
  3. Sea $F: \mathbb{R} \times \mathbb{R} \to \mathbb{R}$ tal que $F(x,y)= -y^2.$
    a) Prueba que $F$ es localmente Lipschitz continua en la segunda variable.
    b) Para $\alpha \neq 0$ considera la ecuación
    $$\dfrac{d \, y(x)}{dx}=-y^2, \, y(0)= – \, \frac{1}{\alpha}.$$
    Prueba que $f(x)= \dfrac{1}{x \, – \, \alpha}$ es su solución en algún intervalo que contiene a $0$.
    c) ¿Cuál es el intervalo máximo para el que esta ecuación tiene solución?

Enlaces

Conjuntos relativamente compactos y totalmente acotados

Por Lizbeth Fernández Villegas

Introducción

En la sección La métrica de Hausdorff definimos que un conjunto acotado es aquel que está contenido en una bola del espacio métrico. Hay una propiedad más específica de los, así llamados, conjuntos totalmente acotados. Consiste en encerrar al conjunto en una unión de bolas abiertas tan pequeñas como se desee. La particularidad radica en que, por muy pequeño que sea el radio de estas bolas, bastará con una cantidad finita de ellas para cubrir todo el conjunto. Formalmente esta idea se expresa como:

Definición. Conjunto totalmente acotado: Sea $(X,d)$ un espacio métrico y $A \subset X$. Si para todo $\varepsilon >0$ existe una cantidad finita de puntos $a_1,…,a_n \in A$ tales que
$$A \subset \underset{i =1,…,n}{\bigcup}\, B(a_i,\varepsilon)$$
diremos que $A$ es totalmente acotado.

Conjunto totalmente acotado

Por supuesto que esta propiedad asegura que el conjunto sea acotado.

Proposición. Si $A \subset X$ es totalmente acotado, entonces $A$ es acotado.

Demostración:
Como $A$ es totalmente acotado, existen $a_1,a_2,…,a_n \in A$ tales que $A \subset \underset{1\leq i \leq n}{\bigcup}B(a_i,1).$ Ahora busquemos una bola abierta en $X$ que contenga al conjunto $A.$

Cubrimos al conjunto con bolas de radio $1$

Considera la máxima distancia entre $a_1$ y el resto de los centros. Llamémosla $M$ es decir, $M = máx\{d(a_1,a_k): k=2,…,n\}.$ A continuación identificaremos una bola abierta con centro en $a_1$ que cumplirá lo deseado.

Si $x \in A$ se tiene que $x \in B(a_k,1)$ para algún $k \in \{1,…,n\},$ así:
\begin{align*}
d(a_1,x)&\leq d(a_1,a_k) + d(a_k,x) \\
&\leq M + 1
\end{align*}

Por lo tanto $A \subset B(a_1,M+1),$ concluyendo así que $A$ es acotado.

Contrario a lo anterior, en general no es cierto que todo conjunto acotado sea totalmente acotado:

Contraejemplo: Considera el espacio de las sucesiones en $\mathbb{R}$ dado por $l_1 =\{(x_n): \sum_{n=1}^{\infty} x_n < \infty \}$ con la norma definida como $\norm{(x_n)}_1 = \sum_{n=1}^{\infty}|x_n|.$

Sea $A=\{e_i: i \in \mathbb{N}\}$ donde $e_i$ es la sucesión que toma a $1$ como valor en la entrada $i$ y $0$ en el resto.

Este conjunto es acotado en $l_1$ pues para cada $i \in \mathbb{N}, \, \norm{e_i}_1= \sum_{n=1}^{\infty}|x_n|= |1|=1$ de modo que $A \subset B(\mathcal{0},2)$ donde $\mathcal{0}$ es la sucesión constante cero.

No obstante, $A$ no es totalmente acotado. Si calculamos la distancia entre dos sucesiones en $A$ tenemos que para cualesquiera $i \neq j, \, d(e_i,e_j)= |1|+|1|= 2.$ Por lo tanto si se elige $\varepsilon >0,$ tal que $\varepsilon \leq 2$ cada bola de radio $\varepsilon$ con centro en alguna sucesión de $A$ excluye al resto de los elementos de $A$, de modo que no será posible cubrir $A$ con una cantidad finita de bolas de radio $\varepsilon$ cuyo centro esté en $A.$

Bolas de radio $\varepsilon \leq 2$

Esto nos permite concluir que $A$ no es totalmente acotado.

El ejemplo nos incentiva algunas preguntas: ¿Es el conjunto $A$ cerrado en $l_1?$ ¿Es compacto? ¿Bastará con que un conjunto sea totalmente acotado para que sea compacto? Al final de esta sección podrás responderlas.

Por lo pronto veamos que la propiedad de ser totalmente acotado, se hereda en subconjuntos:

Proposición: Sea $A \subset X$ un conjunto totalmente acotado. Si $B \subset A$ entonces $B$ es totalmente acotado.

Demostración:
Sea $\varepsilon >0.$ Como $A$ es totalmente acotado, existen puntos $a_1,…,a_n \in A$ tales que:

$$B \subset A \subset \underset{i =1,…,n}{\bigcup}\, B(a_i,\frac{\varepsilon}{2})$$

Consideremos únicamente a las bolas abiertas que tienen elementos de $B.$ Sea $\mathcal{J}:= \{j \in \{1,…,n\}: B(a_j, \frac{\varepsilon}{2}) \cap B \neq \emptyset\}$En efecto, $B \subset \underset{j \in \mathcal{J}}{\bigcup}\, B(a_j,\frac{\varepsilon}{2})$

Para cada $j \in \mathcal{J},$ sea $b_j \in B(a_j,\frac{\varepsilon}{2}) \cap B.$ Nota que dicha bola está contenida en $B(b_j,\varepsilon)$ por lo siguiente:

Si $x \in B(a_j,\frac{\varepsilon}{2})$ entonces $d(x,b_j) \leq d(x,a_j) + d(a_j,b_j) < \frac{\varepsilon}{2}+\frac{\varepsilon}{2} = \varepsilon.$

Por lo tanto para cada $j \in \mathcal{J}, \, B(a_j,\frac{\varepsilon}{2}) \subset B(b_j,\varepsilon),$ de modo que $B \subset \underset{j \in \mathcal{J}}{\bigcup}\, B(a_j,\frac{\varepsilon}{2}) \subset \underset{j \in \mathcal{J}}{\bigcup}\, B(b_j,\varepsilon)$ lo que nos permite concluir que $B$ es totalmente acotado.

Proposición: Si $A \subset X$ es totalmente acotado entonces $\overline{A}$ también es totalmente acotado. La demostración se deja como ejercicio.

Proposición: Si $A \subset X$ es compacto entonces $A$ es totalmente acotado.

Demostración:
Sea $\varepsilon >0$ y $A$ un conjunto compacto. Para cada punto $a \in A$ considera $B(a,\varepsilon).$ Entonces el conjunto $\{B(a,\varepsilon):a \in A\}$ es una cubierta abierta de $A.$

Cubierta abierta de bolas de radio $\varepsilon.$

Como $A$ es compacto entonces existe una subcubierta finita $\{B(a_1,\varepsilon),B(a_2,\varepsilon),…,B(a_n,\varepsilon)\}.$ Por lo tanto, $A$ es totalmente acotado.

Cubierta abierta finita

En general no es cierto que un conjunto totalmente acotado sea compacto. El regreso requiere de una propiedad más:

Proposición: $A \subset X$ es compacto si y solo si es completo y totalmente acotado.

Demostración:
Supón que $A$ es un conjunto compacto. Ya vimos que esto lo hace totalmente acotado, ahora comprobemos que también es completo. Sea $(x_n)_{n \in \mathbb{N}}$ una sucesión de Cauchy en $A.$ Por lo visto en la entrada de Compacidad en espacios métricos sabemos que $(x_n)$ tiene una subsucesión que converge en $A.$ Luego, por la entrada Sucesiones de Cauchy sabemos que esto permite concluir que $(x_n)$ es convergente, por lo tanto $A$ es completo.

En el regreso partimos de que $A$ es completo y totalmente acotado. Supongamos por el contrario que $A$ no es compacto. Entonces existe una cubierta abierta $\mathcal{C} = \{ A_i: i \in \mathcal{I} \}$ de $A$ tal que no tiene subcubierta finita.

Como $A$ es totalmente acotado, entonces está contenido en una unión finita de bolas de radio $1$

Al menos una de esas bolas no puede ser cubierta por una unión finita de elementos de $\mathcal{C}$ pues si todas las bolas pudieran ser cubiertas de esa forma, entonces sí tendríamos una subcubierta finita de $\mathcal{C}$ para $A.$

Sea $B(x_0,1)$ esa bola. Como está contenida en la bola cerrada $\overline{B}(x_0,1)$, que es compacta y, en consecuencia, totalmente acotada, se sigue que $B(x_0,1)$ también es totalmente acotada. Por lo tanto, está cubierta por un número finito de bolas abiertas de radio $\frac{1}{2}.$

Por el argumento arriba mencionado, existe una bola $B(x_1,\frac{1}{2})$ que no puede ser cubierto por una cantidad finita de elementos de $\mathcal{C}.$

Continuando con este procedimiento, podemos construir una sucesión $(x_n)_{n \in \mathbb{N}} \,$ donde para cada $n \in \mathbb{N}, \, x_n$ es el centro de una bola de radio $\frac{1}{n+1}$ que no puede ser cubierta por una cantidad finita de elementos de $\mathcal{C}$ y $x_n$ está en la bola abierta $B(x_{n-1},\frac{1}{n}).$

Queda como ejercicio al lector demostrar que la sucesión $(x_n)$ es de Cauchy. Como $A$ es completo, se sigue que $x_n \to x^*$ para algún $x^* \in A.$

Sea $\mathcal{U} \in \mathcal{C}$ tal que $x^* \in \mathcal{U}.$ Como $\mathcal{U}$ es abierto, existe $\varepsilon >0$ tal que $B(x^*,\varepsilon) \subset \mathcal{U}.$ Como $x_n \to x^*$ existe $N \in \mathbb{N}$ tal que $\forall \, k \geq N, d(x_k, x^*)< \frac{\varepsilon}{2}.$

Sea $K \in \mathbb{N}$ tal que $K > N$ y además, $\frac{1}{K} < \frac{\varepsilon}{2}.$ Demostraremos que $B(x_{K-1}, \frac{1}{K}) \subset \mathcal{U}.$

Si $x \in B(x_{K-1}, \frac{1}{K})$ se sigue que:
\begin{align*}
d(x,x^*) &\leq d(x,x_{K-1}) + d(x_{K-1},x^*) \\
&< \frac{1}{K} + \frac{\varepsilon}{2} \\
&< \frac{\varepsilon}{2} + \frac{\varepsilon}{2} \\
&= \varepsilon
\end{align*}

En consecuencia $B(x_{K-1}, \frac{1}{K}) \subset \mathcal{U}$ lo cual es una contradicción, pues habíamos dicho que no puede ser cubierto por una cantidad finita de elementos de $\mathcal{C}.$ Por lo tanto $A$ es un conjunto compacto.

Hemos visto que si un conjunto no es cerrado tampoco es compacto. No obstante puede ocurrir que la cerradura del conjunto sí lo sea. Tenemos la siguiente:

Definición. Conjunto relativamente compacto: Sea $(X,d)$ espacio métrico y sea $A \subset X$. Diremos que $A$ es relativamente compacto si $\overline{A}$ es compacto.

Proposición: Sea $(X,d)$ un espacio métrico completo. Entonces $A \subset X$ es relativamente compacto en $X$ si y solo si es totalmente acotado.

Demostración:
Si $A$ es relativamente compacto entonces $\overline{A}$ es compacta en $X$ y por tanto, totalmente acotado. Como $A \subset \overline{A}$ concluimos por una proposición vista arriba que $A$ también es totalmente acotado.

Por otro lado, partiendo de que $A$ es totalmente acotado tenemos por la proposición que dejamos como ejercicio, que $\overline{A}$ también es totalmente acotado. Además, $\overline{A}$ es completo, pues es un subconjunto cerrado en $X$ completo, (ver Espacios métricos completos) así podemos concluir por la proposición de arriba, que $\overline{A}$ es compacto.

Más adelante…

Usaremos los términos vistos en esta entrada y sus equivalencias para enunciar y demostrar el teorema de Arzelá-Ascoli.

Tarea moral

  1. Considera el espacio de las sucesiones en $\mathbb{R}$ dado por $l_1 =\{(x_n): \sum_{n=1}^{\infty} x_n < \infty \}$ donde la norma se define como $\norm{(x_n)}_1 = \sum_{n=1}^{\infty}|x_n|.$ Sea $A=\{e_i: i \in \mathbb{N}\}$ donde $e_i$ es la sucesión que toma a $1$ como valor en la entrada $i$ y $0$ en el resto. ¿Es el conjunto $A$ cerrado en $l_1?$ ¿Es compacto?
  2. Da un ejemplo de un conjunto totalmente acotado que no sea compacto.
  3. Demuestra que si $A$ es totalmente acotado entonces $\overline{A}$ también es totalmente acotado.
  4. Demuestra que la sucesión $(x_n)_{n \in \mathbb{N}}$ de la demostración de $»A \subset X$ es compacto si y solo si es completo y totalmente acotado«, es de Cauchy.
  5. Sea $X$ un espacio métrico. Demuestra que si toda sucesión en $X$ tiene una subsucesión que converge en $X$ entonces es completo y totalmente acotado. Nota que es lo que falta para concluir que son equivalentes:
    a) $X$ es compacto.
    b) Toda sucesión en $X$ tiene una subsucesión que converge en $X.$
    c) $X$ es completo y totalmente acotado.

Enlaces