Archivo del Autor: Lizbeth Fernández Villegas

Teorema de Baire

Por Lizbeth Fernández Villegas

$ \textit{ MATERIAL EN REVISIÓN}$

Introducción

Dedicaremos esta entrada a la presentación de un teorema que ha dado resultados importantes en el estudio de los espacios métricos completos. Para comenzar, necesitamos imaginar la pertenencia de los elementos de un conjunto cuando seleccionamos, arbitrariamente, bolas abiertas en el espacio métrico. El primer concepto dice lo siguiente:

Definición. Conjunto denso. Sean $(X,d)$ un espacio métrico y $A \subset X.$ Decimos que $A$ es un conjunto denso en $X$ si $\overline{A}=X.$

La intersección de las bolas abiertas en $X$ con $A$ es no vacía.

Nota que esto es equivalente a decir que todas las bolas abiertas de $X$ tienen puntos en $A.$

Ejemplo: En el espacio métrico euclidiano de los números reales, el conjunto $\mathbb{Q}$ es denso.

Cualquier intervalo de $\mathbb{R}$ tiene puntos en $\mathbb{Q}.$

Aunque basta con encontrar una bola abierta en $X$ ajena al conjunto $A$ para demostrar que $A$ no es denso, presentamos un tipo de conjunto que no solo no lo es sino que no lo es en «ninguna parte» de $A.$

El conjunto de puntos es denso a la izquierda del dibujo pero no a la derecha.

Definición. Conjunto nunca denso. Sean $(X,d)$ un espacio métrico y $A \subset X.$ Si para toda bola abierta $B \subset X$ existe una bola abierta contenida $B’ \subset B$ que no tiene puntos de $A$ diremos que $A$ es un conjunto nunca denso (o denso en ninguna parte).

El conjunto de puntos es nunca denso.

Con estos conceptos ya podemos entender el teorema prometido.

Teorema de Baire. Si $(X,d)$ es un espacio métrico completo, entonces no puede representarse como la unión numerable de conjuntos nunca densos.

Demostración:
Sea $X$ un espacio métrico completo. Considera el conjunto $\underset{n \in \mathbb{N}}{\bigcup} \, A_n,$ donde para cada $n \in \mathbb{N}$ el conjunto $A_n \subset X$ es nunca denso en $X.$ Construiremos una sucesión de bolas cerradas encajadas como sigue: (Concepto visto en entrada anterior).
Sea $B_0 \,$ una bola cerrada de radio $1.$ Como $A_1$ es nunca denso, existe una bola cerrada $B_1$ de radio menor que $\frac{1}{2}$ tal que $B_1 \subset B_0$ y $B_1 \cap A_1= \emptyset.$ Proponemos como ejercicio al lector argumentar por qué seleccionar dicha bola es posible.
De igual manera, como $A_2$ es nunca denso existe una bola cerrada $B_2$ de radio menor que $\frac{1}{3}$ tal que $B_2 \subset B_1$ y $B_2 \cap A_2= \emptyset.$

La bola $B_1$ excluye los puntos de $A_1$… La bola $B_k$ excluye los puntos de $A_k.$

Si continuamos recursivamente, terminaremos construyendo una sucesión de bolas cerradas encajadas $(B_n)_{n \in \mathbb{N}} \,$ cuyos radios tienden a $0.$ En la entrada anterior vimos que, al ser $X$ completo la intersección de estas bolas tiene un punto, de hecho $\underset{n \in \mathbb{N}}{\bigcap}B_n= \{x\}$ para algún $x \in X.$ Este punto no pertenece a ningún conjunto $A_k, \, k \in \mathbb{N},$ pues al estar en la intersección de todas las bolas cerradas, particularmente $x \in B_k$ que, recordemos es ajeno a $A_k,$ por lo tanto $x \notin A_k.$ Entonces tenemos un punto $x \in X$ tal que $x \notin \underset{n \in \mathbb{N}}{\bigcup}A_n$ concluyendo así que $X \neq \underset{n \in \mathbb{N}}{\bigcup}A_n.$

A partir de este teorema podemos concluir la siguiente:

Proposición. Todo espacio métrico completo $X$ sin puntos aislados es no numerable.

Demostración:
Recordemos que un punto aislado $x \in X$ es aquel que tiene una bola abierta cuyo único elemento de $X$ es $x.$ Si $X$ no tiene puntos aislados, entonces todos sus puntos son de acumulación. Es sencillo probar que para cada $x \in X$ el conjunto $\{x\}$ es nunca denso (ejercicio).

Toda bola abierta con $x$ tiene otro elemento en el interior.

Si la unión de todos los conjuntos de puntos $\underset{x \in X}{\bigcup}\{x\}=X \,$ fuera numerable tendríamos un espacio completo que contradiga el teorema de Baire. Por lo tanto, si $X$ es completo y sin puntos aislados, entonces es no numerable.

Ejemplo: El espacio euclidiano $\mathbb{R}$ es completo y sin puntos aislados, por lo tanto es no numerable.

El teorema de Baire ha dado resultados fundamentales en el análisis. Los siguientes tres teoremas pueden consultarse en:
Kesavan, S., Functional Analysis (2a ed.). Chennai, India: Editorial Springer, 1996. Págs. 99 y 106.

Teorema de Banach-Steinhaus o de acotación uniforme. Sea $V$ un espacio de Banach y $W$ un espacio lineal normado. Sea $I$ un conjunto indexado para cada $i \in I$ sea $T_i \in \mathcal{L}(V,W).$ Entonces existe $M>0$ tal que

$\norm{T_i} \leq M$, para todo $i \in I$

o bien $\underset{i \in I}{sup} \, \norm{T_i(x)} = \infty$ para todo $x \in G_\delta \subset V.$

Teorema de la función abierta. Sean $V,W$ espacios de Banach y sea $T \in \mathcal{L}(V,W)$ suprayectivo. Entonces $T$ es una función abierta, esto es, si $A \subset V$ es abierto en $V$ entonces $T(A) \subset W$ es abierto en $W.$

Corolario. (También llamado teorema de la función inversa). Sean $V,W$ espacios de Banach y sea $T \in \mathcal{L}(V,W)$ biyectivo, entonces $T$ tiene inversa $T^{-1}$ y esta es continua.

El teorema de la función inversa también es conocido como el teorema de Banach sobre el operador inverso como puede observarse en el problema 3 de Kolmogorov, A.N., Fomin, S.V., Introductory Real Analysis. New York: Dover Publications Inc, 1975. Pág 238. En la página 229 del libro mencionado encontraremos también el:

Teorema Banach. Sea $A$ un operador lineal invertible y acotado que hace un mapeo de un espacio de Banach $E$ en otro espacio de Banach $E_1,$ entonces el operador inverso $A^{-1}$ también es acotado.

También recomendamos visualizar la conferencia
Pichardo, Roberto. «¿Teoría de Conjuntos?, ¡Pero si es bien fácil!». Instituto de Matemáticas de la UNAM. Publicado el 24 de marzo del 2017. YouTube video 59:57
https://www.youtube.com/watch?v=hLFit88zTYk

Roberto Pichardo comienza a describir la Hipótesis del Continuo en el minuto 14 hasta contarnos que esta es equivalente a la igualdad $c:=|\mathbb{R}| = \mathcal{N_1}.$ El teorema de Baire permite mostrar que

\begin{align*}
\mathcal{N_1} \leq cov(\mathcal{M}) \leq c \\
\mathcal{N_1} \leq non(\mathcal{M}) \leq c\\
\mathcal{N_1} \leq add(\mathcal{M}) \leq c
\end{align*}

Y en consecuencia, esos tres cardinales son iguales.

Más adelante…

Descubriremos que aunque un espacio no sea completo, es posible extenderlo a uno que sí lo sea. Tendremos así la llamada «completación de un espacio métrico».

Tarea moral

  1. ¿Es un conjunto nunca denso un conjunto denso?
  2. Da un ejemplo de un conjunto denso que no sea nunca denso.
  3. En la demostración del teorema de Baire, argumenta por qué es posible elegir las bolas con el radio indicado.
  4. Demuestra que un conjunto $A$ es nunca denso, si y solo si $Int(\overline{A}) = \emptyset .$
  5. Prueba que si $x \in X$ (con $X$ espacio métrico) es un punto de acumulación, entonces $\{x\}$ es nunca denso.

Bibliografía

Enlaces

Propiedades de la integral de Riemann-Stieltjes. Parte 2

Por Lizbeth Fernández Villegas

Introducción

El contenido de esta sección se basa predominantemente en el libro
Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015, págs 30-34.

Continuaremos viendo condiciones bajo las cuales sea posible afirmar la existencia de la integral $\int_{a}^{b}f \, d\alpha.$ Comencemos con la siguiente:

Proposición. Sean $f, \alpha:[a,b] \to \mathbb{R}.$ Si $\, \int_{a}^{b}\textcolor{RoyalBlue}{f} \, d\textcolor{magenta}{\alpha} \,$ existe, entonces también $\, \int_{a}^{b}\textcolor{magenta}{\alpha} \, d\textcolor{RoyalBlue}{f} \,$ existe y además

\begin{align}
\int_{a}^{b}f \, d\alpha = [f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \int_{a}^{b} \alpha \, df.
\end{align}

Demostración:
Considera $P= \{x_0=a,…,x_n=b\}$ una partición de $[a,b] \,$ y sean $\xi_i \in [x_{i-1},x_i], \, i=1,…,n.$ Entonces se siguen las siguientes igualdades:

\begin{align*}
S(P,f,\alpha)&= \sum_{i=1}^{n}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
&= \sum_{i=1}^{n}f(\xi_i)\alpha(x_i) \, – \, \sum_{i=1}^{n}f(\xi_i)\alpha(x_{i-1})\\
&= \sum_{i=1}^{n}f(\xi_i)\alpha(x_i) \, – \, \sum_{i=0}^{n-1}f(\xi_{i+1})\alpha(x_i)\\
&= \sum_{i=1}^{n-1}f(\xi_i)\alpha(x_i)+ f(\xi_n)\alpha(x_n)\, – \, \sum_{i=1}^{n-1}f(\xi_{i+1})\alpha(x_i) \, – \, f(\xi_1)\alpha(x_0)\\
&=- \sum_{i=1}^{n-1}\alpha(x_i)(f(\xi_{i+1}) \, – \, f(\xi_i))) + f(\xi_n)\alpha(b) \, – \, f(\xi_1)\alpha(a).
\end{align*}

Nota que el lado derecho de la igualdad coincide con

$$[f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \, \textcolor{blue}{T_P}$$

donde

$$\textcolor{blue}{T_P}= \sum_{i=1}^{n-1}\alpha(x_i)(f(\xi_{i+1}) \, – \, f(\xi_i))+\alpha(a)(f(\xi_1) \, – \, f(a))+\alpha(b)(f(b) \, – \, f(\xi_n)). $$

Por lo tanto

\begin{align}
S(P,f,\alpha) = [f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \, \textcolor{blue}{T_P}.
\end{align}

Observa que $\textcolor{blue}{T_P}$ es una suma de Riemann-Stieltjes para $\textcolor{blue}{\int_{a}^{b} \alpha \, df.}$ Tomando el límite cuando $|P| \to 0$ en (2) vemos que $\int_{a}^{b}f \, d\alpha$ existe si y solo si $\int_{a}^{b} \alpha \, df$ existe y que

\begin{align*}
\int_{a}^{b}f \, d\alpha = [f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \int_{a}^{b} \alpha \, df,
\end{align*}

que es lo que queríamos demostrar.

Ya que el valor de las sumas de Riemann-Stieltjes depende de los valores $\xi_i$ elegidos, cuando la función $f$ es acotada, podemos delimitar el valor de $f(\xi_i)$ y, por tanto, acotar las sumas como muestra la siguiente:

Definición. Suma inferior y suma superior de Riemann-Stieltjes. Sea $f$ acotada, $\alpha$ una función monótona creciente en $[a,b]$ y $P=\{x_0=a,…,x_n=b\}.$ Definimos los términos:

\begin{align*}
m_i:= \underset{x \, \in \, [x_{i-1}, x_i]}{inf} \, f(x)
\end{align*}

Representación del ínfimo en un intervalo de $P.$

\begin{align*}
M_i:= \underset{x \, \in \, [x_{i-1}, x_i]}{sup} \, f(x)
\end{align*}

Representación del supremo en un intervalo de $P.$

Las siguientes sumas

\begin{align}
\underline{S}_P := \sum_{i=1}^{n} m_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
\nonumber \\
\overline{S}_P := \sum_{i=1}^{n} M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))
\end{align}

reciben el nombre de suma inferior y suma superior de Riemann-Stieltjes, respectivamente.

Dado que $-\infty < m_i \leq M_i < \infty \,$ y $\, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\geq 0, \,$ (pues $\alpha$ es creciente), podemos ver que

$$\underline{S}_P \leq S(P,f,\alpha) \leq \overline{S}_P.$$

Esta forma de definir sumas permite conocer el comportamiento de la función, como sugiere el siguiente:

Lema: Sea $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ creciente. Se cumplen:

a) Si $Q$ es un refinamiento de $P \in \mathcal{P}_{[a,b]},$ entonces

$$\underline{S}_P \leq \underline{S}_Q \leq \overline{S}_Q \leq \overline{S}_P.$$

b) Si $P_1$ y $P_2$ son dos particiones, entonces
$$\underline{S}_{P_1} \leq \overline{S}_{P_2},$$
es decir, cualquier suma inferior de Riemann-Stieltjes es menor igual que cualquier suma superior de Riemann-Stieltjes.

Demostración:
a) Vamos a probar que $\overline{S}_Q \leq \overline{S}_P.$ El argumento para las sumas inferiores es análogo y lo dejaremos como ejercicio.

Sea $P=\{x_0=a,…,x_n=b\} \,$ y $\, P \subset Q.$ Para fines prácticos supongamos que $Q$ tiene apenas un punto más que $P.$ Sea $x^*$ ese punto.
Entonces $x^* \in [x_{j-1},x_j]$ para algún $j \in \{1,…,n\}$

entonces

\begin{align*}
\underset{x \in [x_{j-1},x^*]}{sup} \, f(x) &\leq M_j \, \text{ y} \\
\\
\underset{x \in [x^*,x_j]}{sup} \, f(x) &\leq M_j
\end{align*}

Representación de supremos.

en consecuencia
$$\underset{x \in [x_{j-1},x^*]}{sup} \, f(x) \, \, (\alpha(x^*) \, – \, \alpha(x_{i-1})) + \underset{x \in [x^*,x_j]}{sup} \, f(x) \, \, (\alpha(x_j) \, – \, \alpha(x^*)) \leq M_j (\alpha(x_j) \, – \, \alpha(x_{j-1})). $$

Este razonamiento se puede repetir añadiendo uno a uno cada punto de $\, Q \setminus P \,$ hasta obtener $Q.$ Finalmente,

$$\overline{S}_Q \leq \overline{S}_P.$$

b) Nota que $P_1 \cup P_2$ es un refinamiento tanto de $P_1$ como de $P_2.$ Aplicando a) obtenemos:

$$\underline{S}_{P_1} \leq \underline{S}_{P_1 \cup P_2} \leq \overline{S}_{P_1 \cup P_2} \leq \overline{S}_{P_2}$$

con lo cual terminamos la prueba.

El siguiente enunciado muestra condiciones suficientes para la existencia de la integral de Riemann-Stieltjes.

Proposición. Sea $f:[a,b] \to \mathbb{R}$ continua y $\alpha:[a,b] \to \mathbb{R}$ de variación acotada en $[a,b],$ entonces $\int_{a}^{b} f \, d\alpha$ existe. Más aún

$$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b]. $$

Demostración:
Para demostrar la existencia recordemos que el teorema de Jordan visto en la entrada Funciones de variación acotada dice que $\alpha, \, $ al ser de variación acotada, puede expresarse como $\alpha = \alpha_1 \, – \, \alpha_2\, $ con $\alpha_1$ y $\alpha_2$ funciones crecientes acotadas en $[a,b].$ Si probamos que existe tanto $\int_{a}^{b}f \, d\alpha_1$ como $\int_{a}^{b}f \, d\alpha_2, \,$ entonces, por lo visto en la entrada anterior también existe la integral buscada pues

\begin{align}
\nonumber \int_{a}^{b}f \, d\alpha_1 \, – \int_{a}^{b}f \, d\alpha_2 &= \int_{a}^{b}f \, d\alpha_1 \, + \int_{a}^{b}f \, d(-\alpha_2) \\
\nonumber&=\int_{a}^{b}f \, d(\alpha_1- \alpha_2)\\
&=\int_{a}^{b}f \, d\alpha.
\end{align}

Sin pérdida de generalidad, probemos que $\int_{a}^{b}f \, d\alpha_1\, $ existe. Sea $P=\{x_1=a,…,x_n=b\}.$ De acuerdo con la proposición que acabamos de ver

$$\underline{S}_P \leq S(P,f, \alpha_1) \leq \overline{S}_P.$$

A continuación vamos a demostrar que $\underset{|P| \to 0}{lim}\, \underline{S}_P \,$ y $\, \underset{|P| \to 0}{lim}\, \overline{S}_P$ existen y son iguales. La condición es evidente si $\alpha_1$ es constante así que supongamos que no lo es.

Sea $\varepsilon>0.$ Ya que $f$ es uniformemente continua en $[a,b]$ sabemos que existe $\delta>0$ tal que si $|P|< \delta,$ entonces

\begin{align*}
\textcolor{PineGreen}{M_i-m_i < \frac{\varepsilon}{\alpha_1(b) \, – \, \alpha_1(a)}}.
\end{align*}

Nota que $\alpha_1(b) \, – \, \alpha_1(a)$ es distinto de cero, pues $\alpha_1$ es monótona no constante.

Si $|P|< \delta \,$ se sigue:

\begin{align*}
0 \leq \overline{S}_P \, – \, \underline{S}_P &= \sum_{i=1}^{n}\textcolor{PineGreen}{(M_i\, – \, m_i)}(\alpha_1(x_i) \, – \, \alpha_1(x_{i-1}))\\
&< \sum_{i=1}^{n}\textcolor{PineGreen}{\left( \frac{\varepsilon}{\alpha_1(b) \, – \, \alpha_1(a)} \right)}(\alpha_1(x_i) \, – \, \alpha_1(x_{i-1}))\\
&= \frac{\varepsilon}{\alpha_1(b) \, – \, \alpha_1(a)} \sum_{i=1}^{n} (\alpha_1(x_i) \, – \, \alpha_1(x_{i-1}))\\
&=\left( \frac{\varepsilon}{\cancel{\alpha_1(b) \, – \, \alpha_1(a)}} \right) \cancel{(\alpha_1(b) \, – \, \alpha_1(a))}\\
&= \varepsilon.
\end{align*}

Por lo tanto
\begin{align}
\underset{|P| \to 0}{lim} \, (\overline{S}_P \, – \, \underline{S}_P) = 0.
\end{align}

A continuación probaremos que existe $\underset{|P| \to 0}{lim} \, \overline{S}_P$ en $\mathbb{R}.$ Si suponemos que no existe entonces, por el criterio de Cauchy visto en la entrada anterior, existen $\varepsilon >0$ y $(P’_k)_{k \in \mathbb{N}} \,$ y $(P ^{\prime \prime} _k)_{k \in \mathbb{N}} \,$ sucesiones de particiones cuyas normas tienden a cero tales que

$$\textcolor{purple}{\overline{S}_{P’_k} \, – \, \overline{S}_{P^{\prime \prime}_k} > \varepsilon}.$$

Por (6) sabemos que para $k$ suficientemente grande

\begin{align*}
&& \overline{S}_{P’_k} \, – \, \underline{S}_{P’_k} &< \frac{\varepsilon}{2} \\
&\Rightarrow& \underline{S}_{P’_k} \, – \, \overline{S}_{P’_k} &>-\frac{\varepsilon}{2} \\
&\Rightarrow& \textcolor{purple}{\overline{S}_{P’_k} \, – \, \overline{S}_{P^{\prime \prime}_k}}+ \underline{S}_{P’_k} \, – \, \overline{S}_{P’_k} &> \textcolor{purple}{\varepsilon}\, -\frac{\varepsilon}{2}\\
&\Rightarrow& \underline{S}_{P’_k} \, – \, \overline{S}_{P^{\prime \prime}_k} &> \frac{\varepsilon}{2}\\
&\Rightarrow& \underline{S}_{P’_k} \, – \, \overline{S}_{P^{\prime \prime}_k} &> 0
\end{align*}

lo que contradice el hecho de que $\underline{S}_{P’} \leq \overline{S}_{P^{\prime \prime}}$ para cualquier $P’$ y $P^{\prime \prime}.$

Por lo tanto $\underset{|P| \to 0}{lim} \, \overline{S}_P$ existe y en consecuencia $\int_{a}^{b}f \, d \alpha_1$ existe. Análogamente, $\int_{a}^{b}f \, d \alpha_2 \,$ existe, por lo tanto $\int_{a}^{b}f \, d \alpha \,$ también existe.

Para terminar la prueba nota que la desigualdad

$$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b] $$

se sigue de una suma de Riemann-Stieltjes similar y haciendo tender el límite a cero. La prueba de este hecho se dejará como ejercicio.

Finalizaremos esta sección con un teorema conocido, pero ahora en la versión con la integral de Riemann-Stieltjes.

Teorema. Del valor medio para la integral de Riemann-Stieltjes. Sea $f:[a,b] \to \mathbb{R}$ continua y $\alpha:[a,b] \to \mathbb{R}$ acotada y creciente. Entonces existe $\xi \in [a,b]$ tal que

\begin{align}
\int_{a}^{b} f \, d\alpha = f(\xi) \, (\alpha(b)\, – \, \alpha(a)).
\end{align}

Demostración:
Dado que $\alpha$ es creciente, se satisface para cualquier $P \in \mathcal{P}_{[a,b]}$

$$\left(\underset{x \, \in \, [a,b]}{min} f(x)\right) (\alpha(b)\, – \, \alpha(a)) \leq S(P,f,\alpha) \leq \left(\underset{x \, \in \, [a,b]}{max} f(x)\right)(\alpha(b)\, – \, \alpha(a))$$

El resultado anterior nos permite afirmar que $\int_{a}^{b} f \, d\alpha$ existe, entonces también se cumple

$$\left(\underset{x \, \in \, [a,b]}{min} f(x)\right) (\alpha(b)\, – \, \alpha(a)) \leq \int_{a}^{b} f \, d\alpha \leq \left(\underset{x \, \in \, [a,b]}{max} f(x)\right) (\alpha(b)\, – \, \alpha(a)),$$

y como $f$ es continua en $[a,b]$ se sigue del teorema del valor intermedio que existe $\xi \in [a,b]$ tal que

$$\int_{a}^{b} f \, d\alpha = f(\xi) \, (\alpha(b)\, – \, \alpha(a)),$$

que es lo que queríamos demostrar.

Así como definimos la integral de Riemann-Stieltjes en intervalos cerrados, también podemos hacerlo en intervalos abiertos $(a,b) \in \mathbb{R}$ de esta forma: Si $[a’,b’] \subset (a,b)$ y existe $\int_{a’}^{b’}f \, d\alpha,$ haciendo $a’ \to a$ y $b’ \to b$ definimos

$$\int_{a}^{b}f \, d\alpha = \underset{a’ \to a \, ; \, b’ \to b}{lim}\int_{a’}^{b’}f \, d\alpha$$

cuando el límite existe. Así mismo

$$\int_{-\infty}^{\infty}f \, d\alpha = \underset{a \to -\infty \, ; \, b \to \infty}{lim}\int_{a}^{b}f \, d\alpha,$$

cuando el límite existe.

Más adelante…

Hasta el momento no es muy evidente la relacion entre la existencia de la integral de Riemann-Stieltjes con los limites de las sumas inferior y superior de Riemann-Stieltjes, pese a que en Cálculo llegan incluso a considerarse equivalentes cuando coinciden. En la próxima entrada veremos bajo qué condiciones el resultado es válido en la integral que estamos estudiando.

Tarea moral

  1. Sea $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ creciente. Sea $Q$ un refinamiento de $P \in \mathcal{P}_{[a,b]}.$ Demuestra que
    $$\underline{S}_P \leq \underline{S}_Q.$$
  2. Demuestra la desigualdad pendiente
    $$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b] $$
    donde $f$ es continua y $\alpha$ es de variación acotada.
  3. Sean $f, \alpha:[a,b] \to \mathbb{R}.$ Prueba que se cumplen:
    a) Si $\int_{a}^{b}f \, d\alpha$ existe y $\alpha$ no es constante en ningún subintervalo de $[a,b]$ muestra que $f$ es acotada en $[a,b].$
    b) Si $\int_{a}^{b}f \, d\alpha$ existe y $\alpha$ es creciente, muestra que para cada $P \in \mathcal{P}_{[a,b]}$ tenemos $\underline{S}_P \leq \int_{a}^{b}f \, d\alpha \leq \overline{S}_P.$

Bibliografía

  • Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015. Págs: 30-34.

Enlaces

Una motivación con probabilidad

Por Lizbeth Fernández Villegas

Introducción

Hemos llegado al punto en que presentaremos la integral de Riemann-Stieltjes. Antes de abordar el tema con resultados más abstractos y formales (que expondremos en las siguientes dos entradas del blog) motivaremos la definición con funciones distribución de probabilidad. Aunque no requerimos más que la idea de dicha función para entender esta sección, para un conocimiento más profundo podrías consultar las entradas:
Probabilidad I: Funciones de Distribución de Probabilidad,
Probabilidad I: Variables Aleatorias Discretas y
Probabilidad I: Variables Aleatorias Continuas.

Dada $\mathcal{X}$ una variable aleatoria, se conoce como función de distribución de $\mathcal{X}$ a la función $F_{\mathcal{X}}: \mathbb{R} \to \mathbb{R} \,$ definida como:
$$F_{\mathcal{X}}(x) := \mathbb{P}(\mathcal{X} \leq x)$$
es decir, la probabilidad de que la variable aleatoria tome valores menores o iguales que $x.$ Satisface lo siguiente:

  1. Para todo $ \, x \in \mathbb{R}, \, 0 \leq F_{\mathcal{X}}(x) \leq 1$
  2. Es continua por la derecha y tiene límite por la izquierda.
  3. Es no decreciente, es decir, si $x_1 \leq x_2$ entonces $F_{\mathcal{X}}(x_1) \leq F_{\mathcal{X}}(x_2).$
  4. $\underset{x \to \, -\infty}{F_{\mathcal{X}}(x)} = 0.$
  5. $\underset{x \to \, \infty}{F_{\mathcal{X}}(x)} = 1.$

Dependiendo las propiedades de la variable aleatoria, la función $F_\mathcal{X}$ puede ser de dos formas:

Si $\mathcal{X}$ es variable aleatoria discreta, entonces

$$F_{\mathcal{X}}(x) = \underset{t \leq x}{\sum}f(t).$$

Donde $f(t)$ es la probabilidad de que $\mathcal{X}$ tome el valor $t$, la cual es distinta de cero solamente para un conjunto a lo más numerable de valores $t.$

Como ejemplo, uno tomado de Probabilidad I: Variables Aleatorias Discretas.

\begin{equation*}
F_{\mathcal{X}}(x)=\begin{cases}
0 \, \text{ si $x< -1$}\\
\\
0.1 \, \text{ si $-1 \leq x < 0$}\\
\\
0.3 \, \text{ si $0 \leq x < 1$}\\
\\
0.8 \, \text{ si $1 \leq x < 2$}\\
\\
1 \, \text{ si $2 \leq x$}\\
\end{cases}
\end{equation*}

Ríos García, OD. (2022). Probabilidad I: Variables Aleatorias Discretas. https://blog.nekomath.com/proba1-variables-aleatorias-discretas/

Si $\mathcal{X}$ es variable aleatoria continua, entonces

$$F_{\mathcal{X}}(x) = \int_{- \infty}^{x}f(t)dt.$$

Donde $f(t)$ es la función de densidad de probabilidad de $\mathcal{X}.$

Como ejemplo, uno tomado de Probabilidad I: Variables Aleatorias Continuas

\begin{equation*}
F_{\mathcal{X}}(x)= \begin{cases}
1 \, – \, e^{-\lambda x} \, \text{ si $x \geq 0,$}\\
\\
0 \, \text{ en otro caso.}
\end{cases}
\end{equation*}

Donde la función densidad está dada por:

\begin{equation*}
f(x)=
\begin{cases}
\lambda e^{-\lambda x} \, \text{ si $x \geq 0,$}\\
\\
0 \, \text{ en otro caso.}
\end{cases}
\end{equation*}

Ríos García, OD. (2022). Probabilidad I: Variables Aleatorias Continuas. https://blog.nekomath.com/proba1-variables-aleatorias-continuas/

Podríamos preguntarnos si es posible definir una integral que muestre el valor de la función, sin importar el tipo de variable aleatoria.

En los cursos de cálculo se habla del concepto de integral de Riemann de una función $f:[a,b] \to \mathbb{R}, \, a,b \in \mathbb{R}.$ A partir de una partición $P= \{x_0= a,…, x_n = b\}$ se define la suma de Riemann como
$$S(P,f) := \sum_{i =1}^{n} f(\xi_i)(x_i \, – \, x_{i-1})$$
donde $\xi_i \in [x_{i-1}, x_i] \,$ y
$$\, S(P,f) \to \int_{a}^{b}f(x) \, dx \,$$
cuando $\, n \to \infty.$

La integral de Riemann-Stieltjes generaliza esta idea, modificando los intervalos generados por la partición a través de una función $\alpha:[a,b] \to \mathbb{R}.$

Definición. Suma de Riemann-Stieltjes. Sean $f:[a,b] \to \mathbb{R}, \,$ $\alpha:[a,b] \to \mathbb{R} \,$ funciones y $P= \{x_0=a,…,x_n=b\}$ una partición de $[a,b].$ Definimos la suma de Riemann-Stieltjes de $P$ con respecto a $f$ y $\alpha$ como

\begin{align}
S(P,f,\alpha) := \sum_{i =1}^{n} f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1}))
\end{align}

donde $\xi_i \in [x_{i-1}, x_i].$

Idea intuitiva de la integral de Riemann-Stieltjes. Sean $f, \, \alpha$ y $P\, $ como en la definición anterior. Si existe el límite en $S(P,f, \alpha)$ cuando $n \to \infty,$ pensamos en la integral de Riemann-Stieltjes como

\begin{align}
\int_{a}^{b}f(x) \, d \alpha = \underset{n \to \infty}{lim} \, \sum_{i =1}^{n} f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})).
\end{align}

Para visualizar las ideas, consideremos los siguientes:

Ejemplos

En cualquier caso, $\alpha:[a,b] \to \mathbb{R}.$

  • $\alpha(x) = x.$ En este caso coincide con la integral de Riemann. Evidentemente:
    \begin{align*}
    \int_{a}^{b}f(x) \, d \alpha := \underset{n \to \infty}{lim} \, \sum_{i =1}^{n} f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})) = \underset{n \to \infty}{lim} \, \sum_{i =1}^{n} f(\xi_i)(x_i \, – \, x_{i-1}).
    \end{align*}
  • Si $\alpha(x) = F_{\mathcal{X}}(x)$ es la función de distribución de $\mathcal{X},$ entonces la integral de Riemman-Stieltjes es la esperanza de la variable aleatoria $Y=f(\mathcal{X}).$
  • $\alpha(x) = \lceil x \rceil.$ La función techo, es decir:
    \begin{align*}
    \lceil x \rceil = {min \,} \{k \in \mathbb{Z} \, | \, k \geq x\}
    \end{align*}
Gráfica de $\alpha(x) = \lceil x \rceil.$

Analicemos más esta última función. Sea $P= \{x_0 = a,…,x_n =b\}.$ Entonces para cada $i=0,…,n$

$$\alpha(x_i) \, – \, \alpha(x_{i-1}) = \lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil$$

Si suponemos que los intervalos son muy pequeños, podemos pedir que $|P|<1.$ En esta situación dos puntos consecutivos de la partición podrían estar entre dos enteros consecutivos o bien, tener un entero entre ellos. Así tenemos dos casos:

  1. \begin{align*}
    \lceil x_i \rceil &= \lceil x_{i-1} \rceil\\
    \Rightarrow \, \lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil &= 0
    \end{align*}
    o bien
  2. \begin{align*}
    \lceil x_i \rceil &> \lceil x_{i-1} \rceil \, \\
    \Rightarrow \, \lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil &= 1.
    \end{align*}

En consecuencia, si $\xi_i \in [x_{i-1}, x_i]$ entonces cada sumando toma los siguientes valores:

En el caso 1. $f(\xi_i)(\lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil) = 0.$
En el caso 2. $f(\xi_i)(\lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil) = f(\xi_1).$

La siguiente imagen permite visualizar este comportamiento.

Ejemplo de partición en el intervalo $[0,10].$

Calculemos $\int_{0}^{10}1 \, d \, \lceil x \rceil.$

En esta situación, los únicos sumandos significativos serán los que tienen algún entero en $\{1,2,…,10\}.$ Por lo tanto

$\int_{0}^{10}1 \, d \, \lceil x \rceil = \sum_{i=1}^{10} 1 = 10.$

¿Puedes calcular $\int_{0}^{10}f(x) \, d \, \lceil x \rceil,$ para cualquier $f$ continua en $[0,10]?$
Generaliza aún más y calcula $\int_{a}^{b}f(x) \, d \, \lceil x \rceil$ para cualquier intervalo $[a,b].$ $\textcolor{orange}{(\text{Ejercicio como tarea moral).}}$

Hay exactamente $10$ intervalos en una partición con $|P|<1$ donde el sumando no se anula.

En las siguientes entradas veremos que se satisface:

Proposición: Si $f$ es continua en $[a,b]$ y $\alpha$ es monótona, existe $\int_{a}^{b} f(x) \, d \alpha.$

Con la integral de Riemann-Stieltjes es posible identificar las funciones de distribución de variables aleatorias, sin importar si la variable es discreta, continua o una «mezcla» de ambas.

Gráfica de $\alpha.$

Ejemplo

La siguiente expresión refleja el comportamiento de una variable aleatoria que es continua en un «pedazo» y discreta en el resto.
\begin{equation*}
\alpha(x) = \begin{cases}
\frac{1}{\sqrt{2 \pi}}\int_{-\infty}^{x} e ^{-\frac{t^2}{2}} dt \, &\text{ si $x<0$ }\\
\\
1 \, &\text{ si $x \geq 0$}
\end{cases}
\end{equation*}

Entonces, si $F_{\mathcal{X}}$ es la función distribución de la variable aleatoria descrita se satisface:

$F_{\mathcal{X}}(b) \, – \, F_{\mathcal{X}}(a) = \text{Probabilidad de que } \mathcal{X} \text{ tome valores en } [a,b] = \int_{a}^{b}1 \, d \alpha.$

La esperanza de una variable aleatoria puede expresarse con una integral de Riemann-Stieltjes

A continuación presentamos una definición de la esperanza con la integral que estamos conociendo y es equivalente a la usada convencionalmente. Para profundizar en la teoría, visitar Probabilidad I: Valor Esperado de una Variable Aleatoria

Definición. Esperanza de $\mathcal{X}.$ Sea $\mathcal{X}$ una variable aleatoria con función de distribución $\alpha(x).$ La esperanza de $\mathcal{X}$ es
$$E(\mathcal{X}) = \int_{-\infty}^{\infty}x \, d\alpha.$$

Ejemplos

Sea $\mathcal{X}$ variable aleatoria con distribución binomial, $n=3, \, p= \frac{1}{2}.$ Dado que

$$\mathbb{P}(\mathcal{X} = k) = \binom{3}{k}\frac{1}{2}^k\frac{1}{2}^{3-k}$$

Se sigue:

$\mathbb{P}(\mathcal{X} = 0) = \frac{1}{8}$

$\mathbb{P}(\mathcal{X} = 1) = \frac{3}{8}$

$\mathbb{P}(\mathcal{X} = 2) = \frac{3}{8}$

$\mathbb{P}(\mathcal{X} = 3) = \frac{1}{8}$

Y así, la función distribución es:

\begin{equation*}
F_{\mathcal{X}} =\begin{cases}
0 \, &\text{ si }&x < 0 \\
\\
\frac{1}{8} \, &\text{ si $0\leq$} &x < 1 \\
\\
\frac{1}{2} \, &\text{ si $1 \leq$} &x < 2 \\
\\
\frac{7}{8} \, &\text{ si $2 \leq$} &x < 3 \\
\\
1 \, &\text{ si $3 \leq$} &x \\
\end{cases}
\end{equation*}.

Función distribución de $\mathcal{X}.$

Y la esperanza es

\begin{align*}
\sum_{k=0}^{3}k \, \mathbb{P}(\mathcal{X} = k) &= (0)\left(\frac{1}{8}\right) + (1)\left(\frac{3}{8}\right) + (2)\left(\frac{3}{8}\right) + (3)\left(\frac{1}{8}\right) \\
&=\frac{6}{4}
\end{align*}

Dejaremos como $\textcolor{orange}{\text{ejercicio de tarea moral,}}$ verificar la integral de Riemann-Stieltjes

\begin{align*}
\int_{\infty}^{\infty}x \, d\alpha &= \int_{-\infty}^{0}x \, d\alpha + \int_{0}^{3}x \, d\alpha + \int_{3}^{\infty}x \, d\alpha\\
&=0 + \dfrac{6}{4} +0\\
&= \dfrac{6}{4}.
\end{align*}

Representación de una partición de $[0,3].$

Como sugerencia, verifica que en una partición de $[0,3]$ con intervalos muy pequeños $(\delta< 1)$ los únicos sumandos que no se anulan en la suma de Riemann-Stieltjes serán los correspondientes a intervalos que tienen algún entero en $\{0,1,2,3\}.$

Otro ejemplo para terminar esta sección

Ahora supongamos que la función de distribución de una variable aleatoria está dada por:

\begin{equation*}
F_{\mathcal{X}}(x) =\begin{cases}
0 \, &\text{ si }&x < 0 \\
\\
\frac{x}{2}+\frac{1}{4} \, &\text{ si $0\leq$} &x < \frac{1}{2} \\
\\
\frac{x}{2}+\frac{1}{2} \, &\text{ si $\frac{1}{2} \leq$} &x < 1 \\
\\
1 \, &\text{ si $1 \leq$} &x \\
\end{cases}
\end{equation*}.

Grafica de $F_{\mathcal{X}}(x).$

Vamos a calcular la esperanza de $\mathcal{X}$ por medio de:

$$\int_{-\infty}^{\infty}x \, d\alpha.$$

Los detalles se dejarán como $\textcolor{orange}{\text{ejercicios de tarea moral.}}$ Nota que

$$\int_{-\infty}^{\infty}x \, d\alpha= \textcolor{PineGreen}{\int_{-\infty}^{0}x \, d\alpha} \textcolor{blue}{+ \int_{0}^{\frac{1}{2}}x \, d\alpha + \int_{\frac{1}{2}}^{1}x \, d\alpha} \textcolor{PineGreen}{+ \int_{1}^{\infty}x \, d\alpha}.$$

Primero vamos a obtener

$$ \textcolor{blue}{\int_{0}^{\frac{1}{2}}x \, d\alpha}.$$

Sea $P= \{x_0=0,…,x_{n-1},x_n= \frac{1}{2}\}$ una partición de $[0,\frac{1}{2}].$ Calculemos

\begin{align}
\sum_{i=1}^{n}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1}))= \sum_{i=1}^{n-1}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})) + f(\xi_n)(\alpha(\frac{1}{2}) \, – \, \alpha(x_{n-1}))
\end{align}

Observa que todos los intervalos a excepción del último cumplen que
\begin{align*}
\alpha(x_i) \, – \, \alpha(x_{i-1}) &= \left(\frac{x_i}{2}+\frac{1}{4}\right) \, – \, \left(\frac{x_{i-1}}{2}+\frac{1}{4}\right)\\
&= \frac{x_i \, – \, x_{i-1}}{2}
\end{align*}

Representación de una partición en $[0, \frac{1}{2}].$

Entonces

\begin{align*}
\sum_{i=1}^{n-1}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})) &= \sum_{i=1}^{n-1}f(\xi_i)\left( \frac{x_i \, – \, x_{i-1}}{2}\right)\\
&=\frac{1}{2} \sum_{i=1}^{n-1}f(\xi_i)(x_i \, – \, x_{i-1})
\end{align*}

De modo que
\begin{align}
\nonumber \underset{n\to \infty}{lim}\, \sum_{i=1}^{n-1}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})) &= \frac{1}{2}\int_{0}^{\frac{1}{2}}x \, dx \\
\nonumber &= \frac{1}{2} \frac{x^2}{2}\Big|_{0}^{\frac{1}{2}}\\
&= \frac{1}{16}.
\end{align}

En cuanto al último intervalo, cuando el tamaño de este tiende a $0$ se satisface

\begin{align}
f(\xi_n)(\alpha(\frac{1}{2}) \, – \, \alpha(x_{n-1})) \, \, \to \frac{1}{2}\left(\frac{3}{4} \, – \, \frac{1}{2}\right) = \frac{1}{8}
\end{align}

Por lo tanto, haciendo $n \to \infty$ en (3) por (4) y (5) tenemos:

\begin{align}
\textcolor{blue}{\int_{0}^{\frac{1}{2}}x \, d\alpha}= \frac{1}{16}+\frac{1}{8} = \frac{3}{16}
\end{align}

Análogamente se puede verificar que también

\begin{align}
\textcolor{blue}{\int_{\frac{1}{2}}^{1}x \, d\alpha}= \frac{3}{16}
\end{align}

En cuanto a la integral $\int_{-\infty}^{0}x \, d\alpha \,$ nota que eligiendo $\frac{1}{k}$ muy pequeñito podemos separarla como

\begin{align}
\int_{-\infty}^{0}x \, d\alpha = \int_{-\infty}^{-\frac{1}{k}}x \, d\alpha + \int_{-\frac{1}{k}}^{0}x \, d\alpha
\end{align}

Evidentemente, la primera parte $\int_{-\infty}^{-\frac{1}{k}}x \, d\alpha \,$ se anula. La otra integral $\int_{-\frac{1}{k}}^{0}x \, d\alpha \,$ se puede calcular con sumas de Riemann-Stieltjes: Si $P=\{x_0= \frac{1}{k},…,x_n=0\}$ es una partición de $[\frac{1}{k},0]$ el único sumando significativo es el último donde $f(\xi_n)(\alpha(x_{0}) \, – \, \alpha(x_{n-1})) \, \to \, 0(\frac{1}{4} \, – \, 0)=0.$

Representación de una partición en $[\frac{1}{k},0].$

Por lo tanto

\begin{align}
\textcolor{PineGreen}{\int_{-\infty}^{0}x \, d\alpha = 0}.
\end{align}

Es sencillo comprobar que también

\begin{align}
\textcolor{PineGreen}{\int_{1}^{\infty}x \, d\alpha = 0}.
\end{align}

Y así, de (6), (7),(9) y (10) concluimos que
\begin{align}
\int_{-\infty}^{\infty}x \, d\alpha = \frac{6}{16}= \frac{3}{8}.
\end{align}

Más adelante…

Veremos resultados formales de la integral de Riemann-Stieltjes y algunas de sus propiedades.

Tarea moral

  1. Resuelve los detalles pendientes de esta entrada que se fueron indicando.
  2. Sea $\alpha:[a,b] \to \mathbb{R}\, $ una función escalonada, calcula $\int_{a}^{b}f \, d\alpha$ con $f:[a,b] \to \mathbb{R}$ continua.

Bibliografía

Enlaces

Funciones de variación acotada

Por Lizbeth Fernández Villegas

Introducción

El contenido de esta sección se basa predominantemente en el libro
Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015, págs 17-22.

Estamos por presentar las últimas notas de blog del curso de Análisis Matemático I. Pretendemos mostrar un puente entre lo que vimos aquí y lo que se aprenderá en Análisis Matemático II. Conoceremos algunas ideas que, eventualmente, nos llevarán al concepto de la integral de Riemann-Stieltjes, un concepto que generaliza a la integral de Riemann (que suele verse en los cursos de Cálculo) pero que también es un caso particular de la integral de Lebesgue, la que se verá en la siguiente sección del blog. Para comenzar, analicemos los cambios que una función va tomando en un dominio cerrado.

Definición. Partición de un intervalo $\textbf{[a,b].}$ Sea $[a,b]$ un intervalo de $\mathbb{R}.$ Si $P = \{x_0=a, \, x_1, \, x_2,…,x_{n-1}, \, x_n = b\}, \, i=0,1,2,…,n \,$ es una colección de puntos tales que $x_0 =a, \, x_n = b$ y para cada $i =1,2,…,n$ se cumple que $x_{i-1}< x_i,$ entonces diremos que $P$ es una partición de $[a,b].$

Definición. Variación de $f$ sobre $[a,b].$ Considera una función $f:[a,b] \subset \mathbb{R} \to \mathbb{R} \,$ y sea $P=\{x_0, \, x_1, \, …, \, , x_n\}$ una partición de $[a,b].$ Definimos $S_P[f;a,b]$ (o bien $S_P$ cuando no hay necesidad de especificar la función y el intervalo) como:
$$S_P[f;a,b] := \sum_{i=1}^{n}|f(x_i) \, -\, f(x_{i-1})|$$

La suma del tamaño de los segmentos naranjas es la $S_P.$

Entonces se suman las distancias que se generan al evaluar $f$ en cualesquiera dos puntos consecutivos de la partición.

Ya que para cada partición $P$ de $[a,b]$ existe su respectiva $S_P,$ podemos pensar en si la colección de todas las sumas tiene supremo. El supremo de las sumas de todas las particiones de $[a,b]$ recibe el nombre de variación de $f$ sobre $[a,b].$ Se denota como:
$$ \underset{P \, \in \, \mathcal{P_{[a,b]}}}{sup} \, S_P \, :=V[f;a,b] \, := V [a,b]\, := V$$

Donde $\mathcal{P}_{[a,b]} \,$ es el conjunto de particiones de $[a,b].$

Las sumas pueden dar resultados distintos con particiones distintas.

Definición. Función de variación acotada y de variación no acotada. Sea $f:[a,b] \to \mathbb{R}.$ Considera $V[f;a,b].$ Si el supremo de hecho existe en $\mathbb{R},$ entonces $0 \leq V$ y diremos que $f$ es de variación acotada en $[a,b].$
En otro caso diremos que $V = \infty \,$ y que $f$ es de variación no acotada.

Ejemplos de variación en funciones

A continuación presentamos las variaciones de algunas funciones. Al final de esta sección te pediremos calcular los resultados formalmente.

  • Sea $f:[a,b] \to \mathbb{R} \,$ tal que $f$ es monótona. Entonces para cualquier partición $P,$
    $$S_P=|f(b) \, – \, f(a)|=V.$$
Si $f$ es monótona la suma de los segmentos naranjas es $|f(b) \, – \, f(a)|.$
  • Sea $f:[a,b] \to \mathbb{R}$ tal que $f$ puede expresarse en pedazos monótonos acotados, es decir, existe una partición $P = \{x_0 =a, \, x_1,…,x_n =b\}$ tal que $f$ es monótona en cada intervalo $[x_{i-1}, \, x_i].$ Entonces
    $$V = S_P.$$
$f$ es monótona en cada intervalo $[x_{i-1}, \, x_i].$
  • Sea $[a,b]$ un intervalo con el $\, 0$ en su interior y $f:[a,b] \to \mathbb{R}$ tal que
    \begin{equation*}
    f(x) = \begin{cases}
    1 & \text{si $x = 0$} \\
    0 & \text{si $x \neq 0$}
    \end{cases}
    \end{equation*}
    Entonces $S_P = 2 \,$ o $\, S_P = 0,$ de modo que $V=2.$
$f$ no es continua en un punto.
  • Sea $f:[a,b] \to \mathbb{R}$ la función de Dirichlet, es decir
    \begin{equation*}
    f(x) = \begin{cases}
    1 & \text{si $x \, \in \, \mathbb{Q}$} \\
    0 & \text{si $x \, \notin \, \mathbb{Q}$}
    \end{cases}
    \end{equation*}
    Entonces $V = \infty.$
Gráfica de $f,$ la función de Dirichlet.

Las siguientes son propiedades de las funciones de variación acotada.

Proposición. Si $f$ es de variación acotada en $[a,b]$ entonces $f$ es acotada en $[a,b].$

Demostración:
Sea $x \in [a,b].$ Considera la partición $\{a, \, x, \, b\},$ entonces
$$|f(x) \, – \, f(a)| \leq |f(x) \, – \, f(a)| +|f(b) \, – \, f(x)| \leq V.$$
Por lo tanto, $f$ es acotada en $[a,b].$

Para cualquier $x \in [a,b]$ se tiene que $f(x) \in [f(a)- V, f(a)+V].$

El regreso no es cierto, esto es, podemos tener una función acotada en $[a,b]$ pero que no sea de variación acotada. La función de Dirichlet ejemplifica esta situación. (Podrás ver otro caso también en la tarea moral de la siguiente entrada).

Proposición. Sean $f,g \,$ funciones de variación acotada en $[a,b]$ y sea $c \in \mathbb{R}.$ Entonces las funciones

  • $cf,$
  • $f+g \,$ y
  • $fg$

son de variación acotada en $[a,b].$ Además

  • $\dfrac{f}{g}$

también es de variación acotada en $[a,b]$ si existe $\varepsilon >0$ tal que $|g(x)| \geq \varepsilon$ para $x \in [a,b].$ La demostración queda como ejercicio.

Con las siguientes ideas tendremos recursos para aproximar mejor el valor de $V$ de una función.

Definición. Refinamiento. Sean $P,Q \in \mathcal{P}_{[a,b]} \,$ tales que $P \subseteq Q,$ es decir, $Q$ tiene todos los puntos de $P$ y, posiblemente, algunos otros. Entonces decimos que $Q$ es un refinamiento de $P,$ o que $Q$ refina a $P.$

Representación de $Q$ como refinamiento de $P.$

Proposición. Si $Q$ es un refinamiento de $P,$ entonces $S_P \leq S_Q.$ La demostración la dejamos como ejercicio.

Proposición. Sea $f:[a,b] \to \mathbb{R}.$ Si $[a’,b’] \subseteq [a,b]$ entonces $V[a’,b’] \leq V[a,b],$ es decir, la variación potencialmente incrementa con el intervalo.

La partición $Q$ contiene a $P.$

Demostración:
Sea $P= \{x_0= a’,…,x_n=b’\} \,$ una partición de $[a’,b’]$ y sea $Q = P \cup \{a,b\}.$ Claramente, $Q$ es partición de $[a,b]$ y
\begin{align*}
S_P[f;a’,b’] &= \sum_{i=1}^{n}|f(x_i) \, -\, f(x_{i-1})|\\
&\leq \sum_{i=1}^{n}|f(x_i) \, -\, f(x_{i-1})|+|f(x_0) \, -\, f(a)|+|f(b) \, -\, f(x_{n})|\\
&= S_Q[f;a,b]
\end{align*}

lo cual indica que para cada $S_P, \, P \in \mathcal{P}_{[a’,b’]}$ existe $S_Q, \, Q \in \mathcal{P}_{[a,b]}$ tal que $S_P \leq S_Q.$ Por lo tanto $V[a’,b’] \leq V[a,b].$

Proposición. Sea $f:[a,b] \to \mathbb{R}.$ Si $a < c < b$ entonces
$$V[a,b] = V[a,c] + V[c,b].$$
Es decir, la variación es aditiva en intervalos adyacentes.

Demostración:
Probemos primero que $V[a,c] + V[c,b] \leq V[a,b].$ Sea $P_1$ y $P_2$ particiones de $[a,c]$ y $[c,b],$ respectivamente. Entonces $P = P_1 \cup P_2$ es una partición de $[a,b].$

$P_1$ y $P_2$ generan una partición de $[a,b].$

En consecuencia
$$S_{P_1}[f,a,c]+S_{P_2}[f,c,b] = S_P[f,a,b].$$
Ya que aún podrían existir otros valores más grandes de $S_{P’}[f,a,b]$ con $P’$ partición de $[a,b],$ se sigue que $V[a,c] + V[c,b] \leq V[a,b].$

Ahora probemos que $V[a,b] \leq V[a,c] + V[c,b].$ Sea $P$ una partición de $[a,b]$ y $\hat{P}= P \cup \{c\}.$

$\hat{P}$ contiene a $P$ y a $\{c\}.$

Entonces $\hat{P}$ es un refinamiento de $P,$ y por la proposición que dejamos al lector tenemos
$$S_P[f,a,b] \leq S_{\hat{P}}[f,a,b] = S_{P_1}[f,a,c]+S_{P_2}[f,c,b]$$
donde $P_1= \hat{P} \cap [a,c]$ y $P_2 = \hat{P} \cap [c,b].$
Por lo tanto $V[a,b] \leq V[a,c] + V[c,b],$ con lo que concluimos que

$$V[a,b] = V[a,c] + V[c,b].$$

Definición. Partes positiva y negativa de $x.$ Para cualquier $x \in \mathbb{R}$ definimos la parte positiva de $x$ como:

\begin{equation*}
x^+ = \begin{cases}
x & \text{si $x >0$} \\
0 & \text{si $x \leq 0$}
\end{cases}
\end{equation*}

Y la parte negativa de $x$ como:

\begin{equation*}
x^- = \begin{cases}
0 & \text{si $x >0$} \\
-x & \text{si $x \leq 0$}
\end{cases}
\end{equation*}

Nota que las partes positiva y negativa de un número real, satisfacen las siguientes relaciones:

  1. $x^+,x^- \geq 0.$
  2. $|x|=x^++x^- .$
  3. $x = x^+-x^- .$

Definición. Suma de términos positivos y suma de términos negativos de $S_P.$ Sea $f:[a,b] \to \mathbb{R} \,$ y $P=\{x_0, \, x_1, \, … \, , x_{n-1}, \, x_n\}.$ Definimos la suma de términos positivos de $S_P$ como:

$$S_P^+:=S_P^+[f;a,b]:= \sum_{i =1}^{n} \, (f(x_i)-f(x_{i-1}))^+.$$

Y la suma de términos negativos de $S_P$ como:

$$S_P^-:=S_P^-[f;a,b]:= \sum_{i =1}^{n} \, (f(x_i)-f(x_{i-1}))^-.$$

En la siguiente imagen, las líneas naranjas representan los sumandos distintos de cero en $S_P^+$ y las líneas verdes, los de $S_P^-.$

Representación $S_P^+$ y $S_P^-.$

Es sencillo comprobar que

\begin{align}
S_P^+ + S_P^- &= S_P \, \, \, \text{ y } \\
S_P^+ \, – \, S_P^- &=f(b) – f(a).
\end{align}

Definición. Variación positiva y variación negativa de $f.$ Definimos la variación positiva de $f$ como:

$$S^+:=S^+[f;a,b]:= \underset{P \in \mathcal{P}}{sup \, } \, S_P^+$$

Y la variación negativa de $f$ como:

$$S^-:=S^-[f;a,b]:= \underset{P \in \mathcal{P}}{sup \,} \, S_P^-$$

Nota que ambas son mayores iguales que cero y pueden valer $\infty$ cuando no existe el supremo en $\mathbb{R}.$

Proposición. Si alguno de $S^+, \, S^-, \, $ o $V$ es finito entonces los tres son finitos. Más aún, se satisface:

\begin{align}
S^++S^- &=V, \\
S^+-S^- &= f(b)-f(a)
\end{align}

o equivalentemente

\begin{align}
S^+&= \frac{1}{2}[V+f(b)-f(a)], \\
S^-&= \frac{1}{2}[V-f(b)+f(a)]
\end{align}

Demostración:
Supongamos que $V$ es finito. Por (1)
$$S_P^+ + S_P^- = S_P$$
y como $S_P \leq V,$ se sigue que
\begin{align*}
S_P^+ + S_P^- \leq V.
\end{align*}

Ya que tanto $S_P^+$ como $S_P^- $ son no negativos, tenemos
$$S_P^+ \leq V \, \Rightarrow \, S^+ \leq V.$$
De igual manera
$$S_P^- \leq V \, \Rightarrow \, S^- \leq V.$$

Por lo tanto, si $V$ es finito, $S^+$ y $S^-$ también lo son.

Ahora supongamos que $S^+$ es finito. Despejando en (2), se cumple:

\begin{align*}
&& S_P^- &= S_P^+ – \, (f(b) \, – \, f(a))\\
& \Rightarrow & &\leq S^+ – \, (f(b) \, – \, f(a))\\
\end{align*}

De modo que el conjunto de sumas de términos negativos está acotado y por lo tanto $S^-$ también es finito.

Por (1)
\begin{align}
\nonumber && S_P = S_P^+ + S_P^- &\leq S^+ + S^- \\
&\Rightarrow& V &\leq S^+ + S^-
\end{align}

En consecuencia, $V$ es finito.
Análogamente, podemos concluir que si $S^-$ es finito, $S^+$ y $V$ son finitos.

Para probar (4) considera una sucesión de particiones $(P_n)_{n \in \mathbb{N}} \,$ tal que la sucesión de sumas positivas cumple que

$$(S_{P_n}^+) \, \to \, S^+.$$

Vamos a demostrar que también $(S_{P_n}^-) \, \to \, S^-$ y que $S^+ \, – \, (f(b)\, – \, f(a)) = S^-,$ que es equivalente a (4).

Por (2) tenemos que $S_{P_n}^- = S_{P_n}^+- \, (f(b) \, – \, f(a)) ,$
y como $(S_{P_n}^+) \, \to \, S^+$
entonces $S_{P_n}^+- \, (f(b) \, – \, f(a)) \, \to \, S^ + -\, (f(b) \, – \, f(a)),$
y por transitividad
\begin{align}
S_{P_n}^- \, \to \, S^ + -\, (f(b) \, – \, f(a)).
\end{align}

Dado que $S_{P_n}^ – \leq S^ -,$ se sigue
\begin{align}
S^ + – \, (f(b) \, – \, f(a)) \leq S ^-.
\end{align}

Queremos que se cumpla la igualdad. Supón por el contrario que

$$S^ + – \, (f(b) \, – \, f(a)) < S ^-,$$

como $S ^-$ es el supremo de las sumas negativas, existe una partición $P$ de $[a,b]$ tal que

\begin{align}
&&S^ + – \, (f(b) \, – \, f(a))&<S_P ^- \\
&\Rightarrow& S^ + &<S_P ^- + (f(b) \, – \, f(a)) \\
&& &= S_P^+
\end{align}

lo cual es una contradicción, pues $S ^+$ es el supremo de las sumas positivas. Por lo tanto

\begin{align}
S^ + – \, (f(b) \, – \, f(a)) = S ^-,
\end{align}

Lo que prueba (4),

y por (8)
\begin{align}
S_{P_n} ^- \, \to \, S ^-,
\end{align}

Por otro lado, por (1)
$$S_{P_n}^+ + S_{P_n}^- = S_{P_n} \leq V$$
de modo que tomando el límite
\begin{align}
S^+ + S^- \leq V
\end{align}

y de (7) y (15) concluimos finalmente

$$S^+ + S^- = V$$

que es (3).

Finalizamos esta sección con el siguiente

Corolario. Teorema de Jordan. Una función $f:[a,b] \to \mathbb{R}$ es de variación acotada en $[a,b]$ si y solo si puede ser expresada como la diferencia de dos funciones crecientes acotadas en $[a,b].$

La función en rojo es diferencia de las otras dos. Por lo tanto es de variación acotada en $[1,3].$

Demostración:
Supón que $f$ es de variación acotada. Por un resultado visto arriba, sabemos que $f$ es de variación acotada en cada subintervalo $[a,x]$ con $x \in [a,b].$ Para cada $x,$ sean $S(x) ^+$ y $S(x) ^-$ las variaciones positiva y negativa de $f$ en $[a,x].$ Es sencillo demostrar que estas funciones son crecientes y acotadas en $[a,b],$ (ver tarea moral), y aplicando el teorema anterior en cada $[a,x],$
\begin{align*}
&& S(x) ^+ \, – \, S(x) ^- &= f(x) \, – \, f(a) \\
&\Rightarrow&f(x) &= (S(x) ^+ +f(a)) \, – \, S(x) ^-
\end{align*}

Como $S(x)$ es creciente y acotada, también lo es $(S(x) ^+ +f(a))$, de modo que $f$ es la diferencia de dos funciones crecientes y acotadas.

En contraparte, supongamos que $f = f_1 \, – \, f_2,$ donde $f_1$ y $f_2$ son funciones crecientes y acotadas en $[a,b].$ De acuerdo con el primer ejemplo, ambas funciones son de variación acotada. Finalmente, por un resultado enunciado arriba, $ f_1 \, – \, f_2 = f \,$ es de variación acotada.

Más adelante…

Seguiremos con el estudio de las funciones de variación acotada y conectaremos con curvas rectificables, una concepción de cómo considerar la longitud de una curva que podría no coincidir, con medir la gráfica de la misma.

Tarea moral

  1. Verifica la variación de cada función de los ejemplos enunciados arriba.
  2. Demuestra que si $f,g \,$ son funciones de variación acotada en $[a,b]$ y $c \in \mathbb{R},$ entonces las funciones
    $$cf, \, f+g \, \, \text{ y } \, \, fg$$
    son de variación acotada en $[a,b].$ Además
    $$\frac{f}{g}$$
    también es de variación acotada en $[a,b]$ si existe $\varepsilon >0$ tal que $|g(x)| \geq \varepsilon$ para $x \in [a,b].$
  3. Prueba que si $Q$ es un refinamiento de $P,$ entonces $S_P \leq S_Q.$
  4. Para cada $x,$ sean $S(x) ^+$ y $S(x) ^-$ las variaciones positiva y negativa de $f$ en $[a,x].$ Demuestra que estas funciones son crecientes y acotadas en $[a,b].$
  5. Prueba que si $f:[a,b] \to \mathbb{R}$ es Lipschitz continua, entonces es de variación acotada.

Bibliografía

  • Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015. Págs: 17-22.

Enlaces

Teorema de existencia y unicidad de ecuaciones diferenciales

Por Lizbeth Fernández Villegas

Introducción

En la entrada anterior trabajamos con la ecuación diferencial $\dfrac{d \, y(x)}{dx} = y(x)$ con condición inicial $y(0)=1.$ Al identificar propiedades enunciadas en el teorema de punto fijo de Banach encontramos su solución. En esta ocasión repetiremos el proceso para demostrar que la solución a una ecuación diferencial general existe y es única.

Primeramente, veamos un concepto.

Definición. Función localmente Lipschitz continua en la segunda variable. Sea $(a,b) \subset \mathbb{R}$ y sea $\Omega \subset \mathbb{R}$ tal que $\Omega$ es abierto. Si $F:(a,b) \times \Omega \to \mathbb{R}$ es una función que satisface que para cada $x_0 \in (a,b)$ y $y_0 \in \Omega \, $ existen $\delta_0 >0$ y $c>0$ tales que $[x_0 – \delta_0, x_0 + \delta_0] \subset (a,b), \, [y_0 – \delta_0, y_0 + \delta_0] \subset \Omega$ y además que si $x \in [x_0 – \delta_0, x_0 + \delta_0] $ y si $y_1,y_2 \in [y_0 – \delta_0, y_0 + \delta_0]$ entonces
$$|F(x,y_1)-F(x,y_2)| \leq c |y_1-y_2|$$
diremos que $F$ es localmente Lipschitz continua en la segunda variable.

Solución a la ecuación diferencial $\dfrac{d \, y(x)}{dx}=F(x,y(x))$

Sea $\dfrac{d \, y(x)}{dx}=F(x,y(x))$ una ecuación diferencial con condición inicial $y(x_0)=y_0$ donde:

  1. $F$ es una función continua y localmente Lipschitz continua en la segunda variable.
  2. $y \,$ es una función, al menos derivable, de variable $x$ que manda valores reales en valores reales.
  3. $x_0$ es un punto donde la $\, y \,$ buscada toma valor $y_0.$

Plan para resolverla con el teorema de punto fijo de Banach: Propondremos un espacio métrico completo $(X,d)$ de funciones entre las cuales deberá estar la $\, y \,$ buscada y una contracción $\phi:X \to X$ cuyo punto fijo sea la solución de la ecuación diferencial.

Sean $\delta_0>0$ y $c>0$ para $F$ localmente Lipschitz continua como en la definición. Dada la continuidad de $F,$ la función restringida en el conjunto $[x_0 \, – \, \delta_0, x_0 + \delta_0] \times [y_0 \, – \, \delta_0, y_0 + \delta_0]$ es continua y acotada por lo tanto podemos elegir existe $M \geq 1$ tal que para toda $(x,y) \in [x_0 \, – \, \delta_0, x_0 + \delta_0] \times [y_0 \, – \, \delta_0, y_0 + \delta_0]$ se cumple
$$|f(x,y)| \leq M.$$

Sea $\delta$ tal que $0< \delta < min\{\frac{1}{c}, \frac{\delta_0}{M}\}$

Considera $X:= \{f \in C^0([x_0 \, – \, \delta, x_0 + \delta],\mathbb{R}) \, | \, d_{\infty}(f,y_0) \leq \delta M \}$
donde $y_0$ representa, en este caso, a la función constante que arroja el valor $y_0.$ Nota que $X$ es un espacio cerrado en el espacio métrico $C^0([x_0 \, – \, \delta, x_0 + \delta],\mathbb{R})$ que recordemos, tiene la propiedad de ser completo (lo probamos en Convergencia uniforme y continuidad). Por lo visto en la última proposición de la entrada Espacios métricos completos concluimos que $X$ también es completo.

Propongamos la contracción $\phi$ deseada

Si $f \in X$ satisface la ecuación diferencial entonces para todo $x \in [x_0 \, – \, \delta, x_0 + \delta]$ se sigue:

\begin{align*}
&&\dfrac{d \, f(x)}{dx}&= F(x,f(x))\\
&\Rightarrow & \int_{x_0}^{x} \dfrac{d \, f(t)}{dt} \, dt &= \int_{x_0}^{x} F(t,f(t)) \, dt\\
&\Rightarrow & f(x) \, – \, f(x_0) &=\int_{x_0}^{x} F(t,f(t)) \, dt\\
&\Rightarrow & f(x) &=f(x_0) + \int_{x_0}^{x} F(t,f(t)) \, dt\\
&\Rightarrow & f(x) &= y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt
\end{align*}

Como buscamos que esta solución sea punto fijo de una contracción $\phi$ en $X$ entonces $\phi(f(x)) = f(x).$ La última igualdad nos lleva a proponer:

$$\phi(f(x)) := y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt$$

Nota que $\phi(f(x))$ pertenece a $\mathcal{C}^0([x_0 – \delta, x_0 + \delta],\mathbb{R}).$ Probaremos que también pertenece a $X.$ Si $x \in [x_0 – \delta, x_0 + \delta],$ tenemos dos casos:

Si $x_0 \leq x$

\begin{align*}
|\phi(f(x)) \, – \, y_0|&= \left|\int_{x_0}^{x} F(t,f(t)) \, dt \right| \\
&\leq \int_{x_0}^{x} |F(t,f(t))| \, dt \\
&\leq (x-x_0) M \\
&= \delta M
\end{align*}

Si $x < x_0$

\begin{align*}
|\phi(f(x)) \, – \, y_0|&= \left|\int_{x_0}^{x} F(t,f(t)) \, dt \right| \\
&= \left|- \int_{x}^{x_0} F(t,f(t)) \, dt \right| \\
&= \left| \int_{x}^{x_0} F(t,f(t)) \, dt \right| \\
&\leq \int_{x}^{x_0} |F(t,f(t))| \, dt \\
&\leq (x_0 \, – \, x) M\\
&= \delta M
\end{align*}

De ambos casos podemos concluir que $d_{\infty}(f,y_0) \leq \delta M,$ por lo tanto $\phi(f) \in X.$

$\phi$ es contracción en $X$

Sean $f,g \in X.$ Considera $I = [x_0 – \delta, x_0 + \delta]$ entonces si $x \in I,$ tenemos dos casos.

Si $x_0 \leq x.$

\begin{align*}
|\phi(f(x))- \phi(g(x))|&=\left|y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt-(y_0 + \int_{x_0}^{x} F(t,g(t)) \, dt) \right|\\
&=\left|\int_{x_0}^{x} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&\leq \int_{x_0}^{x} |F(t,f(t)) \, dt- F(t,g(t))| \, dt\\
&\leq \int_{x_0}^{x} c|f(t)- g(t)| \, dt \\
&\leq (x-x_0) c \, d_{\infty}(f,g) \\
&\leq (\delta c) \, d_{\infty}(f,g)
\end{align*}

Si $x < x_0.$

\begin{align*}
|\phi(f(x))- \phi(g(x))|&=\left|y_0 + \int_{x_0}^{x} F(t,f(t)) \, dt-(y_0 + \int_{x_0}^{x} F(t,g(t)) \, dt) \right|\\
&=\left|\int_{x_0}^{x} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&=\left|- \int_{x}^{x_0} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&=\left| \int_{x}^{x_0} F(t,f(t)) \, dt- F(t,g(t)) \, dt \right|\\
&\leq \int_{x}^{x_0} |F(t,f(t)) \, dt- F(t,g(t))| \, dt\\
&\leq \int_{x}^{x_0} c|f(t)- g(t)| \, dt \\
&\leq (x_0-x) c \, d_{\infty}(f,g) \\
&\leq (\delta c) \, d_{\infty}(f,g)
\end{align*}

Por lo tanto, la distancia entre $\phi(f)$ y $\phi(g)$ se puede estimar como

\begin{align*}
d_\infty(\phi(f(x)), \phi(g(x))) &= \underset{x \in I}{sup} \, |\phi(f(x))- \phi(g(x))| \\
&\leq \underset{x \in I}{sup} \, \delta c \, d_{\infty}(f,g) \\
&=(\delta c)d_{\infty}(f,g)
\end{align*}

Sea $\alpha := \delta c$ entonces $\alpha<1,$ por lo tanto $\phi$ es contracción en $X.$

Lo que hemos visto en esta entrada demuestra el siguiente:

Teorema. Picard-Lindelöf. Sea $F:(a,b) \times \Omega \to \mathbb{R}$ una función continua y localmente Lipschitz continua en la segunda variable. Entonces, dados $x_0 \in (a,b)$ y $y_0 \in \Omega$ existe $\delta >0$ tal que la ecuación diferencial
$$\dfrac{d \, y(x)}{dx}=F(x,y(x)), \, y(x_0)=y_0$$
tiene una única solución en el intervalo $[x_0 \, – \, \delta, x_0 + \delta].$

Generalización en $\mathbb{R}^n$

Si $\Omega \subset \mathbb{R}^n$ y $F$ tiene su contradominio en $\mathbb{R}^n$ entonces la definición y el teorema quedan como sigue:

Definición. Función localmente Lipschitz continua en la segunda variable. Sea $(a,b) \subset \mathbb{R}$ y sea $\Omega \subset \mathbb{R}^n$ tal que $\Omega$ es abierto. Si $F:(a,b) \times \Omega \to \mathbb{R}^n$ es una función que satisface que para cada $x_0 \in (a,b)$ y $y_0 \in \Omega \, $ existen $\delta_0 >0$ y $c>0$ tales que $[x_0 – \delta_0, x_0 + \delta_0] \subset (a,b), \, \overline{B}(y_0, \delta_0) \subset \Omega$ y además que si $|x-x_0| \leq \delta_0$ y si $y_1,y_2 \in \overline{B}(y_0,\delta_0)$ entonces
$$\norm{F(x,y_1)-F(x,y_2)} \leq c \norm{y_1-y_2}$$
diremos que $F$ es localmente Lipschitz continua en la segunda variable.

Comportamiento de una función localmente Lipschitz continua en la segunda variable.

Teorema. Picard-Lindelöf. Sea $F:(a,b) \times \Omega \to \mathbb{R}^n$ una función continua y localmente Lipschitz continua en la segunda variable. Entonces, dados $x_0 \in (a,b)$ y $y_0 \in \Omega$ existe $\delta >0$ tal que la ecuación diferencial
$$\dfrac{d \, y(x)}{dx}=F(x,y(x)), \, y(x_0)=y_0$$
tiene una única solución en el intervalo $[x_0 \, – \, \delta, x_0 + \delta].$

En este caso el espacio completo donde podemos encontrar la solución es

$$X:= \{ f \in \mathcal{C}^0([x_0 \, – \, \delta, x_0 + \delta], \mathbb{R}^n) : \norm{f \, – \, y_0}_\infty \leq \delta M\}$$

Donde $\delta$ y $M$ se definen de forma análoga a la demostración anterior.

Más adelante…

Pasaremos a la siguiente sección de esta asignatura con temas de compacidad. Aunque ya se han usado algunos resultados para el caso del espacio métrico euclidiano, mostraremos cómo el concepto puede generalizarse en otros espacios a partir de la topología que la métrica induce en ellos.

Tarea moral

  1. Sea $F: \mathbb{R} \times \mathbb{R} \to \mathbb{R}$ tal que
    \begin{equation*}
    F := \begin{cases}
    0 & \text{si $x=0$} \\
    \frac{y}{x} & \text{si $x \neq 0$}
    \end{cases}
    \end{equation*}
    Prueba que $F(x,y)$ es localmente Lipschitz continua en la segunda variable, pero no es continua en $(0,0).$
  2. Sea $F: \mathbb{R} \times \mathbb{R} \to \mathbb{R}$ tal que $F(x,y):= 3y^{2/3}.$
    a) Prueba que $F$ no es localmente Lipschitz continua en la segunda variable.
    b) Prueba que para cualesquiera $\alpha < 0 < \beta,$ la función
    \begin{equation*}
    f_{\alpha, \beta}(x) := \begin{cases}
    (x \, – \, \alpha)^3 & \text{si x $\leq \alpha,$} \\
    0 & \text{si $\alpha \leq x \leq \beta,$}\\
    (x \, – \, \beta)^3 & \text{si $x \geq \beta.$}
    \end{cases}
    \end{equation*}
    Es diferenciable en $\mathbb{R}$ y es solución de
    $$\dfrac{d \, y(x)}{dx}=3y^{2/3}, \, y(0)=0.$$
    Así, si $F$ no es localmente Lipschitz continua en la segunda variable la ecuación puede tener una infinidad de soluciones.
  3. Sea $F: \mathbb{R} \times \mathbb{R} \to \mathbb{R}$ tal que $F(x,y)= -y^2.$
    a) Prueba que $F$ es localmente Lipschitz continua en la segunda variable.
    b) Para $\alpha \neq 0$ considera la ecuación
    $$\dfrac{d \, y(x)}{dx}=-y^2, \, y(0)= – \, \frac{1}{\alpha}.$$
    Prueba que $f(x)= \dfrac{1}{x \, – \, \alpha}$ es su solución en algún intervalo que contiene a $0.$
    c) ¿Cuál es el intervalo máximo para el que esta ecuación tiene solución?

Bibliografía

Enlaces