Archivo de la etiqueta: funciones Lipschitz

Ecuaciones Diferenciales I: Teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden

El gran arquitecto parece ser un matemático; a aquellos que no saben matemáticas
les resulta realmente difícil sentir la profunda belleza de la naturaleza.
– Richard Feynman

Introducción

¡Hemos llegado al final de la unidad 3 del curso!.

Concluiremos presentando el teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden en el caso general.

En la primera entrada de esta unidad enunciamos el teorema de existencia y unicidad en el caso general, en esta entrada retomaremos dicho teorema con la diferencia de que lo adaptaremos a la notación vectorial que ya conocemos ya que esto tiene una enorme ventaja al momento de hacer la demostración.

La demostración de este teorema, al igual que el teorema de Picard – Lindelöf, requiere de una extensa teoría preliminar. En este caso no demostraremos dicha teoría preliminar, sólo la justificaremos ya que una enorme ventaja que tenemos es que mucho de los que vimos en la primer unidad se puede extender a los sistemas de ecuaciones diferenciales, así que lo que haremos será desarrollar esta extensión generalizando los resultados para así demostrar el teorema.

Se recomienda, si lo crees necesario, revisar las tres últimas entradas de la primera unidad para recordar la teoría previa a la demostración del teorema de Picard – Lindelöf, así como la demostración misma.

Comencemos por construir el enunciado del teorema.

Teorema de existencia y unicidad para sistemas de ecuaciones diferenciales

Como vimos en la primer entrada de esta unidad, un sistema de ecuaciones diferenciales de primer orden en su forma general es de la forma

\begin{align*}
y_{1}^{\prime}(t) & = F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
y_{2}^{\prime}(t) & = F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
& \vdots \\
y_{n}^{\prime}(t) &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{1} \tag{1}
\end{align*}

Donde las $F_{i}$, $i = 1, 2, 3, \cdots, n$ son funciones con valores reales que dependen de las $n + 1$ variables en un intervalo $\delta$. Sabemos que

$$\mathbf{Y}(t) = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{Y}^{\prime}(t) = \begin{pmatrix}
y^{\prime}_{1}(t) \\ y^{\prime}_{2}(t) \\ \vdots \\ y^{\prime}_{n}(t)
\end{pmatrix} \label{2} \tag{2}$$

Con ayuda de estos vectores podemos definir el vector

$$\mathbf{F}(t, \mathbf{Y}(t)) = \begin{pmatrix}
F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\ F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\ \vdots \\ F_{n}(t, y_{1}, y_{2}, \cdots, y_{n})
\end{pmatrix} \label{3} \tag{3}$$

De manera que el sistema de ecuaciones diferenciales (\ref{1}) se puede escribir en forma vectorial como

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)) \label{4} \tag{4}$$

Si el sistema de ecuaciones diferenciales (\ref{4}) esta sujeto a valores iniciales

$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
y_{1}(t_{0}) \\ y_{2}(t_{0}) \\ \vdots \\ y_{n}(t_{0})
\end{pmatrix} = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0} \label{5} \tag{5}$$

con $b_{i}$, $i = 1, 2, \cdots, n$ constantes, entonces tenemos un problema de valores iniciales (PVI).

Definamos, por otro lado, una región $U$ como el producto cartesiano

$$\delta \times \delta_{1} \times \delta_{2} \times \delta_{3} \times \cdots \times \delta_{n} = U \in \mathbb{R}^{n + 1} \label{6} \tag{6}$$

en donde

$$t_{0} \in \delta, \hspace{0.5cm} b_{1} \in \delta_{1}, \hspace{0.5cm} b_{2} \in \delta_{2}, \hspace{0.5cm} \cdots, \hspace{0.5cm} b_{n} \in \delta_{n}$$

de tal forma que $(t_{0}, b_{1}, b_{2}, \cdots, b_{n}) \in U$, es decir, $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \in U$.

Con estos resultados, el teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden se puede enunciar de la siguiente forma.

Este es el teorema que demostraremos.

Ecuación integral equivalente a un PVI

Como lo hicimos con el teorema de Picard – Lindelöf, es posible mostrar que el problema de valores iniciales (\ref{7}) es equivalente a una ecuación integral. El siguiente teorema establece este resultado.

La demostración es bastante similar a la que realizamos para el caso de ecuaciones diferenciales de primer orden. Intenta hacer la demostración. A continuación presentaremos una justificación que te puede ser de ayuda en tu demostración formal.

Justificación: Consideremos el sistema

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t))$$

Integremos de $t_{0}$ a $t$.

$$\int_{t_{0}}^{t} \mathbf{Y}^{\prime}(s) ds = \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds \label{9} \tag{9}$$

Apliquemos el teorema fundamental del cálculo.

$$\mathbf{Y}(t) -\mathbf{Y}(t_{0}) = \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s))ds \label{10} \tag{10}$$

Como $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$, del resultado anterior se obtiene la ecuación integral (\ref{8})

$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s))ds$$

$\square$

Este es nuestro primer resultado generalizado. Lo siguiente que haremos será generalizar las iteraciones (o iterantes) de Picard.

Iterantes de Picard

En su forma desglosada las iterantes de Picard se pueden escribir como

\begin{align*}
\mathbf{Y}_{0}(t) &= \mathbf{Y}_{0} \\
\mathbf{Y}_{1}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{0}(s))ds \\
\mathbf{Y}_{2}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{1}(s)) ds \\
\mathbf{Y}_{3}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{2}(s)) ds \\
\vdots \\
\mathbf{Y}_{n}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{n -1}(s))ds \label{12} \tag{12}
\end{align*}

Lo interesante de las iterantes de Picard es que, cumpliendo ciertas hipótesis, éstas convergen a la solución del PVI (\ref{7}). El siguiente teorema nos ayudará a mostrar este hecho.

La demostración para el caso de ecuaciones de primer orden la hicimos como parte de la demostración del teorema de Picard – Lindelöf. Intenta generalizar dicha demostración.

Consideremos cierto este teorema, notemos lo siguiente.

Sea $\{ \mathbf{Y}_{n}(t) \}$ una sucesión de iteraciones de Picard que convergen uniformemente a una función $\mathbf{Y}(t)$ en el intervalo $\delta$ y sea $\mathbf{F}(t, \mathbf{Y}(t))$ una función continua en $U \subseteq \mathbb{R}^{n + 1}$, tal que $\forall$ $t \in \delta$ y $\forall$ $n \in \mathbb{N}$, $(t,\mathbf{Y}_{n}(t)) \in U$, entonces

\begin{align*}
\mathbf{Y}(t) &= \lim_{n \to \infty} \mathbf{Y}_{n}(t) \\
&= \lim_{n \to \infty } \left( \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{n -1}(s)) ds \right ) \\
&= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \lim_{n \to \infty} \mathbf{F}(s, \mathbf{Y}_{n -1}(s)) ds
\end{align*}

Usando (\ref{13}) se obtiene la ecuación integral (\ref{8}).

$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds$$

Con este resultado mostramos que si se satisfacen las hipótesis del teorema anterior, entonces la función a la que convergen las iteraciones de Picard satisface la ecuación integral (\ref{8}), lo que es equivalente a que dicha función sea solución del PVI (\ref{7}).

Ahora bien, para que las iterantes de Picard converjan a la solución del PVI (\ref{7}) deben satisfacer las hipótesis del teorema anterior por lo que es necesario que exista un dominio $U$ en el que $(t,\mathbf{Y}_{n}(t)) \in U$ y en el que la sucesión de iteraciones $\{ \mathbf{Y}_{n}(t) \}$ converja. Debemos encontrar este dominio, para hacerlo generalicemos algunos resultados más.

Funciones Lipschitzianas

Un primer resultado que usaremos es el siguiente.

En este teorema podemos describir a la región $R$ como

$$R = \{ (t, \mathbf{Y}(t)) \in \mathbb{R}^{n + 1} : |t -t_{0}| \leq a, \left\|\mathbf{Y}(t) -\mathbf{Y}_{0} \right\| \leq b \} \label{16} \tag{16}$$

En esta región garantizamos que las iterantes de Picard están todas contenidas.

Un resultado más que necesitaremos tiene que ver con que $\mathbf{F}(t, \mathbf{Y}(t))$ sea una función lipschitziana respecto a la segunda variable. Recordando la definición que dimos para el caso de ecuaciones de primer orden, podemos definir una función lipschitziana como sigue.

Un resultado sumamente útil para determinar si una función es lipschitziana es el siguiente.

Intenta generalizar la demostración.

Una herramienta más que necesitamos generalizar es el criterio mayorante de Weierstrass.

Finalmente, recordemos el lema de Gronwall.

Este resultado no requiere de generalización, lo usaremos de esta forma.

Todo lo anterior corresponde a la teoría preliminar que debemos conocer para lograr demostrar el teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden. Lo visto corresponde a una generalización de la teoría preliminar al teorema de Picard – Lindelöf, por lo que las demostraciones a los resultados de esta entrada serán prácticamente una generalización de las demostraciones vistas para el caso de ecuaciones de primer orden. De tarea moral intenta demostrar todos estos resultados para lograr convencerte del siguiente resultado.

Demostración del teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden

Demostración: Comenzaremos por mostrar la existencia de la solución.

Consideremos las hipótesis del teorema y las dos primeras iteraciones de Picard $\mathbf{Y}_{1}(t)$ y $\mathbf{Y}_{0}(t)$, sabemos que ambas son continuas en el intervalo $I$ definido en (\ref{14}), entonces existe $M > 0$, tal que

$$\left\| \mathbf{Y}_{1}(t) -\mathbf{Y}_{0}(t) \right\| \leq M \label{19} \tag{19}$$

Queremos demostrar que la norma de la diferencia entre iterantes de Picard esta acotada, es decir, que $\forall$ $n \in \mathbb{N}$ y $\forall$ $t \in \mathbf{I}$,

$$\left\| \mathbf{Y}_{n}(t) -\mathbf{Y}_{n -1}(t) \right\| \leq M \left ( \dfrac{(L |t -t_{0}|)^{n -1}}{(n -1)!} \right) \label{20} \tag{20}$$

La prueba la haremos por inducción. El caso $n = 1$ ya lo vimos en (\ref{19}). Supongamos que es cierto para $n = k$.

$$\left\| \mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t) \right\| \leq M \dfrac{(L |t -t_{0}|)^{k -1}}{(k -1)!} \label{21} \tag{21}$$

Esta es nuestra hipótesis de inducción. Queremos probar que

$$\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| \leq M \dfrac{(L |t -t_{0}|)^{k}}{k!} \label{22} \tag{22}$$

Usando la forma de la iteraciones de Picard (\ref{12}), notemos lo siguiente.

\begin{align*}
\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| &= \left\| \left( \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{k}(t)) ds \right) -\left( \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{k -1}(s)) ds \right) \right\| \\
&= \left\| \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{k}(t)) -\mathbf{F}(s, \mathbf{Y}_{k -1}(s)) ds \right\| \\
&\leq \int_{t_{0}}^{t} \left\| \mathbf{F}(s, \mathbf{Y}_{k}(s)) -\mathbf{F}(s, \mathbf{Y}_{k -1}(s)) \right\| ds
\end{align*}

Como $\mathbf{F}$ es lipschitziana con respecto de la segunda variable, entonces se satisface (\ref{17}), de manera que

$$ \int_{t_{0}}^{t} \left\| \mathbf{F}(s, \mathbf{Y}_{k}(s)) -\mathbf{F}(s, \mathbf{Y}_{k -1}(s)) \right\| ds \leq \int_{t_{0}}^{t} L \left\| \mathbf{Y}_{k}(s) -\mathbf{Y}_{k -1}(s) \right\| ds \label{23} \tag{23}$$

Así,

\begin{align*}
\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| &\leq \int_{t_{0}}^{t} L \left\| \mathbf{Y}_{k}(s) -\mathbf{Y}_{k -1}(s) \right\| ds \\
&= L \int_{t_{0}}^{t} \left\| \mathbf{Y}_{k}(s) -\mathbf{Y}_{k -1}(s) \right\| ds
\end{align*}

Usemos la hipótesis de inducción (\ref{21}).

\begin{align*}
\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| &\leq L \int_{t_{0}}^{t} M \dfrac{(L |s -t_{0}|)^{k -1}}{(k -1)!} ds \\
&= \dfrac{ML^{k}}{(k -1)!} \int_{t_{0}}^{t} |s -t_{0}|^{k -1} ds \\
&= \dfrac{ML^{k}}{(k -1)!} \dfrac{|t -t_{0}|^{k}}{k} \\
&= M \dfrac{(L |t -t_{0}|)^{k}}{k!}
\end{align*}

Esto es,

$$ \left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| \leq M \dfrac{(L |t -t_{0}|)^{k}}{k!}$$

Hemos obtenido (\ref{22}) que es lo que queríamos probar.

Como $|t -t_{0}| \leq h$, observemos que

$$M \dfrac{(L |t -t_{0}|)^{k}}{k!} \leq M \dfrac{(Lh)^{k}}{k!} \label{24} \tag{24}$$

y sabemos que

$$\sum_{k = 0}^{\infty} M \dfrac{(Lh)^{k}}{k!} = Me^{Lh} \label{25} \tag{25}$$

Como $M$, $L$ y $h$ son valores fijos, entonces $Me^{Lh}$ es una valor fijo lo que muestra que la serie

$$\sum_{k = 0}^{\infty} M \dfrac{(Lh)^{k}}{k!} < \infty \label{26} \tag{26}$$

Es decir, la serie es convergente. Consideremos la sucesión de diferencias de iterantes de Picard consecutivas $\{ \mathbf{Y}_{n}(t) -\mathbf{Y}_{n -1}(t) \}$, $n \in \mathbb{N}$. De los resultados anteriores sabemos que

$$\left\| \mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t) \right\| \leq M \dfrac{(Lh)^{k -1}}{(k -1)!} \label{27} \tag{27}$$

y como $\forall$ $t \in I$,

$$\sum_{k = 1}^{\infty} M \dfrac{(Lh)^{k -1}}{(k -1)!} = M e^{Lh}$$

entonces, por el criterio mayorante de Weierstrass, se tiene que

$$\sum_{k = 1}^{\infty}(\mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t)) < \infty \label{28} \tag{28}$$

es decir, converge uniformemente en $I$ a una función, digamos $\hat{\mathbf{Y}}(t)$. Así

$$\mathbf{Y}_{0} + \sum_{k = 1}^{\infty}(\mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t)) < \infty \label{29} \tag{29}$$

también converge uniformemente en $I$ a una función, digamos $\mathbf{Y}(t)$. La sucesión de sumas parciales converge uniformemente en $I$. Para $k = 1$ en (\ref{29}) se tiene la suma parcial $S_{1}$ como

$$S_{1} = \mathbf{Y}_{0} + [\mathbf{Y}_{1}(t) -\mathbf{Y}_{0}(t)] = \mathbf{Y}_{1}(t) \label{30} \tag{30}$$

Ya que $ \mathbf{Y}_{0}(t) = \mathbf{Y}_{0}$. Para $S_{2}$, se tiene

$$S_{2} = \mathbf{Y}_{0} + [\mathbf{Y}_{1}(t) -\mathbf{Y}_{0}(t)] + [\mathbf{Y}_{2}(t) -\mathbf{Y}_{1}(t)] = \mathbf{Y}_{2}(t) \label{31} \tag{31}$$

Así sucesivamente obtendremos que

$$S_{n} = \mathbf{Y}_{n}(t) \label{32} \tag{32}$$

Por lo tanto, la sucesión de iteraciones de Picard converge uniformemente en $I$ a una función $\mathbf{Y}(t)$, esto significa que $\mathbf{Y}(t)$ es solución de la ecuación integral

$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds$$

y por lo tanto, $\mathbf{Y}(t)$ es solución del problema de condición inicial.

Con esto queda demostrada la existencia de la solución del PVI. Concluyamos con la demostración de la unicidad.

Sea $\mathbf{Y}(t)$ la solución del PVI (\ref{7}) y supongamos que existe otra función $\mathbf{Z}(t)$ que también es solución del PVI, entonces

$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds$$

y

$$\mathbf{Z}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Z}(s)) ds \label{33} \tag{33}$$

Notemos lo siguiente.

\begin{align*}
\left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\| &= \left\| \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) -\mathbf{F}(s, \mathbf{Z}(s)) ds \right\|\\
&\leq \int_{t_{0}}^{t} \left\| \mathbf{F}(s, \mathbf{Y}(s)) -\mathbf{F}(s, \mathbf{Z}(s)) \right\| ds \\
&\leq L \int_{t_{0}}^{t} \left\| \mathbf{Y}(s) -\mathbf{Z}(s) \right\|ds
\end{align*}

En donde se ha aplicado nuevamente la propiedad de $\mathbf{F}$ de ser lipschitziana con respecto de la segunda variable.

Definamos la función escalar

$$g(t) = \left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\|$$

Entonces el resultado anterior se puede escribir como

$$g(t) \leq L \int_{t_{0}}^{t} g(s) ds \label{34} \tag{34}$$

Notemos que esta expresión se parece a la desigualdad (\ref{18}) del lema de Gronwall con $\alpha = 0$ y $\beta = L$. Usando este lema, se obtiene

$$0 < g(t) = \left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\| \leq 0 e^{L(t -t_{0})} = 0 \label{35} \tag{35}$$

De donde necesariamente debe ocurrir que

$$\left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\| = 0 \label{36} \tag{36}$$

Por lo tanto, ambas funciones tienen que ser iguales.

$$\mathbf{Y}(t) = \mathbf{Z}(t) \label{37} \tag{37}$$

Y es así como queda demostrada la unicidad de la solución. Y, por lo tanto, queda demostrado el teorema.

$\square$

Con esto concluimos la tercera unidad del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Demostrar formalmente los teoremas vistos en la teoría preliminar de esta entrada.
    Puedes guiarte de las demostraciones hechas en la primera unidad generalizando los resultados.

Más adelante…

Hemos concluido con la unidad 3 del curso.

La siguiente y última unidad del curso será un complemento de esta unidad 3, ya que hemos estudiado a los sistemas de ecuaciones diferenciales de primer orden desde una perspectiva analítica y es posible construir toda una teoría geométrica y cualitativa de estos mismos sistemas.

En la siguiente unidad estudiaremos la teoría cualitativa de las ecuaciones diferenciales.

Entradas relacionadas

Ecuaciones Diferenciales I: Teorema de Existencia y Unicidad – Ecuación Integral, Funciones Lipschitzianas y Lema de Gronwall

Estudié matemáticas, la locura de la razón.
– Benjamin Moser

Introducción

A lo largo de esta primera unidad hemos estudiado una variedad de ecuaciones diferenciales ordinarias de primer orden y hemos desarrollado distintas técnicas para resolver cada tipo de ecuación. Vimos que una sola ecuación puede tener infinitas soluciones y sólo cuando le imponemos una condición inicial es como podremos obtener una solución particular de esa ecuación diferencial. Ahora bien, si la solución existe, entonces debe ser única pero, ¿es siempre cierto esto?.

Ya presentamos el teorema de existencia y unicidad para ecuaciones diferenciales de primer orden y el teorema de existencia y unicidad para el caso de ecuaciones diferenciales lineales de primer orden, nuestro objetivo ahora es tener un teorema de existencia y unicidad general que pueda aplicarse a cualquier ecuación diferencial ordinaria de primer orden.

Este teorema, conocido como teorema de existencia y unicidad de Picard – Lindelöf contiene las hipótesis suficientes para garantizar que si existe una solución a un problema de valor inicial (PVI), entonces dicha solución es única.

Cabe mencionar que es posible enunciar un teorema de existencia y unicidad de tipo global y uno de tipo local. En el caso de tipo global el intervalo de existencia de la solución se conoce a priori, mientras que en uno de tipo local se asegura que existe un intervalo, en un principio desconocido, donde el PVI tiene solución única. En este curso demostraremos el resultado de tipo global y veremos que el de tipo local es consecuencia del global, además de que puedes encontrar la demostración al teorema de tipo local en la sección de videos.

Demostrar el teorema de existencia y unicidad de Picard – Lindelöf no es tarea fácil, primero será necesario desarrollar una teoría preliminar en la que estableceremos algunos conceptos nuevos y, así mismo, haremos un breve repaso sobre conceptos que conocemos y que nos serán de utilidad para demostrar dicho teorema. Esta teoría preliminar la desarrollaremos a lo largo de esta y la siguiente entrada para finalmente demostrar el teorema en la última entrada de esta primera unidad.

Comenzaremos enunciando el teorema de existencia y unicidad de Picard – Lindelöf para tenerlo presente, a pesar de que quizá algunas cosas no queden claras, el objetivo de esta teoría preliminar será comprender lo que nos quiere decir este teorema, además de brindarnos las herramientas necesarias para demostrarlo.

Bien, ¡comencemos!.

Teorema de Existencia y Unicidad de Picard-Lindelöf

El teorema global de existencia y unicidad para ecuaciones diferenciales ordinarias de primer orden es el siguiente.

Una observación importante es que el punto $(x_{0}, y_{0})$ puede estar en la frontera de la banda vertical $U = [a, b] \times \mathbb{R}$, es decir, puede ser de la forma $(a, y_{0})$ o $(b, y_{0}).$

Podemos notar que en el enunciado se hace mención de términos que aún no conocemos, como lo son función lipschitziana e Iterantes de Picard, así que necesitamos definirlos.

Este teorema corresponde al resultado global en el que el intervalo es una banda vertical $U = [a, b] \times \mathbb{R}$, en el caso local se considera una región limitada definida como

$$R = \{ (x, y) \in \mathbb{R}^{2}:|x -x_{1}| \leq a, |y -y_{1}| \leq b, \hspace{0.3cm} a, b \in \mathbb{R} \}$$

y la solución esta definida en el intervalo $\delta = [x_{0} -h, x_{0} + h]$ para cierta $h \in \mathbb{R}$. Una vez demostrado el resultado global retomaremos el caso local.

En esta teoría preliminar veremos que el PVI (\ref{1}) puede ser equivalente a resolver una ecuación integral, estudiaremos las funciones lipschitzianas de una y dos variables, demostraremos algunas proposiciones al respecto, demostraremos el lema de Gronwall, repasaremos algunos conceptos importantes sobre sucesiones, series y convergencia, definiremos las iteraciones de Picard y veremos algunos ejemplos. Una vez desarrollada esta teoría pasaremos a la demostración del teorema de existencia y unicidad.

Para comenzar, veamos que el PVI (\ref{1}) se puede escribir de forma equivalente como una ecuación integral cuando la función $f$ es continua.

Ecuación integral equivalente a un PVI

Un PVI como (\ref{1}) se puede escribir de forma equivalente como una ecuación integral en el caso en el que la función $f$ sea continua. Evidentemente este no es un curso ecuaciones integrales, pero para entender esta equivalencia definiremos lo que es una ecuación integral.

Teniendo en cuenta esta definición demostremos nuestro primer teorema de esta teoría preliminar el cual refleja el hecho de que un PVI como (\ref{1}) es equivalente a resolver una ecuación integral.

Demostración:

$\Rightarrow$ Supongamos que $y: \delta \rightarrow \mathbb{R},$ con gráfica contenida en $U$, es solución del PVI, entonces cumple que

$$\dfrac{dy}{dx} = f(x, y); \hspace{1cm} y(x_{0}) = y_{0}$$

Como $y$ es solución de la ecuación diferencial en el intervalo $\delta$, entonces debe ser continua en el mismo intervalo, así tenemos que $f$ y $y$ son continuas y por tanto $\dfrac{dy}{dx}$ y la función

$$g: \delta \rightarrow \mathbb{R}, \hspace{1cm} t \rightarrow g(t) = f(t, y(t))$$

también son continuas, de esta manera podemos integrar la ecuación $\dfrac{dy}{dx} = f(x, y)$ para cualquier $x \in \delta$.

\begin{align*}
\int_{x_{0}}^{x}\dfrac{dy}{dx}(t)dt &= \int_{x_{0}}^{x} f(t, y(t)) dt \\
\end{align*}

Aplicando el teorema fundamental del cálculo (regla de Barrow) en el lado izquierdo de la ecuación, tenemos

\begin{align*}
y(x) -y(x_{0}) &= \int_{x_{0}}^{x} f(t, y(t))dt \\
y(x) &= y(x_{0}) + \int_{x_{0}}^{x} f(t, y(t)) dt \\
y(x) &= y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt
\end{align*}

obteniendo así que $y(x)$ verifica la ecuación integral (\ref{3}).

$\Leftarrow$ Ahora supongamos que $y(x)$ es una función continua en $\delta$ y que satisface la ecuación integral

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt$$

Derivemos esta expresión.

\begin{align*}
\dfrac{dy}{dx} &= \dfrac{d}{dx} \left( y_{0} + \int_{x_{0}}^{x} f(t, y(t))dt \right) \\
&= \dfrac{dy_{0}}{dx} + \dfrac{d}{dx} \left( \int_{x_{0}}^{x} f(t, y(t))dt \right) \\
&= 0 + f(x, y) \\
&= f(x, y)
\end{align*}

Donde se ha aplicado el teorema fundamental del cálculo. Con este resultado vemos que se ha recuperado la ecuación diferencial $\dfrac{dy}{dx} = f(x, y)$, mostrando así que $y(x)$ es solución a la ecuación diferencial y además

\begin{align*}
y(x_{0}) = y_{0} + \int_{x_{0}}^{x_{0}} f(t, y(t)) dt = y_{0} + 0 = y_{0}
\end{align*}

es decir, se satisface la condición inicial $y(x_{0}) = y_{0}$, de esta manera queda demostrado que $y(x)$ es solución del PVI.

$\square$

Este resultado es muy útil en muchos resultados sobre ecuaciones diferenciales y nos será de utilidad para motivar, más adelante, la introducción a las llamadas iterantes de Picard.

Continuando con nuestra teoría preliminar, un concepto sumamente importante que estudiaremos a continuación es el de funciones lipschitzianas.

Funciones Lipschitzianas

Como estamos trabajando con la ecuación diferencial

$$\dfrac{dy}{dx} = f(x, y)$$

la función $f$ es una función de dos variables, así que nos interesa estudiar las funciones lipschitzianas de dos variables, sin embargo es probable que este sea un concepto nuevo y para que sea más intuitivo entenderlo presentaremos la definición de función lipschitziana para el caso de una función de una variable y realizaremos algunos ejemplos sencillos para posteriormente definir la función lipschitziana en el caso de dos variables.

Con esta definición observamos que si $x_{1} \neq x_{2}$ el cociente

$$\dfrac{f(x_{1}) -f(x_{2})}{x_{1} -x_{2}}$$

corresponde a la pendiente de la recta secante a la gráfica de $f$ que pasa por los puntos $(x_{1}, f(x_{1}))$ y $(x_{2}, f(x_{2}))$, de esta forma la condición de Lipschitz indica que todas estas pendientes están acotadas, es decir, existe una constante $L > 0$, tal que

$$\left|\dfrac{f(x_{1}) -f(x_{2})}{x_{1} -x_{2}} \right|\leq L$$

para cada $x_{1}, x_{2} \in I$, con $x_{1} \neq x_{2}$.

Recta secante que une a los puntos $(x_{1}, f(x_{1}))$ y $(x_{2}, f(x_{2}))$.

No entraremos es muchos detalles para el caso de una función de una variable, pero cabe mencionar que cualquier función lipschitziana es uniformemente continua, ya que dado $\varepsilon > 0$ basta tomar $\delta = \dfrac{\varepsilon}{L}$ y la condición de Lipschitz (\ref{4}) para que se verifique que

$$|x_{1} -x_{2}| < \delta \Rightarrow |f(x_{1}) -f(x_{2})| < \varepsilon$$

Como ejemplo mostremos que toda recta es una función lipschitziana.

Ejemplo: Mostrar que la función

$$f(x) = mx + b$$

es una función lipschitziana, con $L = |m|$.

Solución: Queremos probar que se cumple (\ref{4}). Vemos que

\begin{align*}
|f(x_{1}) -f(x_{2})| &= |mx_{1} + b -(mx_{2} + b)| \\
&= |mx_{1} + b -mx_{2} -b| \\
&= |mx_{1} -mx_{2}| \\
&= |m||x_{1} -x_{2}|\\
&= L|x_{1} -x_{2}|
\end{align*}

En donde consideramos que $L = |m|$. En este caso se da la igualdad

$$|f(x_{1}) -f(x_{2})| = L |x_{1} -x_{2}|$$

probando así que la función $f(x) = mx + b$ es una función Lipschitziana.

$\square$

Hay funciones uniformemente continuas que no son lipschitzianas, un ejemplo puede ser la función $f:[0, 1] \rightarrow \mathbb{R}$ definida como $f(x) = \sqrt{x}$, esta función es uniformemente continua pero no lipschitziana. Mostremos este hecho.

Ejemplo: Mostrar que la función $f:[0, 1] \rightarrow \mathbb{R}$, definida como $f(x) = \sqrt{x}$ no es lipschitziana.

Solución: Vamos a suponer que la función $f(x) = \sqrt{x}$ es lipschitziana y lleguemos a una contradicción. Si $f(x) = \sqrt{x}$ fuera lipschitziana debería satisfacer que

$$|f(x_{1}) -f(x_{2})| \leq L |x_{1} -x_{2}|$$

$\forall x_{1}, x_{2} \in [0, 1]$ y para alguna $L \geq 0$. Vemos que

$$|f(x) -f(0)| = |\sqrt{x} -\sqrt{0}| \leq L |x -0|$$

es decir, $\forall x \in [0, 1]$ ($x$ es positiva),

$$\sqrt{x} \leq L x$$

Si $x \in (0, 1]$ ($x \neq 0$), entonces

$$\dfrac{\sqrt{x}}{x} \leq L \Rightarrow \dfrac{1}{\sqrt{x}} \leq L$$

Este último resultado nos dice que la función $\dfrac{1}{\sqrt{x}}$ esta acotada por $L$ para $x \in (0, 1]$, sin embargo si tomamos el límite $x \rightarrow 0$ por la derecha obtenemos

$$\lim_{x \to 0^{+}}\frac{1}{\sqrt{x}} = \infty \hspace{1cm} !$$

Hemos llegado a una contradicción y todo ocurrió de suponer que la función $f(x) = \sqrt{x}$ era lipschitziana. Por lo tanto, a pesar de ser uniformemente continua, $f(x) = \sqrt{x}$ no es lipschitziana.

$\square$

Un resultado más que no demostraremos es el siguiente teorema.

Hay funciones lipschitzianas que no son derivables, por ejemplo la función $f: \mathbb{R} \rightarrow \mathbb{R}$ definida por $f(x) = |x|$.

Podemos decir, entonces, que la condición de Lipschitz es una condición intermedia entre continuidad uniforme y la existencia de derivada acotada.

Con esto en mente, ahora definamos lo que es una función lipschitziana para el caso en el que la función $f$ es de dos variables. Para este caso, la condición de Lipschitz sólo afectará a una de las variables, concretamente a la segunda, importante considerar este hecho.

La relación (\ref{5}) es lo que se pide que se cumpla en la tercer hipótesis del teorema de Picard – Lindelöf.

Enunciemos dos proposiciones importantes con respecto a las funciones lipschitzianas de dos variables que nos serán de utilidad a la hora de demostrar el teorema de Picard – Lindelöf.

Demostración: Sea $f(x, y)$ una función lipschitziana respecto de la variable $y$ y supongamos que existe su derivada parcial con respecto a dicha variable $\dfrac{\partial f}{\partial y}$. Por definición, para $(x, y) \in U$ se tiene que

$$\dfrac{\partial f}{\partial y}(x, y) \doteq \lim_{h \to 0}\dfrac{f(x, y + h) -f(x, y)}{h} \label{7} \tag{7}$$

Dado un $\delta > 0$ y para $h$ suficientemente pequeño $|h|< \delta$, el punto $(x, y + h)$ pertenece a $U$. Sea $L$ una constante de Lipschitz de $f$ respecto de $y$ en $U$. De acuerdo a la definición de la condición de Lipschitz se verifica que

$$|f(x, y + h) -f(x, y)| \leq L |y + h -y| = L|h| \label{8} \tag{8}$$

Usando (\ref{7}) y (\ref{8}) tenemos lo siguiente.

\begin{align*}
\left|\dfrac{\partial f}{\partial y}(x, y) \right| &= \left|\lim_{h \to 0} \dfrac{f(x, y + h) -f(x, y)}{h}\right| \\
&= \lim_{h \to 0}\left|\dfrac{f(x, y + h) -f(x, y)}{h} \right| \\
&\leq \lim_{h \to 0} \dfrac{L|h|}{|h|} = L
\end{align*}

Esto es,

$$\left| \dfrac{\partial f}{\partial y}(x, y) \right| \leq L$$

lo que significa que $\dfrac{\partial f}{\partial y}$ esta acotada en $U$ por la constante de Lipschitz $L$.

$\square$

Ahora revisemos el resultado recíproco de la proposición anterior en donde es necesario que $U$ sea un conjunto convexo.

Demostración: Para demostrar esta proposición haremos uso del teorema del valor medio para funciones de una variable, de aquí la necesidad de que $U$ sea convexo.

Por hipótesis, $\dfrac{\partial f}{\partial y}$ esta acotada en $U$, sea $L > 0$, tal que

$$ \left| \dfrac{\partial f}{\partial y}(x, y)\right|\leq L \label{9} \tag{9}$$

para cada $(x, y) \in U$, y sean $(x, y_{1}), (x, y_{2}) \in U$ con $y_{1} < y_{2}$. Como $U$ es convexo tenemos garantizado que para cada $y$ tal que $y_{1} < y < y_{2}$ el punto $(x, y)$ pertenece a $U$, pues dicho punto pertenece al segmento que une los puntos $(x, y_{1})$ y $(x, y_{2})$, con estos resultados la función

$g_{x}:[y_{1}, y_{2}] \rightarrow \mathbb{R}, \hspace{1cm} g_{x}(y) = f(x, y)$

está bien definida y es derivable

$$g_{x}^{\prime}(y) = \dfrac{\partial f}{\partial y}(x, y)$$

para cada $y \in [y_{1}, y_{2}]$. Por el teorema del valor medio, existe $y$ tal que $y_{1} < y < y_{2}$ y tal que

$g_{x}(y_{1}) -g_{x}(y_{2}) = g_{x}^{\prime}(y) (y_{1} -y_{2})$

es decir,

$f(x, y_{1}) -f(x, y_{2}) = \dfrac{\partial f}{\partial y}(x, y)(y_{1} -y_{2})$

Esta igualdad también la podemos escribir como

$$|f(x, y_{1}) -f(x, y_{2})| = \left|\dfrac{\partial f}{\partial y}(x, y)\right||y_{1} -y_{2}| \label{10} \tag{10}$$

Por la desigualdad (\ref{9}), tenemos

$$\left|\dfrac{\partial f}{\partial y}(x, y)\right||y_{1} -y_{2}| \leq L|y_{1} -y_{2} | \label{11} \tag{11}$$

De los resultados (\ref{10}) y (\ref{11}) concluimos que

$$|f(x, y_{1}) -f(x, y_{2})| \leq L|y_{1} -y_{2} |$$

lo que prueba que $f$ es una función lipschitziana con respecto de la segunda variable.

$\square$

Esta proposición es bastante útil, pues basta verificar que la derivada $\dfrac{\partial f}{\partial y}$ de $f = f(x, y)$ esta acotada en un conjunto convexo $U$ para concluir que $f$ es una función lipschitziana respecto de la segunda variable. Realicemos un ejemplo.

Ejemplo: Sea $U = [-1, 1] \times \mathbb{R}$. Mostrar que la función $f: U \rightarrow \mathbb{R}$ definida como

$$f(x, y) = |x|\sin^{2}(y)$$

es una función lipschitziana respecto de la segunda variable.

Solución: Es claro que el conjunto $U$ es convexo y que existe la derivada de $f$ con respecto a $y$ dada por

$$\dfrac{\partial f}{\partial y} = 2|x|\sin(y)\cos(y)$$

Como

$$|\sin(y) \cos(y)| \leq 1$$

$\forall y \in \mathbb{R}$ y $|x| < 1, \forall x \in [-1, 1]$, notamos que

$$2|x||\sin(y)\cos(y)| \leq 2$$

Esto es,

$$\left|\dfrac{\partial f}{\partial y}\right| \leq 2$$

esto muestra que la derivada de $f$ esta acotada, por la proposición anterior concluimos que la función $f$ es lipschitziana y podemos tomar como constante de Lipchitz el valor $L = 2$.

$\square$

En este ejemplo vimos que el valor $L = 2$ es una cota de $\left|\dfrac{\partial f}{\partial y}\right|$, sin embargo cualquier número mayor a $2$ cumple también la desigualdad y por tanto también puede ser una constante de Lipschitz en $U$. En general, una buena constante de Lipschitz puede ser

$$L= \sup_{(x, y) \in U}\left|\dfrac{\partial f}{\partial y}(x, y)\right| \label{12} \tag{12}$$

De ambas proposiciones podemos realizar la siguiente caracterización de Lipschitz, bastante útil en la práctica.

En este corolario unimos los resultados de las dos proposiciones anteriores.

Con esto concluimos el estudio de las funciones lipschitzianas, es importante tener presente este último corolario ya que será de suma relevancia en la demostración del teorema de Picard.

Para concluir con esta entrada presentaremos una herramienta más que nos será de mucha utilidad a la hora de demostrar el teorema de Picard – Lindelöf, en particular nos ayudará a probar la unicidad de la solución al PVI (\ref{1}). Revisemos el Lema de Gronwall.

Lema de Gronwall

Este resultado fue desarrollado por Thomas Hakon Grönwall en 1919.

Demostración: Definamos la función

$$g(x) = \int_{x_{0}}^{x}f(t)dt \label{15} \tag{15}$$

Notemos que

$$g(x_{0}) = 0 \hspace{1cm} y \hspace{1cm} \dfrac{dg}{dx} = f(x)$$

En términos de $g(x)$ y $\dfrac{dg}{dx}$ la desigualdad (\ref{13}) se puede escribir de la siguiente forma.

$$0 \leq \dfrac{dg}{dx} \leq \alpha + \beta g(x)$$

de donde,

$$\dfrac{dg}{dx}-\beta g(x) \leq \alpha \label{16} \tag{16}$$

Multipliquemos ambos lados de la desigualdad por $e^{-\beta (x -x_{0})}$.

\begin{align*}
e^{-\beta (x -x_{0})} \left( \dfrac{dg}{dx} -\beta g(x) \right) \leq e^{-\beta (x-x_{0})} \alpha \\
e^{-\beta (x -x_{0})}\dfrac{dg}{dx}-\beta e^{-\beta (x -x_{0})} g(x) \leq \alpha e^{-\beta (x -x_{0})} \label{17} \tag{17}
\end{align*}

Identificamos que el lado izquierdo de la última desigualdad corresponde a la derivada del producto de las funciones $e^{-\beta(x -x_{0})}$ y $g(x)$, en efecto

\begin{align*}
\dfrac{d}{dx} \left( g(x) e^{-\beta (x -x_{0})} \right ) &= \dfrac{dg}{dx} e^{-\beta (x -x_{0})} + g(x) \left( -\beta e^{-\beta (x -x_{0})} \right ) \\
&= e^{-\beta (x -x_{0})} \dfrac{dg}{dx} -\beta e^{-\beta (x -x_{0})} g(x)
\end{align*}

Sustituimos en la desigualdad (\ref{17}).

$$\dfrac{d}{dx} \left( g(x)e^{-\beta (x -x_{0})} \right ) \leq \alpha e^{-\beta (x -x_{0})} \label{18} \tag{18}$$

Integremos de $x_{0}$ a $x$.

\begin{align*}
\int_{x_{0}}^{x} \dfrac{d}{dt} \left( g(t) e^{-\beta (t -x_{0})} \right ) dt &\leq \alpha \int_{x_{0}}^{x} e^{-\beta (t -x_{0})}dt \\
g(x)e^{-\beta (x -x_{0})} -g(x_{0})e^{-\beta (x_{0} -x_{0})} &\leq \alpha \left[ -\dfrac{1}{\beta} \left( e^{-\beta(x -x_{0})} -e^{-\beta(x_{0} -x_{0})} \right) \right]
\end{align*}

pero

$$g(x_{0}) = \int_{x_{0}}^{x_{0}}f(t)dt = 0 \hspace{1cm} y \hspace{1cm} e^{-\beta (x_{0} -x_{0})} = 1$$

Así,

$$g(x)e^{-\beta (x -x_{0})} \leq -\dfrac{\alpha}{\beta} \left ( e^{-\beta (x -x_{0})} -1 \right) \label{19} \tag{19}$$

Multipliquemos ambos lados de la desigualdad por $e^{\beta (x -x_{0})}$.

\begin{align*}
g(x) &\leq -\dfrac{\alpha}{\beta}e^{\beta (x -x_{0})} \left( e^{-\beta (x -x_{0})} -1 \right) \\
&= -\dfrac{\alpha}{\beta}\left( 1 -e^{\beta (x -x_{0})} \right) \\
&= \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right )
\end{align*}

es decir,

$$g(x) \leq \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right ) \label{20} \tag{20}$$

De la desigualdad original (\ref{13}) sabemos que

\begin{align*}
0 \leq f(x) &\leq \alpha +\beta \int_{x_{0}}^{x} f(t)dt \\
0 \leq f(x) &\leq \alpha + \beta g(x)
\end{align*}

de donde,

$$\dfrac{f(x) -\alpha}{\beta} \leq g(x) \label{21} \tag{21} $$

De los resultados (\ref{20}) y (\ref{21}), tenemos

$$\dfrac{f(x) -\alpha}{\beta} \leq g(x) \leq \dfrac{\alpha}{\beta}\left( e^{\beta (x -x_{0})} -1 \right)$$

lo que nos interesa es la desigualdad

$$\dfrac{f(x) -\alpha}{\beta} \leq \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right)$$

haciendo un poco de álgebra obtenemos lo siguiente.

\begin{align*}
\dfrac{f(x) -\alpha}{\beta} &\leq \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right) \\
f(x) -\alpha &\leq \beta \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right) \\
f(x) &\leq \alpha + \beta \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right) \\
f(x) &\leq \alpha + \alpha \left( e^{\beta (x -x_{0})} -1 \right) \\
f(x) &\leq \alpha + \alpha e^{\beta (x -x_{0})} -\alpha \\
f(x) &\leq \alpha e^{\beta (x-x_{0})}
\end{align*}

Por lo tanto,

$$f(x) \leq \alpha e^{\beta (x-x_{0})}$$

Con esto queda demostrado que si se cumple la desigualdad (\ref{13}), entonces $f(x) \leq \alpha e^{\beta (x -x_{0})}$, $\forall x \in I$.

$\square$

Usando el lema de Gronwall podemos demostrar el siguiente corolario de manera inmediata.

Demostración: Debido a que se cumplen todas las hipótesis del lema de Gronwall sabemos que $\forall x \in I$

$0 \leq f(x) \leq \alpha e^{\beta (x -x_{0})}$

Pero si $\alpha = 0$, entonces

$$0 \leq f(x) \leq 0$$

de donde se deduce que $f(x) = 0$, $\forall x \in I$.

$\square$

Con esto concluimos la primer entrada sobre la teoría preliminar que necesitamos conocer para poder demostrar el teorema de existencia y unicidad de Picard – Lindelöf.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Probar que la función $f: \mathbb{R} \rightarrow \mathbb{R}$, $f(x) = c$ es una función lipschitziana
  1. Probar que la función $f: \mathbb{R} \rightarrow \mathbb{R}$, $f(x) =|x|$ es lipschitziana, con $L = 1$
  1. Probar que la función $f: \mathbb{R} \rightarrow \mathbb{R}$, $f(x) = x^{2}$ no es una función lipschitziana.
    Hint: Suponer que lo es, es decir $$|f(x_{2}) -f(x_{1})| \leq L |x_{2} -x_{1}|$$ y considerar la definición de derivada $$\lim_{x_{2} \to x_{1}} \dfrac{|f(x_{2}) -f(x_{1})|}{|x_{2} -x_{1}|} = | f^{\prime}(x_{1})|$$ para llegar a una contradicción.

En los siguientes ejercicios se puede usar la definición de función lipschitziana respecto de la segunda variable o las proposiciones vistas.

  1. Probar que la función $f: U \rightarrow \mathbb{R}$ con $$U = \{(x, y): 0 \leq x \leq 1, y \in \mathbb{R} \}$$ definida como $$f(x, y) = y \cos (x)$$ es una función lipschitziana respecto de la segunda variable, con $L = 1$.
  1. Probar que la función $f: U \rightarrow \mathbb{R}$ con $$U = \{(x, y): 1 \leq x \leq 2, y \in \mathbb{R} \}$$ definida como $$f(x, y) = -\dfrac{2}{x} y + e^{x} \sin (x)$$ es una función lipschitziana respecto de la segunda variable, con $L = 2$.

Más adelante…

En esta entrada conocimos el teorema de existencia y unicidad de Picard – Lindelöf para ecuaciones diferenciales ordinarias de primer orden. Vimos que el PVI (\ref{1}) es equivalente a resolver la ecuación integral (\ref{3}), definimos a las funciones lipschitzianas de dos variables, demostramos algunos resultados al respecto y concluimos con la demostración del lema de Gronwall. Todos estos resultados los aplicaremos más adelante en la demostración del teorema de Picard – Lindelöf.

En la siguiente entrada continuaremos desarrollando esta teoría preliminar. Definiremos el concepto de aproximaciones sucesivas, mejor conocidas como iterantes de Picard, haremos un breve repaso sobre convergencia de series y sucesiones de funciones, presentaremos el resultado local del teorema de existencia y unicidad y resolveremos un ejercicio al respecto.

Entradas relacionadas

Cálculo Diferencial e Integral I: Continuidad uniforme

Introducción

En las entradas anteriores nos enfocamos en estudiar la definición de continuidad y sus propiedades. Especialmente, los teoremas revisados empleaban fuertemente el concepto de continuidad en un intervalo. En esta entrada haremos la revisión de un tipo de continuidad aún más exigente: la continuidad uniforme.

Primero recordemos que una función es continua en un intervalo $A$ si lo es para cada uno de sus elementos. Es decir,

$$\lim_{x \to y} f(x) = f(y) \quad \forall y \in A$$

En términos de la definición del límite, lo podemos ver de la siguiente forma: Dado $\varepsilon > 0$ y $y \in [a,b]$, existe $\delta > 0$ tal que para todo $x \in A$ tal que $0 < |x – y| < \delta$ se satisface que $|f(x)-f(y)| < \varepsilon$. Es importante enfatizar que, en general, el valor de $\delta$ dependerá tanto de $\varepsilon$ como de $y$.

Analicemos con mayor detalle los siguientes ejemplos:

$$f(x) = x, \quad g(x) = x^2$$

Ambas funciones son continuas en todo $\mathbb{R}$. Consideremos $y \in \mathbb{R}$ y calculemos el valor de $\delta$ en términos de un valor dado $\varepsilon > 0$ para probar la continuidad en $y$.

Para $f$, el valor de $\delta = \epsilon$ es suficiente, pues si $0<|x-y| < \delta$, entonces

$$|f(x) -f(y)| = |x-y| < \delta = \varepsilon.$$

Mientras que para $g$, el valor anteriormente dado no funciona. En este caso, como se probó en una entrada anterior, un valor de delta que funciona es $\delta’ = min \{ 1, \frac{\epsilon}{1+2|y|} \}$. Si $0 < |x-y| < \delta’$, entonces

\begin{align*}
|x^2-y^2| = & |x-y||x+y| \\ \\
< & |x-y|(1+2|y|) \\ \\
< & \delta’ (1+2|y|) \\ \\
\leq & \frac{\epsilon}{1+2|y|} \cdot (1+2|y|) = \epsilon
\end{align*}

Podemos observar que el valor de $\delta$ para $f$ depende únicamente de $\varepsilon$, mientras que para la función $g$, $\delta$ depende de $\varepsilon$ y del valor de $y$. Esto debido a que $g$ tiene cambios más «drásticos» que $f$.

Continuidad uniforme

Motivado directamente de lo anterior, si pedimos que $\delta$ no dependa de $y$, tenemos la siguiente definición.

Definición. Sea $f: A \to \mathbb{R}$. Se dice que $f$ es uniformemente continua en $A$ si para todo $\varepsilon > 0$ existe $\delta > 0$ tal que para cualesquiera $x$, $y \in A$ que satisfacen $|x-y| < \delta$, entonces $|f(x) – f(y)| < \varepsilon$.

De la definición se sigue que toda función uniformemente continua es continua, sin embargo, el recíproco no es cierto y como contraejemplo tenemos la función $g(x) = x^2$ que, como se vio al inicio, no es uniformemente continua en $\mathbb{R}$. Considerando esto, vale la pena mencionar cuándo no se tiene continuidad uniforme.

Criterios de continuidad no uniforme. Sea $f: A \to \mathbb{R}$. Entonces los siguientes enunciados son equivalentes.

  1. $f$ no es uniformemente continua en $A$.
  2. Existe $\varepsilon_0 > 0$ tal que para toda $\delta > 0$ existen los puntos $x_\delta$, $y_\delta$ en $A$ tales que $|x_\delta – y_\delta| < \delta,$ pero $|f(x_\delta) – f(y_\delta)| \geq \varepsilon_0$.
  3. Existe $\varepsilon_0 > 0$ y dos sucesiones $\{x_n\}$, $\{y_n\}$ tales que $\lim_{n \to \infty} (x_n-y_n) = 0$ y $|f(x_n)-f(y_n)| \geq \varepsilon_0$ para todo $n \in \mathbb{N}$.

Ahora revisaremos un teorema que nos servirá para saber en qué momento se tiene continuidad uniforme en un intervalo de la forma $[a,b]$.

Teorema de continuidad uniforme. Si $f$ es continua en un intervalo acotado y cerrado $[a,b]$, entonces $f$ es uniformemente continua.

Demostración.

Si $f$ no es uniformemente continua en $[a, b]$, entonces, existe $\varepsilon > 0$ y dos sucesiones $\{x_n\}$ y $\{y_n\}$ en $[a,b]$ tales que $|x_n-y_n| < \frac{1}{n}$, pero $|f(x_n)-f(y_n)| \geq \varepsilon_0$ para toda $n \in \mathbb{N}$. Puesto que $[a, b]$ está acotado, la sucesión $\{x_n\}$ también está acotada; por el teorema de Bolzano-Weierstrass, existe una subsucesión en $\{ x_{n_k} \}$ de $\{x_n\}$ que converge a un real $z$. Puesto que $[a, b]$ es un intervalo cerrado, el límite $z$ pertenece al intervalo. Además, notemos que para la subsucesión $\{y_{n_k}\}$, se tiene que

$$|y_{n_k} – z| \leq |y_{n_k} – x_{n_k}| + |x_{n_k} – z|$$

Por lo cual $\{y_{n_k} \}$ también converge a $z$.

Además, si $f$ es continua en el punto $z$, entonces las subsucesiones $\{f(x_{n_k}) \}$ y $\{f(y_{n_k}) \}$ deben converger a $f(z)$, pero esto no es posible ya que $|f(x_n)-f(y_n)| \geq \varepsilon_0$ para todo $n \in \mathbb{N}$. Por tanto, la hipótesis de que $f$ no es uniformemente continua en el intervalo acotado y cerrado $[a, b]$ implica que $f$ no es continua en algún punto $z \in [a,b]$. Por tanto, concluimos que si $f$ es continua en todo punto del intervalo $[a, b]$, entonces $f$ es uniformemente continua.

$\square$

Retomando el ejemplo $g(x) = x^2$, $g$ no es uniformemente continua en $\mathbb{R}$, sin embargo, sí es uniformemente continua en cualquier intervalo $[a,b]$ puesto que podríamos usar $\delta = min \{ 1, \frac{\epsilon}{1+2 max\{|a|, |b| \}} \}$ y este valor ya no dependería de $y$.

Funciones Lipschitz

Para las ocasiones donde se busca conocer si una función es uniformemente continua en un intervalo que no es acotado y cerrado, se convierte en una tarea difícil determinarlo. Sin embargo, existe una condición que nos ayuda a resolver este problema.

Definición. Sea $f: A \to \mathbb{R}$. Si existe una contsante $K > 0$ tal que
$$|f(x) – f(y)| \leq K|x-y|$$

para toda $x$, $y \in A$, entonces se dice que $f$ es un a función de Lipschitz en $A$.

La definición anterior nos permite clasificar a las funciones que cumplen que

$$\frac{|f(x) – f(y)|}{|x-y|} \leq K, \quad x \neq y$$

Podemos notar que la expresión anterior es justamente la pendiente de la recta que pasa por los puntos $(x, f(x))$ y $(y, f(y))$. Así, podemos interpretar que una función es de Lipschitz si la pendiente de la recta formada por cualesquiera dos puntos en $f$ están acotados por algún valor $K$.

Teorema. Si $f: A \to \mathbb{R}$ es una función de Lipschitz, entonces $f$ es uniformemente continua.

Demostración.

Sea $\varepsilon > 0$.

Considremos $\delta = \frac{\varepsilon}{K}$. Si $|x-y| < \delta$, entonces se tiene que

\begin{align*}
|f(x)-f(y)| & < K|x-y| \\
& < K \frac{\varepsilon}{K} \\ 
& = \varepsilon
\end{align*}

Por tanto, $f$ es uniformemente continua.

$\square$

Revisemos un ejemplo donde se prueba continuidad uniforme a través del teorema anterior.

Ejemplo. La función $f(x) = x^2$ es uniformemente continua en $A = [0, b]$, con $b > 0$.

Demostración.

Notemos que

\begin{align*}
|f(x)-f(y)| = & |x^2 – y^2| \\
= & |x+y||x-y| \\
\geq & 2b |x-y|
\end{align*}

Así, consideremos $K = 2b$. Como $f$ es de Lipschitz, entonces es uniformemente continua.

$\square$

Cabe resaltar que no toda función uniformemente continua es de Lipschitz, para probarlo veamos el siguiente ejemplo.

Ejemplo. La función $f(x) = \sqrt{x}$ es uniformemente continua en $A = [0,2]$, pero no es de Lipschitz.

Demostración.

Sabemos que $f$ es continua en el intervalo $[0,2]$, por tanto, $f$ es uniformemente continua.

Consideremos $x$, $y \in A$ con $y = 0$, $x \neq = 0$ y supongamos que existe $K > 0$ tal que $|g(x)-g(0)| \leq K|x – 0|$, es decir $|g(x)| < K|x|$. Entonces

\begin{gather*}
& |\sqrt{x}| < K |x| \\ \\
\Rightarrow & \sqrt{x} < K x \\ \\
\Rightarrow & \frac{\sqrt{x}}{x} < K \\ \\
\Rightarrow & \frac{1}{\sqrt{x}} < K
\end{gather*}

Notemos que $\frac{1}{(K+1)^2} \in [0,2]$, de lo cual resulta una contradicción en la última expresión. Por tanto, $f$ no es de Lipschitz.

$\square$

Finalmente, veremos un ejemplo donde usamos los dos teoremas vistos en esta entrada con la finalidad de probar continuidad uniforme.

Ejemplo. Prueba que la función $f(x) = \sqrt{x}$ es uniformemente continua en $A = [0, \infty)$.

Demostración.

Del ejemplo anterior, sabemos que $f$ es uniformemente continua en el intervalo $[0,2]$. Ahora probaremos que también lo es en el intervalo $[1,\infty)$

Sean $x$, $y \in [1, \infty)$, entonces se tiene que

\begin{align*}
|g(x)-g(y)| = & | \sqrt{x}-\sqrt{y}| \\
= & | \sqrt{x}-\sqrt{y}| \cdot \frac{\sqrt{x}+\sqrt{y}}{\sqrt{x}+\sqrt{y}} \\
= & \frac{|x-y|}{\sqrt{x}+\sqrt{y}} \\
\leq & \frac{1}{2} |x-y|
\end{align*}

Por lo tanto, $f$ es una función de Lipschitz en el intervalo $[1, \infty)$ y, en consecuencia, es uniformemente continua en tal intervalo. Como $f$ es uniformemente continua en $[0,2]$ y $[1, \infty)$, entonces también lo es en $A = [0,2] \cup [1, \infty)$.

$\square$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Demostrar que la función $f(x) = \frac{1}{x}$ es uniformemente continua en $[a, \infty)$ siendo $a$ una constante positiva.
  • Prueba que la función $f(x) = \frac{1}{x^2}$ no es uniformemente continua en $(0, \infty)$.
  • Determina si la función $f(x) = sen(\frac{1}{x})$ es o no uniformemente continua en $(0, \infty)$.
  • Demuestra que si $f$ y $g$ son funciones uniformemente continuas en $A \subseteq \mathbb{R}$, entonces $f+g$ también es uniformemente continua en $A$.
  • Demuestra que si $f$ y $g$ son funciones uniformemente continuas en $A \subseteq \mathbb{R}$ y ambas están acotadas en $A$, entonces $f \cdot g$ es uniformemente continua en $A$.

Más adelante…

En las siguientes entradas complementaremos el estudio de las funciones continuas revisando propiedades específicas relacionas con las funciones monótonas. Adicionalmente, responderemos una pregunta que surge de forma muy natural: si $f$ es una función continua, ¿qué sucede con su inversa?

Entradas relacionadas