Archivo de la etiqueta: Teorema de existencia y unicidad

Ecuaciones Diferenciales I: Teorema de Existencia y Unicidad – Iterantes de Picard y Convergencia

Por Omar González Franco

No te preocupes por tus dificultades en matemáticas.
Te puedo asegurar que las mías son aún mayores.
– Albert Einstein

Introducción

En la entrada anterior iniciamos con el desarrollo de una teoría preliminar para demostrar el teorema de existencia y unicidad de Picard – Lindelöf. Hasta ahora hemos visto que un problema de valor inicial, en el caso de ecuaciones diferenciales ordinarias de primer orden, se puede escribir de forma equivalente como una ecuación integral. Aprendimos lo que es una función lipschitziana respecto de la segunda variable, demostramos algunos resultados importantes al respecto y concluimos con la demostración del lema de Gronwall.

Continuando con esta teoría preliminar, en esta entrada definiremos las iterantes de Picard, pero antes de ello es importante hacer un breve recordatorio sobre series y sucesiones de funciones.

También enunciaremos el teorema de Picard – Lindelöf para el caso local y resolveremos un ejercicio en el que apliquemos este resultado.

Recordemos el teorema de Picard – Lindelöf para que lo tengamos presente.

Bien, comencemos con el repaso de series y sucesiones de funciones.

Series y sucesiones de funciones

En cursos anteriores ya se han estudiado series y sucesiones de funciones. Aquí presentaremos, a manera de repaso, el concepto de convergencia puntual, convergencia uniforme y convergencia absoluta, además del criterio mayorante de Weierstrass.

Recordemos que una sucesión $\{f_{n}\}$ de funciones de $D$ a $\mathbb{R}$ converge en un punto $x \in D$ cuando la sucesión de números reales $\{f_{n}(x)\}$ es convergente. Cuando esto ocurre en todos los puntos de un conjunto no vacío $I \subset D$ se dice que $\{f_{n}\}$ converge puntualmente en $I$. En tal caso podemos definir una función $f: I \rightarrow \mathbb{R}$ escribiendo

$$f(x) = \lim_{n \to \infty} f_{n}(x) \label{3} \tag{3}$$

para todo $x \in I$, y decimos que $f$ es el límite puntual de $\{f_{n}\}$ en $I$.

Por otro lado, se dice que la sucesión $\{f_{n}(x)\}$ converge uniformemente a la función $f(x)$ en $I$ si

$$\lim_{n \to \infty} \left( \sup_{x \in I} |f_{n}(x) -f(x)|\right) = 0 \label{4} \tag{4}$$

En la práctica las ecuaciones (\ref{3}) y (\ref{4}) nos serán de mucha utilidad, sin embargo es conveniente tener presente las definiciones formales de convergencia puntual y convergencia uniforme para sucesiones de funciones.

El concepto de convergencia uniforme es un concepto más fuerte que el de convergencia puntual. En el caso de convergencia puntual $N$ puede depender de $\varepsilon$ y de $x$, mientras que en la convergencia uniforme sólo puede depender de $\varepsilon$. Así, toda sucesión que converge uniformemente, converge puntualmente. El enunciado recíproco es falso, realicemos un ejemplo para mostrar esto.

Ejemplo: Mostrar que la sucesión $f_{n}: [0, 1] \rightarrow \mathbb{R}$ definida por $f_{n}(x) = x^{n}$ converge puntualmente pero no uniformemente.

Solución: Para $x \in [0, 1)$ la sucesión $f_{n}(x) = x^{n}$ converge puntualmente a $f(x) = 0$ ya que

$$|f_{n}(x) -f(x)|=|x^{n} -0| = |x^{n}| = x^{n}$$

y

$$\lim_{n \to \infty} x^{n} = 0$$

esto para $x \in [0, 1)$, pero cuando $x = 1$ ocurre que $f_{n}(1) = 1^{n} = 1$, es decir, converge puntualmente a $f(x) = 1$ y así

$$|f_{n}(x) -f(x)|=|x^{n} -1| = |1 -1| = 0$$

Geométricamente podemos observar que, en efecto, todas las gráficas convergen a $f(x) = 0$ para $x \in [0, 1)$ y sólo cuando $x = 1$ es cuando la sucesión converge a $f(x) = 1$.

Gráficas de $f_{n}(x) = x^{n}$ para distintas $n$´s.

Sin embargo, la sucesión $f_{n}(x) = x^{n}$ no converge uniformemente, es sencillo darse cuenta que no existe $N \in \mathbb{N}$ para cumplir con (\ref{5}). Por muy pequeña que tomemos a $\varepsilon$ siempre va a haber alguna $n$ para $x \in [0, 1]$ que haga que

$$|f_{n}(x) -f(x)|> \varepsilon$$

Dicho de otra forma,

$$\lim_{n \to \infty} \left( \sup_{x \in I} |f_{n}(x) -f(x)|\right) \neq 0$$

$\square$

Será necesario extender el concepto de convergencia uniforme al caso de series de funciones.

Un resultado importante que utilizaremos más adelante es el criterio de comparación directa. No lo demostraremos.

Para decir que la serie $\sum_{n = 1}^{\infty} a_{n}$ converge es común usar la notación

$$\sum_{n = 1}^{\infty} a_{n} < \infty \label{8} \tag{8}$$

Ahora definamos lo que significa que una serie sea absolutamente convergente.

La convergencia absoluta implica convergencia, pero la afirmación recíproca no es verdadera.

Una propiedad que nos será de mucha utilidad es la siguiente.

$$ \left| \sum_{n=1}^{\infty }a_{n} \right| \leq \sum_{n = 1}^{\infty}|a_{n}| \label{9} \tag{9}$$

Una herramienta más que nos será útil a la hora de demostrar el teorema de Picard – Lindelöf es el criterio mayorante de Weierstrass o mejor conocido como prueba M de Weierstrass. Este criterio nos permite comprobar la convergencia uniforme de una serie infinita cuyos términos son al mismo tiempo funciones de variable real o compleja.

Demostración: Por hipótesis sabemos que para cada $x$ en $D$

$$\left| \sum_{n = 1}^{\infty} f_{n}(x) \right| \leq \sum_{n = 1}^{\infty}|f_{n}(x)| \leq \sum_{n = 1}^{\infty }M_{n} < \infty \label{10} \tag{10}$$

es decir, la serie $\sum_{n = 1}^{\infty} M_{n}$ converge y como $|f_{n}(x)| \leq M_{n}$ y usando el criterio de comparación directa, entonces $\sum_{n = 1}^{\infty}| f_{n}(x)|$ converge, en consecuencia $\sum_{n = 1}^{\infty}f_{n}(x)$ converge absolutamente, esto significa que existe una función $f$ límite puntual de la serie de funciones tal que

$$f(x) = \sum_{n = 1}^{\infty}f_{n}(x)$$

o bien,

$$|f(x)| = \left| \sum_{n = 1}^{\infty}f_{n}(x) \right| \label{11} \tag{11}$$

Como queremos demostrar la convergencia uniforme tomemos $N \in \mathbb{N}$, tal que para $n > N$ la serie sea convergente. Vemos que podemos escribir lo siguiente.

$$\left|f(x) -\sum_{n = 1}^{N}f_{n}(x) \right| = \left |\sum_{n = N + 1}^{\infty}f_{n}(x) \right| \label{12} \tag{12}$$

sabemos que

$$\left|\sum_{n = N + 1}^{\infty}f_{n}(x) \right | \leq \sum_{n = N + 1}^{\infty} |f_{n}(x)| \label{13} \tag{13}$$

y por hipótesis

$$\sum_{n = N + 1}^{\infty}|f_{n}(x)| \leq \sum_{n = N + 1}^{\infty}M_{n} \label{14} \tag{14}$$

De los resultados (\ref{13}) y (\ref{14}) obtenemos

$$\left| \sum_{n = N + 1}^{\infty}f_{n}(x)\right| \leq \sum_{n = N + 1}^{\infty}M_{n} \label{15} \tag{15}$$

Al ser $\sum_{n = 1}^{\infty }M_{n}$ convergente, el número

$$\varepsilon = \sum_{n = N + 1}^{\infty }M_{n}$$

puede hacerse tan pequeño como se quiera eligiendo $N$ suficiente grande, así

$$\left| \sum_{n = N + 1}^{\infty}f_{n}(x) \right | < \varepsilon \label{16} \tag{16}$$

Por lo tanto, de acuerdo a (\ref{7}), la serie $\sum_{n = 1}^{\infty}f_{n}(x)$ converge uniformemente.

$\square$

Con esto concluimos nuestro repaso sobre series y sucesiones de funciones. Teniendo presente estos resultados definamos las iterantes de Picard.

Iterantes de Picard

El matemático francés Charles Émile Picard (1856 – 1941) desarrolló un método iterativo para obtener una solución de una ecuación diferencial de primer orden. A este método iterativo se le conoce como iterantes de Picard.

Las iterantes de Picard de manera desglosada tienen la siguiente forma:

\begin{align*}
y_{0}(x) &= y_{0} \\
y_{1}(x) &= y_{0} + \int_{x_{0}}^{x}f(t,y_{0}(t)) dt \\
y_{2}(x) &= y_{0} + \int_{x_{0}}^{x}f(t,y_{1}(t)) dt \\
y_{3}(x) &= y_{0} + \int_{x_{0}}^{x}f(t,y_{2}(t))dt \\
\vdots \\
y_{n}(x) &= y_{0} + \int_{x_{0}}^{x} f(t, y_{n -1}(t)) dt
\end{align*}

Las iterantes de Picard siempre convergen, en el intervalo adecuado, a la solución del PVI (\ref{1}), esto lo verificaremos al momento de demostrar el teorema de Picard – Lindelöf, pero considerando que es cierto se puede deducir un resultado interesante, para ello consideremos el siguiente teorema.

La demostración de este resultado también será parte de la demostración del teorema de Picard – Lindelöf, así que por el momento consideremos que es cierto y observemos lo siguiente.

Si las iterantes de Picard satisfacen las hipótesis del teorema anterior y suponiendo que $f(x,y)$ es una función continua en $U$ que contiene a los puntos $(x, y_{n}(x))$, $\forall x \in [a, b]$, $\forall n \in \mathbb{N},$ entonces se tiene lo siguiente.

\begin{align*}
y(x) &= \lim_{n \to \infty } y_{n + 1}(x) \\
&= \lim_{n \to \infty} \left[y_{0} + \int_{x_{0}}^{x} f(t, y_{n}(t)) dt \right] \\
&= y_{0} + \int_{x_{0}}^{x} \lim_{n \to \infty} f(t, y_{n}(t)) dt \\
&= y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt
\end{align*}

es decir,

$$ y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt \label{19} \tag{19}$$

Este resultado corresponde a la ecuación integral equivalente al problema de valor inicial. Con este método notamos que si las iterantes de Picard convergen a la solución del PVI, entonces $y(x)$ verifica la ecuación integral, tal como lo demostramos en la entrada anterior.

Por otro lado, al definir las iterantes de Picard hemos considerado un conjunto de la forma

$$R = \{ (x, y) \in \mathbb{R}^{2} \mid |x -x_{0}| \leq a, |y -y_{0}| \leq b, \hspace{0.2cm} a, b \in \mathbb{R} \}$$

La forma de este conjunto evita tener problemas para definir las iterantes. En general un conjunto de la forma $U = \delta \times \mathbb{R}$, $\delta = [a, b]$, $a, b \in \mathbb{R}$ conocidos como bandas verticales permite, no solamente que estén bien definidas, sino que además todas las iterantes estén definidas en el intervalo $\delta$.

Realicemos un ejemplo en el que apliquemos las iterantes de Picard para obtener la solución particular de un problema de valor inicial.

Ejemplo: Usando las iterantes de Picard, resolver el siguiente problema de valor inicial.

$$\dfrac{dy}{dx} = y; \hspace{1cm} y(0) = 1$$

Solución: En este caso tenemos la función, $f: \mathbb{R}^{2} \rightarrow \mathbb{R}$ definida por

$$f(x, y(x)) = y(x)$$

Es claro que es una función continua en $\mathbb{R}^{2}$. Por tanto, la ecuación integral equivalente al PVI para este caso es

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt = 1 + \int_{0}^{x} y(t)dt$$

La iterante inicial es la función constante $y_{0}(x) = 1$. Comencemos a calcular el resto de las iterantes de Picard de acuerdo a la relación iterativa (\ref{17}).

\begin{align*}
y_{1}(x) &= 1 + \int_{0}^{x} y_{0}(t) dt = 1 + \int_{0}^{x} 1dt = 1 + x \\
y_{2}(x) &= 1 + \int_{0}^{x} y_{1}(t) dt = 1 + \int_{0}^{x} (1 + t) dt = 1 + x + \dfrac{x^{2}}{2!} \\
y_{3}(x) &= 1 + \int_{0}^{x} y_{2}(t) dt = 1 + \int_{0}^{x} \left(1 + t + \dfrac{t^{2}}{2}\right) dt = 1 + x + \dfrac{x^{2}}{2!} + \dfrac{x^{3}}{3!} \\
\vdots
\end{align*}

La afirmación que hacemos es que para $n$ se obtiene

$$y_{n}(x) = 1 + \int_{0}^{x} y_{n -1}(t) dt = 1 + \dfrac{x}{1!} + \dfrac{x^{2}}{2!} + \dfrac{x^{3}}{3!} + \cdots + \dfrac{x^{n}}{n!} \label{20} \tag{20}$$

Ya lo hemos probado para $n = 1$, supongamos que la afirmación (\ref{20}) es verdadera y probemos para $n + 1$.

\begin{align*}
y_{n + 1}(x) &= 1 + \int_{0}^{x} y_{n}(t)dt \\
&= 1 + \int_{0}^{x} \left(1 + \dfrac{t}{1!} + \dfrac{t^{2}}{2!} + \cdots + \dfrac{t^{n}}{n!} \right) dt \\
&= 1 + x + \dfrac{x^{2}}{2 \cdot 1!} + \dfrac{x^{3}}{3 \cdot 2!} + \cdots + \dfrac{x^{n + 1}}{(n + 1) \cdot n!} \\
&= 1 + \dfrac{x}{1!} + \dfrac{x^{2}}{2!} + \dfrac{x^{3}}{3!} + \cdots + \dfrac{x^{n + 1}}{(n + 1)!}
\end{align*}

Esto es,

$$y_{n + 1}(x) = 1 + \dfrac{x}{1!} + \dfrac{x^{2}}{2!} + \dfrac{x^{3}}{3!} + \cdots + \dfrac{x^{n + 1}}{(n + 1)!}$$

Con esto hemos probado por inducción que las iterantes de Picard corresponden a la serie

$$y_{n}(x) = \sum_{k = 0}^{n} \dfrac{x^{k}}{k!}$$

Para obtener la solución al PVI debemos ver a qué converge esta serie, para ello tomemos el limite $n \rightarrow \infty$ observando que para cada $x \in \mathbb{R}$ existe el límite.

\begin{align*}
y(x) = \lim_{n \to \infty} y_{n}(x) = \lim_{n \to \infty} \sum_{k = 0}^{n} \dfrac{x^{k}}{k!} = \sum_{k = 0}^{\infty}\dfrac{x^{k}}{k!} = e^{x}
\end{align*}

Por lo tanto, la solución del problema de valor inicial

$$\dfrac{dy}{dx} = y; \hspace{1cm} y(0) = 1$$

es

$$y(x) = e^{x}$$

Sólo para verificar el resultado apliquemos el método de separación de variables para resolver el PVI.

\begin{align*}
\dfrac{dy}{dx} &= y \\
\dfrac{1}{y}\dfrac{dy}{dx} &= 1 \\
\int{\dfrac{dy}{y}} &= \int{dx} \\
\ln y &= x + c \\
y &= Ce^{x}
\end{align*}

La solución general de la ecuación diferencial $\dfrac{dy}{dx} = y$ es $y(x) = Ce^{x}$.

Apliquemos la condición inicial $y(0) = 1$.

$$y(0) = Ce^{0} = C = 1$$

En efecto, la solución al PVI es $y(x) = e^{x}$, tal como lo obtuvimos con las iterantes de Picard.

Para garantizar que las iterantes de Picard convergen a la solución del PVI se deben satisfacer las condiciones del teorema de existencia y unicidad, pero las hemos pasado por alto ya que el propósito de este ejercicio es ver cómo calcular las iterantes de Picard, sin embargo cabe mencionar que este PVI si las cumple por lo que la solución obtenida si es única. Más adelante veremos un ejemplo en el que si verificaremos que se cumple el teorema de existencia y unicidad.

$\square$

Con esto concluimos con la teoría preliminar que necesitamos conocer para demostrar el teorema de existencia y unicidad de Picard – Lindelöf. Sin embargo, es necesario hacer algunas aclaraciones.

Anteriormente mencionamos que existe un resultado global y uno local y esto es porque existen dos situaciones. En el teorema de Picard – Lindelöf hemos considerado como hipótesis un conjunto de la forma $U = \delta \times \mathbb{R}$ con $\delta = [a, b]$, $a, b \in \mathbb{R}$ y $f: U \rightarrow \mathbb{R}$ continua en $U$, además de que $f$ sea lipschitziana respecto de la segunda variable en $U$, estas condiciones son suficientes para tener un resultado global en el que siempre tendremos una solución única del problema de valor inicial definida en $\delta$, sin embargo es posible y más común que el conjunto $U$ no sea una banda vertical o siéndolo que $f$ no sea lipschitziana respecto de la segunda variable en $U$ o ambas a la vez. En esta segunda situación, bajo determinadas hipótesis, tendremos un teorema de existencia y unicidad local.

A continuación presentamos el teorema de existencia y unicidad local, este teorema no lo demostraremos pero gran parte de lo que veremos en la demostración del resultado global puede ser adaptado a las condiciones de este teorema.

Teorema de existencia y unicidad local

Es usual encontrarnos con ecuaciones diferenciales donde no se cumplan las tres condiciones del teorema global, sin embargo es posible que se cumplan en un pequeño conjunto $R \subset \mathbb{R}^{2}$ que contenga el punto $(x_{0}, y_{0})$ del PVI, de ahí la localidad del teorema. El conjunto compacto y convexo que más se parece a una banda vertical es el producto cartesiano de dos intervalos compactos en $\mathbb{R}$, es decir, un rectángulo con lados paralelos a los ejes de coordenadas. Un conjunto apropiado sería un rectángulo centrado en el punto $(x_{0}, y_{0})$.

$$R = \{(x, y) \in \mathbb{R}^{2} \mid |x- x_{0}| < a, |y -y_{0}| < b, \hspace{0.2cm} a, b \in \mathbb{R} \} \label{21} \tag{21}$$

El teorema de existencia y unicidad local establece lo siguiente.

En este curso nos enfocamos en el resultado global porque es un resultado general, sin embargo el resultado local nos permite hallar una región cerca del punto $(x_{0}, y_{0})$ donde un problema de valor inicial puede cumplir con las hipótesis del teorema para garantizar la existencia y unicidad de una solución, de esta forma es que, en la práctica, el resultado local puede ser un resultado más útil.

La demostración a detalle de este teorema se puede encontrar en la sección de videos de este mismo curso.

Para concluir esta entrada realicemos un ejemplo de un problema de valor inicial en el que apliquemos el teorema local para garantizar la existencia y unicidad de la solución y resolvamos el PVI aplicando las iterantes de Picard.

Aplicación del teorema de existencia y unicidad

  • Verificar las hipótesis del teorema local para el siguiente problema de valor inicial.

$$\dfrac{dy}{dx} = 2x(y -1); \hspace{1cm} y(0) = 2 \label{23} \tag{23}$$

  • Resolver este problema usando las iterantes de Picard.
  • Hallar el intervalo de solución $\delta$.

Solución: El primer ejercicio consiste en verificar que el PVI satisface las hipótesis del teorema local.

En este caso la función $f$ está dada por

$$f(x, y) = 2x(y -1)$$

la cual está definida en todo $\mathbb{R}^{2}$. Buscamos la solución particular que pasa por el punto $(x_{0}, y_{0}) = (0, 2)$ y como la función es continua en $\mathbb{R}^{2}$, en particular lo es en todo rectángulo de la forma

$$R = \{(x, y) \in \mathbb{R}^{2} \mid |x| \leq a, |y -2| \leq b \}, \hspace{1cm} (a > 0, b > 0) \label{24} \tag{24}$$

Con esto hemos verificado las dos primeras hipótesis del teorema local, veamos ahora si la función es lipschitziana.

Para todo $(x, y_{1}), (x, y_{2})$ puntos de $R$, se tiene

\begin{align*}
|f(x, y_{1}) -f(x, y_{2})| &= |2x(y_{1} -1) -2x(y_{2} -1)| \\
&= 2|x||y_{1} -y_{2}| \\
&= 2|x||(y_{1} -2) + (2 -y_{2})| \\
&\leq 2|x|(|y_{1} -2| + |2 -y_{2}|) \\
\end{align*}

Como $|x| \leq a$ y $|y -2| \leq b$, en particular

$$|y_{1} -2| + |2 -y_{2}| \leq b + b = 2b$$

entonces podemos acotar el último resultado de la siguiente manera.

$$2|x|(|y_{1} -2| + |2 -y_{2}|) \leq 2(a)(2b) = 4ab$$

Si definimos la constante de Lipschitz $L = 4ab$, obtenemos finalmente que

$$|f(x, y_{1}) -f(x, y_{2})| \leq L = 4ab \label{25} \tag{25}$$

probando así que $f$ es Lipschitziana en $U$.

Con esto hemos verificado que se cumplen las hipótesis del teorema local de Picard, por lo tanto podemos concluir que existe una única solución $y = y(x)$ al problema de valor inicial dado. Ahora resolvamos el PVI usando las iterantes de Picard.

Recordemos que las iterantes de Picard $y_{n}(x)$ asociadas al problema de valor inicial son

$$y_{0}(x) = y_{0}, \hspace{1cm} y_{n}(x) = y_{0} + \int_{x_{0}}^{x} f(t, y_{n -1}(t)) dt$$

Ya sabemos que $y_{0} = 2$ y $x_{0} = 0$ y recordemos que la función $f$ es $f(x, y) = 2x(y-1)$, así para $n = 1$, tenemos

$$y_{1}(x) = 2 + \int_{0}^{x} f(t, 2) dt = 2 + \int_{0}^{x} 2t(2 -1) dt = 2 + x^{2}$$

$$\Rightarrow y_{1}(x) = 2 + x^{2}$$

Para $n = 2$, tenemos

$$y_{2}(x) = 2 + \int_{0}^{x} f(t, 2 + t^{2}) dt = 2 + \int_{0}^{x} 2t(1 + t^{2})dt = 2 +x^{2} + \dfrac{x^{4}}{2}$$

$$\Rightarrow y_{2}(x) = 2 +x^{2} + \dfrac{x^{4}}{2}$$

Para $n = 3$, se tiene

$$y_{3}(x) = 2 + \int_{0}^{x} f \left( t, 2 + t^{2} + \dfrac{t^{4}}{2} \right) dt = 2 + \int_{0}^{x} 2t \left( 1 + t^{2} + \dfrac{t^{4}}{2} \right) dt$$

$$\Rightarrow y_{3}(x) = 2 + x^{2} + \dfrac{x^{4}}{2} + \dfrac{x^{6}}{3!}$$

Uno más, para $n = 4$, tenemos

$$y_{4}(x) = 2 + \int_{0}^{x} f \left( t, 2 + t^{2} + \dfrac{t^{4}}{2} + \dfrac{t^{6}}{3!} \right) dt = 2 + \int_{0}^{x} 2t \left( 1 + t^{2} + \dfrac{t^{4}}{2} + \dfrac{t^{6}}{3!} \right) dt$$

$$\Rightarrow y_{4}(x) = 2 + x^{2} + \dfrac{x^{4}}{2} + \dfrac{x^{6}}{3!} + \dfrac{x^{8}}{4!}$$

Estas iteraciones sugieren la siguiente serie.

$$y_{n}(x) = 1 + 1 + x^{2} + \dfrac{x^{4}}{2!} + \dfrac{x^{6}}{3!} + \dfrac{x^{8}}{4!} + \cdots +\dfrac{x^{2n}}{n!}$$

Esta fórmula es cierta para $n = 1,2,3, 4$ y si es cierta para $n$, entonces podemos sustituirla en la formula general de las iterantes de Picard mostrando que es cierta para $n+1$.

\begin{align*}
y_{n + 1}(x) &= 2 + \int_{0}^{x} f(t, y_{n}(t))dt \\
&= 2 + \int_{0}^{x} 2t\left( 1 + t^{2} + \dfrac{t^{4}}{2} + \dfrac{t^{6}}{3!} + \dfrac{t^{8}}{4!} + \cdots + \dfrac{t^{2n}}{n!}\right) dt \\
&= 2 + x^{2} + \dfrac{x^{4}}{2} + \dfrac{x^{6}}{3!} + \dfrac{x^{8}}{4!} + \dfrac{x^{10}}{5!} + \cdots + \dfrac{x^{2(n + 1)}}{(n + 1)!}
\end{align*}

Por lo tanto,

$$y_{n}(x) = 1 + \sum_{k = 0}^{n}\dfrac{x^{2k}}{k!} \label{26} \tag{26}$$

Como el PVI cumple con las hipótesis del teorema de existencia y unicidad entonces el límite $n \rightarrow \infty$ de las iterantes de Picard será la solución al problema de valor inicial. Apliquemos el límite a la serie (\ref{26}).

\begin{align*}
y(x) &= \lim_{n \to \infty} y_{n}(x) \\
&= \lim_{n \to \infty} \left( 1 + \sum_{k = 0}^{n} \dfrac{(x^{2})^{k}}{k!} \right) \\
&= 1 + \lim_{n \to \infty} \left( \sum_{k = 0}^{n} \dfrac{(x^{2})^{k}}{k!} \right) \\
&= 1 +\sum_{k = 0}^{\infty} \dfrac{(x^{2})^{k}}{k!} \\
&= 1 + e^{x^{2}}
\end{align*}

Por lo tanto, la solución al PVI (\ref{23}) es

$$y(x) = 1 + e^{x^{2}} \label{27} \tag{27}$$

Inmediatamente se puede verificar que $y(0)=2$ y que para todo $x \in \mathbb{R}$

$$\dfrac{dy}{dx} = 2xe^{x^{2}} = 2x \left(e^{x^{2}} \right) = 2x (y -1)$$

lo cual implica que la solución es válida en $\delta = (-\infty, \infty)$.

Sólo para verificar el resultado resolvamos rápidamente este PVI aplicando el método de separación de variables.

\begin{align*}
\dfrac{dy}{dx} &= 2x(y -1) \\
\dfrac{1}{y -1} \dfrac{dy}{dx} &= 2x \\
\int {\dfrac{dy}{y -1}} &= \int {2x dx} \\
\ln{(y -1)} &= x^{2} + c \\
y -1 &= e^{x^{2} + c} \\
y &= 1 + Ce^{x^{2}}
\end{align*}

La solución general a la ecuación diferencial

$$\dfrac{dy}{dx} = 2x(y -1)$$

es

$$y(x) = 1 + Ce^{x^{2}}$$

Apliquemos la condición inicial $y(0) = 2$.

$$y(0) = 1 + Ce^{0} = 1 + C = 2$$

De donde $C = 2 -1 = 1$. Con este resultado concluimos que la solución particular es

$$y(x) = 1 + e^{x^{2}}$$

tal como lo obtuvimos con las iterantes de Picard.

$\square$

Ya sea el resultado global o el local, este teorema garantiza completamente la existencia y unicidad de la solución particular a un problema de valor inicial para el caso de una ecuación diferencial de primer orden.

En los métodos de resolución presentados a lo largo de esta unidad hemos pasado por alto las condiciones del teorema de Picard – Lindelöf y hemos tratado de justificar nuestros resultados con los teoremas de existencia y unicidad presentados para el caso de una ED de primer orden y para el caso de una ED de primer orden lineal, se hizo esto debido a la complejidad de la demostración del teorema de Picard – Lindelöf, pero ahora ya contamos con todo lo necesario para demostrarlo y así darle una completa justificación a lo que hemos hecho a lo largo de esta primer unidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Sea la sucesión de funciones $\{f_{n}\}$ donde, para cada $n \in \mathbb{N}$, $f_{n}: \mathbb{R} \rightarrow \mathbb{R}$ es la función dada por $$f_{n}(x) = \dfrac{x^{2n}}{1 + x^{2n}}$$ $\forall x\in \mathbb{R}$. Estudiar la convergencia puntual y uniforme de $\{f_{n}(x)\}$.
  1. Sea la sucesión de funciones $\{f_{n}\}$ donde, para cada $n \in \mathbb{N}$, $f_{n}: \mathbb{R} \rightarrow \mathbb{R}$ es la función dada por $$f_{n}(x) = \dfrac{x}{1 + nx^{2}}$$ $\forall x\in \mathbb{R}$. Estudiar la convergencia puntual y uniforme de $\{f_{n}(x)\}$.
  1. Resolver el siguiente problema de valor inicial usando las iterantes de Picard. $$\dfrac{dy}{dx} = x + y; \hspace{1cm} y(0) = 2$$ Verificar el resultado resolviendo el PVI usando algún método visto anteriormente.
  1. Resolver el siguiente problema de valor inicial usando las iterantes de Picard. $$\dfrac{dy}{dx} = 2(y + 1); \hspace{1cm} y(0) = 0$$ Verificar el resultado resolviendo la ecuación usando algún método visto anteriormente.

Más adelante…

Con esta entrada concluimos con la teoría preliminar necesaria para poder demostrar el resultado global del teorema de existencia y unicidad de Picard – Lindelöf. Hemos hecho un breve repaso sobre convergencia de series y sucesiones de funciones, definimos las iterantes de Picard y presentamos el resultado local del teorema de existencia y unicidad.

Usando lo visto en esta y la anterior entrada concluiremos la primera unidad del curso demostrando el resultado global del teorema de existencia y unicidad de Picard – Lindelöf.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Teorema de Existencia y Unicidad – Ecuación Integral, Funciones Lipschitzianas y Lema de Gronwall

Por Omar González Franco

Estudié matemáticas, la locura de la razón.
– Benjamin Moser

Introducción

A lo largo de esta primera unidad hemos estudiado una variedad de ecuaciones diferenciales ordinarias de primer orden y hemos desarrollado distintas técnicas para resolver cada tipo de ecuación. Vimos que una sola ecuación puede tener infinitas soluciones y sólo cuando le imponemos una condición inicial es como podremos obtener una solución particular de esa ecuación diferencial. Ahora bien, si la solución existe, entonces debe ser única pero, ¿es siempre cierto esto?.

Ya presentamos el teorema de existencia y unicidad para ecuaciones diferenciales de primer orden y el teorema de existencia y unicidad para el caso de ecuaciones diferenciales lineales de primer orden, nuestro objetivo ahora es tener un teorema de existencia y unicidad general que pueda aplicarse a cualquier ecuación diferencial ordinaria de primer orden.

Este teorema, conocido como teorema de existencia y unicidad de Picard – Lindelöf contiene las hipótesis suficientes para garantizar que si existe una solución a un problema de valor inicial (PVI), entonces dicha solución es única.

Cabe mencionar que es posible enunciar un teorema de existencia y unicidad de tipo global y uno de tipo local. En el caso de tipo global el intervalo de existencia de la solución se conoce a priori, mientras que en uno de tipo local se asegura que existe un intervalo, en un principio desconocido, donde el PVI tiene solución única. En este curso demostraremos el resultado de tipo global y veremos que el de tipo local es consecuencia del global, además de que puedes encontrar la demostración al teorema de tipo local en la sección de videos.

Demostrar el teorema de existencia y unicidad de Picard – Lindelöf no es tarea fácil, primero será necesario desarrollar una teoría preliminar en la que estableceremos algunos conceptos nuevos y, así mismo, haremos un breve repaso sobre conceptos que conocemos y que nos serán de utilidad para demostrar dicho teorema. Esta teoría preliminar la desarrollaremos a lo largo de esta y la siguiente entrada para finalmente demostrar el teorema en la última entrada de esta primera unidad.

Comenzaremos enunciando el teorema de existencia y unicidad de Picard – Lindelöf para tenerlo presente, a pesar de que quizá algunas cosas no queden claras, el objetivo de esta teoría preliminar será comprender lo que nos quiere decir este teorema, además de brindarnos las herramientas necesarias para demostrarlo.

Bien, ¡comencemos!.

Teorema de Existencia y Unicidad de Picard-Lindelöf

El teorema global de existencia y unicidad para ecuaciones diferenciales ordinarias de primer orden es el siguiente.

Una observación importante es que el punto $(x_{0}, y_{0})$ puede estar en la frontera de la banda vertical $U = [a, b] \times \mathbb{R}$, es decir, puede ser de la forma $(a, y_{0})$ o $(b, y_{0}).$

Podemos notar que en el enunciado se hace mención de términos que aún no conocemos, como lo son función lipschitziana e Iterantes de Picard, así que necesitamos definirlos.

Este teorema corresponde al resultado global en el que el intervalo es una banda vertical $U = [a, b] \times \mathbb{R}$, en el caso local se considera una región limitada definida como

$$R = \{ (x, y) \in \mathbb{R}^{2}:|x -x_{1}| \leq a, |y -y_{1}| \leq b, \hspace{0.3cm} a, b \in \mathbb{R} \}$$

y la solución esta definida en el intervalo $\delta = [x_{0} -h, x_{0} + h]$ para cierta $h \in \mathbb{R}$. Una vez demostrado el resultado global retomaremos el caso local.

En esta teoría preliminar veremos que el PVI (\ref{1}) puede ser equivalente a resolver una ecuación integral, estudiaremos las funciones lipschitzianas de una y dos variables, demostraremos algunas proposiciones al respecto, demostraremos el lema de Gronwall, repasaremos algunos conceptos importantes sobre sucesiones, series y convergencia, definiremos las iteraciones de Picard y veremos algunos ejemplos. Una vez desarrollada esta teoría pasaremos a la demostración del teorema de existencia y unicidad.

Para comenzar, veamos que el PVI (\ref{1}) se puede escribir de forma equivalente como una ecuación integral cuando la función $f$ es continua.

Ecuación integral equivalente a un PVI

Un PVI como (\ref{1}) se puede escribir de forma equivalente como una ecuación integral en el caso en el que la función $f$ sea continua. Evidentemente este no es un curso ecuaciones integrales, pero para entender esta equivalencia definiremos lo que es una ecuación integral.

Teniendo en cuenta esta definición demostremos nuestro primer teorema de esta teoría preliminar el cual refleja el hecho de que un PVI como (\ref{1}) es equivalente a resolver una ecuación integral.

Demostración:

$\Rightarrow$ Supongamos que $y: \delta \rightarrow \mathbb{R},$ con gráfica contenida en $U$, es solución del PVI, entonces cumple que

$$\dfrac{dy}{dx} = f(x, y); \hspace{1cm} y(x_{0}) = y_{0}$$

Como $y$ es solución de la ecuación diferencial en el intervalo $\delta$, entonces debe ser continua en el mismo intervalo, así tenemos que $f$ y $y$ son continuas y por tanto $\dfrac{dy}{dx}$ y la función

$$g: \delta \rightarrow \mathbb{R}, \hspace{1cm} t \rightarrow g(t) = f(t, y(t))$$

también son continuas, de esta manera podemos integrar la ecuación $\dfrac{dy}{dx} = f(x, y)$ para cualquier $x \in \delta$.

\begin{align*}
\int_{x_{0}}^{x}\dfrac{dy}{dx}(t)dt &= \int_{x_{0}}^{x} f(t, y(t)) dt \\
\end{align*}

Aplicando el teorema fundamental del cálculo (regla de Barrow) en el lado izquierdo de la ecuación, tenemos

\begin{align*}
y(x) -y(x_{0}) &= \int_{x_{0}}^{x} f(t, y(t))dt \\
y(x) &= y(x_{0}) + \int_{x_{0}}^{x} f(t, y(t)) dt \\
y(x) &= y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt
\end{align*}

obteniendo así que $y(x)$ verifica la ecuación integral (\ref{3}).

$\Leftarrow$ Ahora supongamos que $y(x)$ es una función continua en $\delta$ y que satisface la ecuación integral

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt$$

Derivemos esta expresión.

\begin{align*}
\dfrac{dy}{dx} &= \dfrac{d}{dx} \left( y_{0} + \int_{x_{0}}^{x} f(t, y(t))dt \right) \\
&= \dfrac{dy_{0}}{dx} + \dfrac{d}{dx} \left( \int_{x_{0}}^{x} f(t, y(t))dt \right) \\
&= 0 + f(x, y) \\
&= f(x, y)
\end{align*}

Donde se ha aplicado el teorema fundamental del cálculo. Con este resultado vemos que se ha recuperado la ecuación diferencial $\dfrac{dy}{dx} = f(x, y)$, mostrando así que $y(x)$ es solución a la ecuación diferencial y además

\begin{align*}
y(x_{0}) = y_{0} + \int_{x_{0}}^{x_{0}} f(t, y(t)) dt = y_{0} + 0 = y_{0}
\end{align*}

es decir, se satisface la condición inicial $y(x_{0}) = y_{0}$, de esta manera queda demostrado que $y(x)$ es solución del PVI.

$\square$

Este resultado es muy útil en muchos resultados sobre ecuaciones diferenciales y nos será de utilidad para motivar, más adelante, la introducción a las llamadas iterantes de Picard.

Continuando con nuestra teoría preliminar, un concepto sumamente importante que estudiaremos a continuación es el de funciones lipschitzianas.

Funciones Lipschitzianas

Como estamos trabajando con la ecuación diferencial

$$\dfrac{dy}{dx} = f(x, y)$$

la función $f$ es una función de dos variables, así que nos interesa estudiar las funciones lipschitzianas de dos variables, sin embargo es probable que este sea un concepto nuevo y para que sea más intuitivo entenderlo presentaremos la definición de función lipschitziana para el caso de una función de una variable y realizaremos algunos ejemplos sencillos para posteriormente definir la función lipschitziana en el caso de dos variables.

Con esta definición observamos que si $x_{1} \neq x_{2}$ el cociente

$$\dfrac{f(x_{1}) -f(x_{2})}{x_{1} -x_{2}}$$

corresponde a la pendiente de la recta secante a la gráfica de $f$ que pasa por los puntos $(x_{1}, f(x_{1}))$ y $(x_{2}, f(x_{2}))$, de esta forma la condición de Lipschitz indica que todas estas pendientes están acotadas, es decir, existe una constante $L > 0$, tal que

$$\left|\dfrac{f(x_{1}) -f(x_{2})}{x_{1} -x_{2}} \right|\leq L$$

para cada $x_{1}, x_{2} \in I$, con $x_{1} \neq x_{2}$.

Recta secante que une a los puntos $(x_{1}, f(x_{1}))$ y $(x_{2}, f(x_{2}))$.

No entraremos es muchos detalles para el caso de una función de una variable, pero cabe mencionar que cualquier función lipschitziana es uniformemente continua, ya que dado $\varepsilon > 0$ basta tomar $\delta = \dfrac{\varepsilon}{L}$ y la condición de Lipschitz (\ref{4}) para que se verifique que

$$|x_{1} -x_{2}| < \delta \Rightarrow |f(x_{1}) -f(x_{2})| < \varepsilon$$

Como ejemplo mostremos que toda recta es una función lipschitziana.

Ejemplo: Mostrar que la función

$$f(x) = mx + b$$

es una función lipschitziana, con $L = |m|$.

Solución: Queremos probar que se cumple (\ref{4}). Vemos que

\begin{align*}
|f(x_{1}) -f(x_{2})| &= |mx_{1} + b -(mx_{2} + b)| \\
&= |mx_{1} + b -mx_{2} -b| \\
&= |mx_{1} -mx_{2}| \\
&= |m||x_{1} -x_{2}|\\
&= L|x_{1} -x_{2}|
\end{align*}

En donde consideramos que $L = |m|$. En este caso se da la igualdad

$$|f(x_{1}) -f(x_{2})| = L |x_{1} -x_{2}|$$

probando así que la función $f(x) = mx + b$ es una función Lipschitziana.

$\square$

Hay funciones uniformemente continuas que no son lipschitzianas, un ejemplo puede ser la función $f:[0, 1] \rightarrow \mathbb{R}$ definida como $f(x) = \sqrt{x}$, esta función es uniformemente continua pero no lipschitziana. Mostremos este hecho.

Ejemplo: Mostrar que la función $f:[0, 1] \rightarrow \mathbb{R}$, definida como $f(x) = \sqrt{x}$ no es lipschitziana.

Solución: Vamos a suponer que la función $f(x) = \sqrt{x}$ es lipschitziana y lleguemos a una contradicción. Si $f(x) = \sqrt{x}$ fuera lipschitziana debería satisfacer que

$$|f(x_{1}) -f(x_{2})| \leq L |x_{1} -x_{2}|$$

$\forall x_{1}, x_{2} \in [0, 1]$ y para alguna $L \geq 0$. Vemos que

$$|f(x) -f(0)| = |\sqrt{x} -\sqrt{0}| \leq L |x -0|$$

es decir, $\forall x \in [0, 1]$ ($x$ es positiva),

$$\sqrt{x} \leq L x$$

Si $x \in (0, 1]$ ($x \neq 0$), entonces

$$\dfrac{\sqrt{x}}{x} \leq L \Rightarrow \dfrac{1}{\sqrt{x}} \leq L$$

Este último resultado nos dice que la función $\dfrac{1}{\sqrt{x}}$ esta acotada por $L$ para $x \in (0, 1]$, sin embargo si tomamos el límite $x \rightarrow 0$ por la derecha obtenemos

$$\lim_{x \to 0^{+}}\frac{1}{\sqrt{x}} = \infty \hspace{1cm} !$$

Hemos llegado a una contradicción y todo ocurrió de suponer que la función $f(x) = \sqrt{x}$ era lipschitziana. Por lo tanto, a pesar de ser uniformemente continua, $f(x) = \sqrt{x}$ no es lipschitziana.

$\square$

Un resultado más que no demostraremos es el siguiente teorema.

Hay funciones lipschitzianas que no son derivables, por ejemplo la función $f: \mathbb{R} \rightarrow \mathbb{R}$ definida por $f(x) = |x|$.

Podemos decir, entonces, que la condición de Lipschitz es una condición intermedia entre continuidad uniforme y la existencia de derivada acotada.

Con esto en mente, ahora definamos lo que es una función lipschitziana para el caso en el que la función $f$ es de dos variables. Para este caso, la condición de Lipschitz sólo afectará a una de las variables, concretamente a la segunda, importante considerar este hecho.

La relación (\ref{5}) es lo que se pide que se cumpla en la tercer hipótesis del teorema de Picard – Lindelöf.

Enunciemos dos proposiciones importantes con respecto a las funciones lipschitzianas de dos variables que nos serán de utilidad a la hora de demostrar el teorema de Picard – Lindelöf.

Demostración: Sea $f(x, y)$ una función lipschitziana respecto de la variable $y$ y supongamos que existe su derivada parcial con respecto a dicha variable $\dfrac{\partial f}{\partial y}$. Por definición, para $(x, y) \in U$ se tiene que

$$\dfrac{\partial f}{\partial y}(x, y) \doteq \lim_{h \to 0}\dfrac{f(x, y + h) -f(x, y)}{h} \label{7} \tag{7}$$

Dado un $\delta > 0$ y para $h$ suficientemente pequeño $|h|< \delta$, el punto $(x, y + h)$ pertenece a $U$. Sea $L$ una constante de Lipschitz de $f$ respecto de $y$ en $U$. De acuerdo a la definición de la condición de Lipschitz se verifica que

$$|f(x, y + h) -f(x, y)| \leq L |y + h -y| = L|h| \label{8} \tag{8}$$

Usando (\ref{7}) y (\ref{8}) tenemos lo siguiente.

\begin{align*}
\left|\dfrac{\partial f}{\partial y}(x, y) \right| &= \left|\lim_{h \to 0} \dfrac{f(x, y + h) -f(x, y)}{h}\right| \\
&= \lim_{h \to 0}\left|\dfrac{f(x, y + h) -f(x, y)}{h} \right| \\
&\leq \lim_{h \to 0} \dfrac{L|h|}{|h|} = L
\end{align*}

Esto es,

$$\left| \dfrac{\partial f}{\partial y}(x, y) \right| \leq L$$

lo que significa que $\dfrac{\partial f}{\partial y}$ esta acotada en $U$ por la constante de Lipschitz $L$.

$\square$

Ahora revisemos el resultado recíproco de la proposición anterior en donde es necesario que $U$ sea un conjunto convexo.

Demostración: Para demostrar esta proposición haremos uso del teorema del valor medio para funciones de una variable, de aquí la necesidad de que $U$ sea convexo.

Por hipótesis, $\dfrac{\partial f}{\partial y}$ esta acotada en $U$, sea $L > 0$, tal que

$$ \left| \dfrac{\partial f}{\partial y}(x, y)\right|\leq L \label{9} \tag{9}$$

para cada $(x, y) \in U$, y sean $(x, y_{1}), (x, y_{2}) \in U$ con $y_{1} < y_{2}$. Como $U$ es convexo tenemos garantizado que para cada $y$ tal que $y_{1} < y < y_{2}$ el punto $(x, y)$ pertenece a $U$, pues dicho punto pertenece al segmento que une los puntos $(x, y_{1})$ y $(x, y_{2})$, con estos resultados la función

$g_{x}:[y_{1}, y_{2}] \rightarrow \mathbb{R}, \hspace{1cm} g_{x}(y) = f(x, y)$

está bien definida y es derivable

$$g_{x}^{\prime}(y) = \dfrac{\partial f}{\partial y}(x, y)$$

para cada $y \in [y_{1}, y_{2}]$. Por el teorema del valor medio, existe $y$ tal que $y_{1} < y < y_{2}$ y tal que

$g_{x}(y_{1}) -g_{x}(y_{2}) = g_{x}^{\prime}(y) (y_{1} -y_{2})$

es decir,

$f(x, y_{1}) -f(x, y_{2}) = \dfrac{\partial f}{\partial y}(x, y)(y_{1} -y_{2})$

Esta igualdad también la podemos escribir como

$$|f(x, y_{1}) -f(x, y_{2})| = \left|\dfrac{\partial f}{\partial y}(x, y)\right||y_{1} -y_{2}| \label{10} \tag{10}$$

Por la desigualdad (\ref{9}), tenemos

$$\left|\dfrac{\partial f}{\partial y}(x, y)\right||y_{1} -y_{2}| \leq L|y_{1} -y_{2} | \label{11} \tag{11}$$

De los resultados (\ref{10}) y (\ref{11}) concluimos que

$$|f(x, y_{1}) -f(x, y_{2})| \leq L|y_{1} -y_{2} |$$

lo que prueba que $f$ es una función lipschitziana con respecto de la segunda variable.

$\square$

Esta proposición es bastante útil, pues basta verificar que la derivada $\dfrac{\partial f}{\partial y}$ de $f = f(x, y)$ esta acotada en un conjunto convexo $U$ para concluir que $f$ es una función lipschitziana respecto de la segunda variable. Realicemos un ejemplo.

Ejemplo: Sea $U = [-1, 1] \times \mathbb{R}$. Mostrar que la función $f: U \rightarrow \mathbb{R}$ definida como

$$f(x, y) = |x|\sin^{2}(y)$$

es una función lipschitziana respecto de la segunda variable.

Solución: Es claro que el conjunto $U$ es convexo y que existe la derivada de $f$ con respecto a $y$ dada por

$$\dfrac{\partial f}{\partial y} = 2|x|\sin(y)\cos(y)$$

Como

$$|\sin(y) \cos(y)| \leq 1$$

$\forall y \in \mathbb{R}$ y $|x| < 1, \forall x \in [-1, 1]$, notamos que

$$2|x||\sin(y)\cos(y)| \leq 2$$

Esto es,

$$\left|\dfrac{\partial f}{\partial y}\right| \leq 2$$

esto muestra que la derivada de $f$ esta acotada, por la proposición anterior concluimos que la función $f$ es lipschitziana y podemos tomar como constante de Lipchitz el valor $L = 2$.

$\square$

En este ejemplo vimos que el valor $L = 2$ es una cota de $\left|\dfrac{\partial f}{\partial y}\right|$, sin embargo cualquier número mayor a $2$ cumple también la desigualdad y por tanto también puede ser una constante de Lipschitz en $U$. En general, una buena constante de Lipschitz puede ser

$$L= \sup_{(x, y) \in U}\left|\dfrac{\partial f}{\partial y}(x, y)\right| \label{12} \tag{12}$$

De ambas proposiciones podemos realizar la siguiente caracterización de Lipschitz, bastante útil en la práctica.

En este corolario unimos los resultados de las dos proposiciones anteriores.

Con esto concluimos el estudio de las funciones lipschitzianas, es importante tener presente este último corolario ya que será de suma relevancia en la demostración del teorema de Picard.

Para concluir con esta entrada presentaremos una herramienta más que nos será de mucha utilidad a la hora de demostrar el teorema de Picard – Lindelöf, en particular nos ayudará a probar la unicidad de la solución al PVI (\ref{1}). Revisemos el Lema de Gronwall.

Lema de Gronwall

Este resultado fue desarrollado por Thomas Hakon Grönwall en 1919.

Demostración: Definamos la función

$$g(x) = \int_{x_{0}}^{x}f(t)dt \label{15} \tag{15}$$

Notemos que

$$g(x_{0}) = 0 \hspace{1cm} y \hspace{1cm} \dfrac{dg}{dx} = f(x)$$

En términos de $g(x)$ y $\dfrac{dg}{dx}$ la desigualdad (\ref{13}) se puede escribir de la siguiente forma.

$$0 \leq \dfrac{dg}{dx} \leq \alpha + \beta g(x)$$

de donde,

$$\dfrac{dg}{dx}-\beta g(x) \leq \alpha \label{16} \tag{16}$$

Multipliquemos ambos lados de la desigualdad por $e^{-\beta (x -x_{0})}$.

\begin{align*}
e^{-\beta (x -x_{0})} \left( \dfrac{dg}{dx} -\beta g(x) \right) \leq e^{-\beta (x-x_{0})} \alpha \\
e^{-\beta (x -x_{0})}\dfrac{dg}{dx}-\beta e^{-\beta (x -x_{0})} g(x) \leq \alpha e^{-\beta (x -x_{0})} \label{17} \tag{17}
\end{align*}

Identificamos que el lado izquierdo de la última desigualdad corresponde a la derivada del producto de las funciones $e^{-\beta(x -x_{0})}$ y $g(x)$, en efecto

\begin{align*}
\dfrac{d}{dx} \left( g(x) e^{-\beta (x -x_{0})} \right ) &= \dfrac{dg}{dx} e^{-\beta (x -x_{0})} + g(x) \left( -\beta e^{-\beta (x -x_{0})} \right ) \\
&= e^{-\beta (x -x_{0})} \dfrac{dg}{dx} -\beta e^{-\beta (x -x_{0})} g(x)
\end{align*}

Sustituimos en la desigualdad (\ref{17}).

$$\dfrac{d}{dx} \left( g(x)e^{-\beta (x -x_{0})} \right ) \leq \alpha e^{-\beta (x -x_{0})} \label{18} \tag{18}$$

Integremos de $x_{0}$ a $x$.

\begin{align*}
\int_{x_{0}}^{x} \dfrac{d}{dt} \left( g(t) e^{-\beta (t -x_{0})} \right ) dt &\leq \alpha \int_{x_{0}}^{x} e^{-\beta (t -x_{0})}dt \\
g(x)e^{-\beta (x -x_{0})} -g(x_{0})e^{-\beta (x_{0} -x_{0})} &\leq \alpha \left[ -\dfrac{1}{\beta} \left( e^{-\beta(x -x_{0})} -e^{-\beta(x_{0} -x_{0})} \right) \right]
\end{align*}

pero

$$g(x_{0}) = \int_{x_{0}}^{x_{0}}f(t)dt = 0 \hspace{1cm} y \hspace{1cm} e^{-\beta (x_{0} -x_{0})} = 1$$

Así,

$$g(x)e^{-\beta (x -x_{0})} \leq -\dfrac{\alpha}{\beta} \left ( e^{-\beta (x -x_{0})} -1 \right) \label{19} \tag{19}$$

Multipliquemos ambos lados de la desigualdad por $e^{\beta (x -x_{0})}$.

\begin{align*}
g(x) &\leq -\dfrac{\alpha}{\beta}e^{\beta (x -x_{0})} \left( e^{-\beta (x -x_{0})} -1 \right) \\
&= -\dfrac{\alpha}{\beta}\left( 1 -e^{\beta (x -x_{0})} \right) \\
&= \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right )
\end{align*}

es decir,

$$g(x) \leq \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right ) \label{20} \tag{20}$$

De la desigualdad original (\ref{13}) sabemos que

\begin{align*}
0 \leq f(x) &\leq \alpha +\beta \int_{x_{0}}^{x} f(t)dt \\
0 \leq f(x) &\leq \alpha + \beta g(x)
\end{align*}

de donde,

$$\dfrac{f(x) -\alpha}{\beta} \leq g(x) \label{21} \tag{21} $$

De los resultados (\ref{20}) y (\ref{21}), tenemos

$$\dfrac{f(x) -\alpha}{\beta} \leq g(x) \leq \dfrac{\alpha}{\beta}\left( e^{\beta (x -x_{0})} -1 \right)$$

lo que nos interesa es la desigualdad

$$\dfrac{f(x) -\alpha}{\beta} \leq \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right)$$

haciendo un poco de álgebra obtenemos lo siguiente.

\begin{align*}
\dfrac{f(x) -\alpha}{\beta} &\leq \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right) \\
f(x) -\alpha &\leq \beta \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right) \\
f(x) &\leq \alpha + \beta \dfrac{\alpha}{\beta} \left( e^{\beta (x -x_{0})} -1 \right) \\
f(x) &\leq \alpha + \alpha \left( e^{\beta (x -x_{0})} -1 \right) \\
f(x) &\leq \alpha + \alpha e^{\beta (x -x_{0})} -\alpha \\
f(x) &\leq \alpha e^{\beta (x-x_{0})}
\end{align*}

Por lo tanto,

$$f(x) \leq \alpha e^{\beta (x-x_{0})}$$

Con esto queda demostrado que si se cumple la desigualdad (\ref{13}), entonces $f(x) \leq \alpha e^{\beta (x -x_{0})}$, $\forall x \in I$.

$\square$

Usando el lema de Gronwall podemos demostrar el siguiente corolario de manera inmediata.

Demostración: Debido a que se cumplen todas las hipótesis del lema de Gronwall sabemos que $\forall x \in I$

$0 \leq f(x) \leq \alpha e^{\beta (x -x_{0})}$

Pero si $\alpha = 0$, entonces

$$0 \leq f(x) \leq 0$$

de donde se deduce que $f(x) = 0$, $\forall x \in I$.

$\square$

Con esto concluimos la primer entrada sobre la teoría preliminar que necesitamos conocer para poder demostrar el teorema de existencia y unicidad de Picard – Lindelöf.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Probar que la función $f: \mathbb{R} \rightarrow \mathbb{R}$, $f(x) = c$ es una función lipschitziana
  1. Probar que la función $f: \mathbb{R} \rightarrow \mathbb{R}$, $f(x) =|x|$ es lipschitziana, con $L = 1$
  1. Probar que la función $f: \mathbb{R} \rightarrow \mathbb{R}$, $f(x) = x^{2}$ no es una función lipschitziana.
    Hint: Suponer que lo es, es decir $$|f(x_{2}) -f(x_{1})| \leq L |x_{2} -x_{1}|$$ y considerar la definición de derivada $$\lim_{x_{2} \to x_{1}} \dfrac{|f(x_{2}) -f(x_{1})|}{|x_{2} -x_{1}|} = | f^{\prime}(x_{1})|$$ para llegar a una contradicción.

En los siguientes ejercicios se puede usar la definición de función lipschitziana respecto de la segunda variable o las proposiciones vistas.

  1. Probar que la función $f: U \rightarrow \mathbb{R}$ con $$U = \{(x, y): 0 \leq x \leq 1, y \in \mathbb{R} \}$$ definida como $$f(x, y) = y \cos (x)$$ es una función lipschitziana respecto de la segunda variable, con $L = 1$.
  1. Probar que la función $f: U \rightarrow \mathbb{R}$ con $$U = \{(x, y): 1 \leq x \leq 2, y \in \mathbb{R} \}$$ definida como $$f(x, y) = -\dfrac{2}{x} y + e^{x} \sin (x)$$ es una función lipschitziana respecto de la segunda variable, con $L = 2$.

Más adelante…

En esta entrada conocimos el teorema de existencia y unicidad de Picard – Lindelöf para ecuaciones diferenciales ordinarias de primer orden. Vimos que el PVI (\ref{1}) es equivalente a resolver la ecuación integral (\ref{3}), definimos a las funciones lipschitzianas de dos variables, demostramos algunos resultados al respecto y concluimos con la demostración del lema de Gronwall. Todos estos resultados los aplicaremos más adelante en la demostración del teorema de Picard – Lindelöf.

En la siguiente entrada continuaremos desarrollando esta teoría preliminar. Definiremos el concepto de aproximaciones sucesivas, mejor conocidas como iterantes de Picard, haremos un breve repaso sobre convergencia de series y sucesiones de funciones, presentaremos el resultado local del teorema de existencia y unicidad y resolveremos un ejercicio al respecto.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Ecuaciones diferenciales lineales de primer orden y el teorema de existencia y unicidad – Método de variación de parámetros

Por Omar González Franco

Las leyes de la naturaleza no son más que los pensamientos matemáticos de Dios.
– Euclides

Introducción

Hemos comenzado a desarrollar métodos de resolución de ecuaciones diferenciales lineales de primer orden. El tipo de ecuaciones que queremos resolver es

$$\dfrac{dy}{dx} + P(x) y = Q(x) \label{1} \tag{1}$$

En la entrada anterior vimos que la solución general $y(x)$ es la suma de la solución homogénea $y_{h}(x)$, más la solución particular $y_{p}(x)$.

$$y(x) = y_{h}(x) + y_{p}(x) \label{2} \tag{2}$$

La solución homogénea está dada como

$$y_{h}(x) = k e^{- \int P(x) dx} = \dfrac{k}{\mu (x)} \label{3} \tag{3}$$

Mientras que la solución particular tiene la forma

$$y_{p}(x) = e^{- \int{P(x) dx}} \left( \int{e^{\int{P(x) dx}} Q(x) dx} \right) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} \right) \label{4} \tag{4}$$

Donde $\mu (x)$ es el factor integrante

$$\mu(x) = e^{\int{P(x) dx}} \label{5} \tag{5}$$

Así, la solución general de la ecuación diferencial (\ref{1}) es

$$y(x) = k e^{-\int{P(x) dx}} + e^{-\int{P(x) dx}} \left(\int{e^{\int{P(x) dx}}Q(x) dx}\right) \label{6} \tag{6}$$

O de forma más compacta

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} + k \right) \label{7} \tag{7}$$

En la entrada anterior mencionamos que hay dos métodos distintos para la obtención de la solución particular, ya presentamos el método por factor integrante, en este entrada vamos a desarrollar el método conocido como variación de parámetros.

Método de variación de parámetros

Sabemos que la solución de la ecuación diferencial homogénea

$$\dfrac{dy}{dx} + P(x) y = 0 \label{8} \tag{8}$$

es

$$y_{h}(x) = k e^{- \int P(x) dx}$$

Este resultado nos incita a suponer que para la ecuación no homogénea

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

la solución particular puede tener la forma

$$y_{p}(x) = k(x) e^{- \int P(x) dx} \label{9} \tag{9}$$

En donde $k$ pasa a ser una función dependiente de $x$. El método de variación de parámetros consiste en determinar justamente la expresión explícita de $k(x)$.

Sustituyamos la solución propuesta (\ref{9}) en la ecuación no homogénea (\ref{1}).

\begin{align*}
\dfrac{dy_{p}}{dx} + P(x) y_{p} &= \dfrac{d}{dx} \left(k e^{- \int P(x) dx} \right) + P(x) k e^{- \int P(x) dx} \\
&= \left[k \dfrac{d}{dx} \left( e^{- \int P(x) dx} \right) + \dfrac{dk}{dx} e^{- \int P(x) dx}\right] + P(x) k e^{- \int P(x) dx} \\
&= – k P(x) e^{- \int P(x) dx} + \dfrac{dk}{dx} e^{- \int P(x) dx} + k P(x) e^{- \int P(x) dx} \\
&= \dfrac{dk}{dx} e^{- \int P(x) dx} \\
&= Q(x)
\end{align*}

De la última igualdad obtenemos que

$$\dfrac{dk}{dx} = e^{\int P(x) dx} Q(x) \label{10} \tag{10}$$

Integremos ambos lados de la ecuación con respecto a $x$.

\begin{align*}
\int{\left( \dfrac{dk}{dx} \right) dx} &= \int{ \left( e^{\int P(x) dx} Q(x) \right) dx} \\
k(x) + c &= \int{ \left( e^{\int P(x) dx} Q(x) \right) dx} \\
\end{align*}

Si consideramos $c = 0$ obtenemos que la forma explícita de $k(x)$ es

$$k(x) = \int{ e^{\int P(x) dx} Q(x) dx} \label{11} \tag{11}$$

Sustituyamos este resultado en la solución particular (\ref{9}).

$$y_{p}(x) = \left( \int{e^{\int P(x) dx} Q(x) dx} \right) e^{- \int P(x) dx} \label{12} \tag{12}$$

Si consideramos el factor integrante (\ref{5}) esta función la podemos escribir como

$$y_{p}(x) = \dfrac{1}{\mu (x)} \left( \int{ \mu (x) Q(x) dx} \right) \label{13} \tag{13}$$

Hemos obtenido la misma expresión que usando el método por factor integrante visto en la entrada anterior.

Algunas consideraciones

La solución completa (o solución general) de la ecuación diferencial lineal (\ref{1}) es la suma de la solución homogénea $y_{h}(x)$, más la solución particular $y_{p}(x)$, es importante reconocer este hecho ya que en muchas ocasiones la ecuación homogénea, y por tanto la solución homogénea, serán muy relevantes si estamos estudiando algún fenómeno real. Sin embargo, cuando nuestro objetivo es obtener la solución completa no es necesario obtener ambas soluciones por separado para después sumarlas, sino que podemos intentar obtener directamente la solución general, esto está directamente relacionado con la omisión de constantes de integración que hemos hecho, así que es momento de explicar qué está ocurriendo con estas constantes.

Es posible desarrollar los métodos por factor integrante y variación de parámetros manteniendo las constantes de integración, aunque los cálculos se vuelven más extensos, sin embargo al final todas las constantes que resulten se pueden agrupar en una sola constante $C$, es así que en ambos métodos siempre llegaremos al resultado

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} + C \right) \label{14} \tag{14}$$

Donde $C$ es la constante resultante de juntar todas las constantes de integración que pudieran aparecer en el proceso.

El resultado (\ref{14}) corresponde a la solución general que hemos obtenido anteriormente, es decir, si en ambos métodos mantenemos a las constantes de integración podemos obtener la solución general. Lo que nosotros hicimos anteriormente fue que la constante $k$ de la ecuación (\ref{7}) la asociábamos a la solución homogénea (\ref{3}), de manera que al sumar ambas soluciones ya obteníamos la solución general, pero en realidad también se puede obtener de ambos métodos manteniendo a las constantes. Decidimos hacerlo así porque es importante el papel que pueden tomar por separado las soluciones homogénea y particular en algunas situaciones, además de que omitir las constantes evitó hacer cálculos más extensos en ambos métodos.

Finalmente, como ya mencionamos antes, no se recomienda resolver ecuaciones diferenciales usando las formulas obtenidas para las soluciones, sino aplicar cada paso del método correspondiente, sin embargo, a continuación presentamos una serie de pasos que se recomiendan seguir para la resolución de ecuaciones diferenciales lineales de primer orden.

Método para resolver ecuaciones lineales

Si bien es cierto que ya conocemos las formas explícitas de las soluciones de las ecuaciones diferenciales lineales, es conveniente seguir una serie de pasos para resolverlas. Dichos pasos se describen a continuación.

  1. Escribir la ecuación diferencial lineal en la forma canónica

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

  1. Calcular el factor integrante $\mu (x)$ mediante la fórmula

$$\mu (x) = e^{\int{P(x) dx}}$$

  1. Multiplicar a la ecuación diferencial en su forma canónica por el factor integrante en ambos lados de la ecuación.

$$\mu (x) \dfrac{dy}{dx} + \mu (x) P(x) y = \mu (x) Q(x)$$

  1. Identificar que el lado izquierdo de la ecuación es la derivada de $\mu(x)$ por $y(x)$ y sustituir.

$$\dfrac{d}{dx} (\mu y) = \mu (x) Q(x)$$

  1. Integrar la última ecuación y dividir por $\mu (x)$ para obtener finalmente la solución general $y(x)$. En la última integración debemos considerar a la constante de integración.

Esta serie de pasos nos permiten obtener directamente la solución general de la ecuación diferencial lineal, es por ello que en el último paso sí debemos considerar a la constante de integración, dicha constante representa el resultado de juntar todas las contantes que podremos omitir en pasos intermedios.

Realicemos un ejemplo en el que apliquemos este algoritmo de resolución.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\left( x^{2} +1 \right) \dfrac{dy}{dx} = x^{2} + 2x -1 -4xy$$

Solución: El primer paso es escribir a la ecuación diferencial en la forma canónica.

\begin{align*}
\left( x^{2} +1 \right) \dfrac{dy}{dx} &= x^{2} + 2x -1 -4xy \\
\dfrac{dy}{dx} &= \dfrac{x^{2} + 2x -1 -4xy}{x^{2} +1} \\
\dfrac{dy}{dx} &= \dfrac{x^{2} + 2x -1}{x^{2} +1} -\left( \dfrac{4x}{x^{2} +1} \right) y
\end{align*}

La forma canónica es

$$\dfrac{dy}{dx} + \left( \dfrac{4x}{x^{2} +1} \right) y = \dfrac{x^{2} + 2x -1}{x^{2} +1}$$

Identificamos que

$$P(x) = \dfrac{4x}{x^{2} +1} \hspace{1cm} y \hspace{1cm} Q(x) = \dfrac{x^{2} + 2x -1}{x^{2} +1}$$

El segundo paso es determinar el factor integrante.

$$\mu(x) = e^{\int{P(x) xd}} = e^{\int{\left( \dfrac{4x}{x^{2} +1} \right) dx}}$$

Resolvamos la integral omitiendo la constante de integración.

\begin{align*}
\int{\dfrac{4x}{x^{2} +1} dx} &= 4 \int{\dfrac{x}{x^{2} +1} dx} \\
&= \dfrac{4}{2} \ln{\left( x^{2} + 1 \right)} \\
&= 2 \ln{\left(x^{2} + 1\right)} \\
&= \ln{\left( x^{2} + 1\right)^{2}}
\end{align*}

Sustituimos en el factor integrante.

\begin{align*}
\mu (x) = e^{\ln{\left( x^{2} + 1\right)^{2}}} = \left( x^{2} + 1\right)^{2}
\end{align*}

Por tanto, el factor integrante es

$$\mu (x) = ( x^{2} + 1)^{2}$$

El tercer paso es multiplicar a la ecuación diferencial en su forma canónica por el factor integrante en ambos lados.

\begin{align*}
\left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + \left( x^{2} + 1\right)^{2} \left( \dfrac{4x}{x^{2} +1} \right) y &= \left( x^{2} + 1\right)^{2} \left(\dfrac{x^{2} + 2x -1}{x^{2} +1}\right) \\
\left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + 4x \left( x^{2} + 1\right) y &= \left( x^{2} + 1\right) \left(x^{2} + 2x -1\right) \\
\left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + 4x \left( x^{2} + 1\right) y &= x^{4} + 2x^{3} +2x -1
\end{align*}

El cuarto paso es identificar que

$$\dfrac{d}{dx}(\mu (x) y(x)) = \dfrac{d}{dx}\left( y \left( x^{2} + 1\right)^{2}\right) = \left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + 4x \left( x^{2} + 1\right) y$$

Así que ahora podemos escribir

$$\dfrac{d}{dx}\left( y \left( x^{2} + 1\right)^{2}\right) = x^{4} + 2x^{3} +2x -1$$

El quinto y último paso es integrar esta relación por ambos lados con respecto a $x$ considerando a la constante de integración.

\begin{align*}
\int{\dfrac{d}{dx}\left( y \left( x^{2} + 1\right)^{2}\right) dx} &= \int{\left( x^{4} + 2x^{3} +2x -1\right)}dx \\
y \left( x^{2} + 1\right)^{2} + k &= \int{\left( x^{4} + 2x^{3} +2x -1\right)} dx
\end{align*}

Resolvamos la integral.

\begin{align*}
\int{\left( x^{4} + 2x^{3} +2x -1\right)} dx &= \int{x^{4} dx} + \int{2x^{3} dx} + \int{2x dx} -\int{dx} \\
&= \dfrac{x^{5}}{5} + 2\left(\dfrac{x^{4}}{4}\right) + 2 \left(\dfrac{x^{2}}{2}\right) -x \\
&= \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x
\end{align*}

Omitimos todas las constantes de esta integral. Sustituyendo este resultado obtenemos

\begin{align*}
y \left( x^{2} + 1\right)^{2} + k &= \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x \\
y\left( x^{2} + 1\right)^{2} &= \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x + K \\
y(x) &= \dfrac{1}{\left(x^{2} + 1\right)^{2}} \left( \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x + K \right)
\end{align*}

Por lo tanto, la solución general de la ecuación diferencial

$$\left( x^{2} +1 \right) \dfrac{dy}{dx} = x^{2} + 2x -1 -4xy$$

es

$$y(x) = \dfrac{1}{\left(x^{2} + 1\right)^{2}} \left( \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x + K\right)$$

Donde $K$ es la constante que engloba a todas las contantes de integración que omitimos.

$\square$

Para concluir el análisis de las ecuaciones diferenciales lineales de primer orden, presentaremos el teorema de existencia y unicidad para este tipo de ecuaciones.

Teorema de existencia y unicidad

Ya presentamos el teorema de existencia y unicidad para ecuaciones diferenciales de primer orden, podemos usar este resultado para justificar el teorema de existencia y unicidad para el caso de las ecuaciones diferenciales lineales de primer orden.

Demostración: Consideremos la ecuación diferencial

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

Reescribamos esta ecuación en su forma normal.

$$\dfrac{dy}{dx} = Q(x) -P(x) y$$

Definimos

$$f(x, y) = Q(x) -P(x) y \label{15} \tag{15}$$

De manera que

$$\dfrac{dy}{dx} = f(x, y) \label{16} \tag{16}$$

Debido a que en un intervalo de solución $\delta$ debe satisfacerse que $P(x)$ y $Q(x)$ sean continuas, entonces tenemos garantizado que (\ref{15}) es continua y por tanto $\dfrac{\partial f}{\partial y}$ también lo es, con esto estamos cumpliendo las hipótesis del teorema de existencia y unicidad para ecuaciones diferenciales de primer orden que establecimos anteriormente, aplicando dicho teorema obtenemos que entonces existe algún intervalo $\delta_{0}: (x_{0} -h, x_{0} + h)$, $h > 0$, contenido en $\delta$, y una función única $\gamma (x)$, definida en $\delta_{0}$, que satisface la condición inicial $y(x_{0}) = y_{0}$.

$\square$

Apliquemos este resultado a la solución general. Consideremos la condición inicial $y(x_{0}) = y_{0}$ y la solución general de la ecuación diferencial no homogénea (\ref{1})

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{ \mu (x) Q(x) dx} + k \right)$$

Apliquemos la condición inicial.

$$y_{0} = y(x_{0}) = \dfrac{1}{\mu (x_{0})} \left( \int{ \mu (x) Q(x) dx} \Bigg|_{x = x_{0}} + k \right) \label{17} \tag{17}$$

De este resultado se puede despejar a $k$ obteniendo un único valor, digamos $k = k_{0}$, por lo tanto la función

$$\gamma (x) = \dfrac{1}{\mu (x_{0})} \left( \int{ \mu (x) Q(x) dx} + k_{0} \right) \label{18} \tag{18}$$

es solución del problema de valor inicial. Así, para cada $x_{0} \in \delta_{0}$, encontrar una solución particular de la ecuación (\ref{1}) es exactamente lo mismo que encontrar un valor adecuado de $k$ en la ecuación (\ref{17}), es decir, a todo $x_{0} \in \delta_{0}$ le corresponde un distinto $k$.

Con esto damos por concluido el desarrollo de métodos para resolver ecuaciones diferenciales lineales de primer orden, en la siguiente entrada comenzaremos a desarrollar métodos para resolver ecuaciones diferenciales de primer orden que no son lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. De acuerdo al algoritmo para resolver ecuaciones diferenciales lineales de primer orden, encontrar la solución general de las siguientes ecuaciones diferenciales.
  • $3\dfrac{y}{x} -8 + 3\dfrac{dy}{dx} = 0$
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0$
  • $\dfrac{dy}{dx} + \cos(x) (y -1) = 0$
  1. Una vez que se conoce la solución general de la ecuación diferencial
    $$x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0$$ Resolver los siguientes problemas de valor inicial y analizar cada situación considerando el teorema de existencia y unicidad.
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0, \hspace{1cm} y(0) = 0$
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0, \hspace{1cm} y(0) = y_{0}, \hspace{1cm} y_{0} > 0$
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0, \hspace{1cm} y(x_{0}) = y_{0}, \hspace{1cm} x_{0} > 0, \hspace{0.3cm} y_{0} > 0$

    ¿Que se puede concluir al respecto?.

Más adelante…

Ya sabemos resolver ecuaciones diferenciales lineales de primer orden tanto homogéneas como no homogéneas y conocemos el teorema de existencia y unicidad que justifica los métodos que hemos desarrollado.

En la siguiente entrada comenzaremos a desarrollar métodos para resolver ecuaciones diferenciales de primer orden no lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Teorema de existencia y unicidad de Picard

Por Eduardo Vera Rosales

Introducción

En entradas anteriores hemos cubierto diversos métodos de resolución de ecuaciones diferenciales de primer orden, y hemos pasado por alto diversas hipótesis que deben cumplir las ecuaciones para que éstas tengan una solución. Es momento entonces de justificar toda la teoría realizada anteriormente mediante el Teorema de existencia y unicidad para ecuaciones de primer orden, que nos garantiza la existencia de una única solución al problema de condición inicial $$\frac{dy}{dt}=f(t,y) ; \,\,\,\,\,\,\ y(t_{0})=y_{0}$$ en un intervalo $I_{h}$, bajo ciertas hipótesis que deben satisfacerse.

Primero daremos un panorama general del Teorema de existencia y unicidad, así como la estrategia general para demostrarlo. Debido a que este teorema es complejo de demostrar, necesitamos algunas herramientas extra que iremos presentando conforme las vayamos utilizando. Demostraremos primero la unicidad de la solución al problema de condición inicial y posteriormente su existencia. Finalmente demostraremos la dependencia continua del problema de condición inicial respecto a la condición inicial.

¡Vamos a comenzar!

Introducción del Teorema de Existencia y Unicidad de Picard. Ecuación integral asociada.

Enunciamos el Teorema de existencia y unicidad de Picard, debido al matemático francés Émile Picard, asociamos una ecuación integral al problema de condición inicial, analizamos la relación que guarda la solución a esta ecuación con el problema de condición inicial, y presentamos una forma equivalente de demostrar el teorema en lo que se refiere a la existencia de la solución.

Demostración de la unicidad de la solución al problema de condición inicial

En este video presentamos las herramientas para demostrar la parte de la unicidad del Teorema de existencia y unicidad de Picard. Primero presentamos a las funciones $f(t,y)$ Lipschitz continuas respecto a la segunda variable. Posteriormente demostramos dos lemas: el primero enuncia una forma equivalente de decir que una función $f$ es Lipschitz continua respecto a la segunda variable, el segundo es el Lema de Grönwall, debido al matemático sueco Thomas Grönwall, que nos da una cota superior para una función $g(t)$ continua no negativa que cumple con cierta desigualdad. Finalmente demostramos la unicidad de la solución al problema de condición inicial.

Iteraciones de Picard

Para demostrar la existencia de la solución al problema de condición inicial, o equivalentemente, a la ecuación integral asociada al problema, definimos una sucesión muy particular de funciones $\{y_{n}(t)\}_{n \in \mathbb{N}}$ cuyos elementos llamaremos iteraciones de Picard o aproximaciones sucesivas, resolvemos un ejemplo para ver cómo calcular estas iteraciones, hacemos algunas observaciones que cumple la sucesión, presentamos un par de definiciones y teoremas (que no demostraremos) para saber cuándo converge nuestra sucesión de funciones, esto para dar paso a la demostración de la existencia de la solución al problema de condición inicial.

Demostración de la existencia de la solución al problema de condición inicial

En este video demostramos la parte de la existencia de la solución al problema de condición inicial. Previamente mostramos un lema que nos permite encontrar el intervalo $I_{h}$ donde la solución existe.

Dependencia continua de la condición inicial

Concluimos esta serie de videos, mostrando la dependencia continua del problema de condición inicial, respecto a los valores de la condición inicial, utilizando el Lema de Grönwall que demostramos en el segundo video de esta entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Prueba que la función $$f(t,y)=y^{\frac{2}{3}}$$ no es Lipschitz continua respecto a la segunda variable en cualquier dominio D (subconjunto abierto conexo de $\mathbb{R}^{2}$) que incluya a $y=0$.
  • Resuelve el problema de valor inicial $$\frac{dy}{dt}=y^{\frac{2}{3}}; \,\,\,\,\,\,\,\,\,\,\, y(0)=0$$ y verifica que este problema tiene más de una solución.
  • ¿El problema anterior contradice el Teorema de existencia y unicidad de Picard?
  • Prueba el siguiente corolario al Lema de Grönwall: si se cumplen las hipótesis del Lema de Grönwall con $C_{1}=0$, entonces $g(t)=0$ en $[t_{0}-a,t_{0}+a]$.
  • Calcula las iteraciones de Picard hasta $n=2$ para el problema de condición inicial $$\frac{dy}{dt}=e^{t}+y^{2}; \,\,\,\,\,\, y(0)=0.$$ ¿Puedes encontrar una formula cerrada para caracterizar a los elementos de la sucesión? Intenta calcular más iteraciones. Con este ejemplo puedes ver que en ocasiones puede ser muy complicado calcular iteraciones para $n$ grande, y por tanto, no es sencillo encontrar la convergencia de la sucesión.
  • Muestra que si la sucesión $\{y_{n}(t)\}_{n \in \mathbb{N}}$ converge uniformemente a una función $y(t)$ en $[a,b]$, entonces $y$ es continua en $[a,b]$.

Más adelante

Antes de finalizar el análisis a las ecuaciones de primer orden regresemos un poco al estudio de ecuaciones autónomas. Vamos a considerar ahora una familia de ecuaciones autónomas $f_{\lambda}(y)$ que dependen de un parámetro $\lambda$, y vamos a analizar lo que sucede con las soluciones de equilibrio y con las soluciones en general cuando cambia el valor del parámetro. A este tipo de problemas se les llama bifurcaciones. Con esto terminamos la primera unidad de nuestro curso de Ecuaciones diferenciales ordinarias.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Teorema de existencia y unicidad para ecuaciones lineales de primer orden

Por Eduardo Vera Rosales

Introducción

En las entradas anteriores hemos estudiado las soluciones a ecuaciones de primer orden desde dos distintos puntos de vista, el cualitativo y el analítico. En el camino hemos encontrado un comportamiento similar en las soluciones, como es el que el problema de condición inicial tenga una solución, o que las curvas solución no se intersectan en el plano. Estos comportamientos no son una casualidad, y están justificados por el teorema de existencia y unicidad que nos dice que el problema de condición inicial tiene una y sólo una solución definida en un intervalo $(a,b)$. Este teorema, en su versión para ecuaciones lineales sustenta el trabajo que hemos realizado en los últimos videos.

Teorema de existencia y unicidad para ecuaciones lineales de primer orden

En el video demostramos la versión del teorema de existencia y unicidad para ecuaciones lineales de primer orden.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Resuelve el problema de condición inicial $\frac{dy}{dt}=\frac{y}{t}$ ; $y(t_{0})=y_{0}$, con $t_{0}\neq 0$, $y_{0}\neq 0$.
  • Resuelve el problema de condición inicial inicial $\frac{dy}{dt}=\frac{y}{t}$ ; $y(0)=0$.
  • Resuelve el problema de condición inicial $\frac{dy}{dt}=\frac{y}{t}$ ; $y(0)=y_{0}$, con $y_{0}\neq 0$.
  • ¿Contradicen las soluciones de los ejercicios anteriores el Teorema de existencia y unicidad?
  • Esboza las soluciones a la ecuación diferencial.

Más adelante

Con esta entrada terminamos el estudio a las ecuaciones lineales de primer orden. En la siguiente entrada comenzaremos a estudiar ecuaciones diferenciales no lineales de primer orden. En particular veremos un caso especial de estas ecuaciones, a las que llamaremos ecuaciones separables.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»