Probabilidad I-Videos: Distribución binomial

Por Aurora Martínez Rivas

Introducción

Esta vez, nos enfocaremos en el estudio de la distribución discreta: asociada a las variables aleatorias que surgen, al tratar con repeticiones de ensayos Bernoulli independientes y que consisten en determinar el número total de éxitos sin importar su orden. Esta distribución se conoce como distribución binomial.

Distribución binomial

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE 104721: “Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM”. Sitio web del proyecto: https://www.matematicasadistancia.com.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que la función de probabilidad asociada a la distribución binomial es efectivamente una función de probabilidad.
  • Sea $X$ una variable aleatoria tal que $X\sim binomial\left ( n,p\right ) $, demuestra que cuando $k$ pasa de 0 a n.$\ P(X=k)$ primero aumenta monótonamente y luego disminuye monótonamente alcanzando su valor más grande cuando $k$ es el entero más grande menor o igual que $(n+1)p$.
  • Basándote en la demostración del inciso anterior, da una relación recursiva entre las probabilidades asociadas con valores sucesivos de $X$ y con ella encuentra $P(X<4)$ cuando $X\sim binomial\left ( 50,.4\right ) $.
  • Demuestra que si $X$ es una variable aleatoria tal que $X\sim binomial\left ( n,p\right ) $, entonces la función de masa de probabilidad $f_X\left ( k\right ) $ tiene la siguiente propiedad: $f\left ( k-1\right ) f\left ( k+1\right ) \le f\left ( k\right ) ^2$.
  • Sea $X$ una variable aleatoria tal que $X\sim binomial\left ( n,p\right ) $, encuentra la distribución de probabilidad de $n-X$.

Más adelante…

La distribución binomial, es utiliza para la Estimación de probabilidades: asociadas a resultados, en cualquier subconjunto de ensayos que impliquen éxitos o fracasos. Así, como para estimar probabilidades asociadas a juegos de azar.

Por sus aplicaciones en la teoría de probabilidad y estadística, la distribución binomial es probablemente la de uso más frecuente entre las distribuciones discretas,

Entradas relacionadas

Ecuaciones Diferenciales I: Demostración del Teorema de Existencia y Unicidad de Picard – Lindelöf

Por Omar González Franco

Si la gente no cree que las matemáticas son simples, es solo
porque no se dan cuenta de lo complicado que es la vida.
– John Louis von Neumann

Introducción

¡Hemos llegado al final de la primera unidad de este curso!.

Concluiremos con la demostración de uno de los teoremas más importantes dentro del campo de las ecuaciones diferenciales; el teorema de existencia y unicidad de Picard – Lindelöf. Pero antes, un poco de contexto histórico.

Este resultado fue estudiado y desarrollado entre los años 1820 y 1900 por Cauchy, Liouville, Lipschitz, Picard y Lindelöf. Entre 1820 y 1830 Cauchy probó que si $f = f(x, y)$ es una función continua y existe su derivada parcial $\dfrac{df}{dy}$ continua en cierta región $U \subset \mathbb{R}^{2}$ que contiene el punto $(x_{0}, y_{0})$, entonces existe un intervalo $\delta$ en el que un problema de valor inicial posee una única solución definida en $\delta$.

En 1838, Liouville simplificó la prueba de Cauchy introduciendo el método de las aproximaciones sucesivas, que más tarde continuarían siendo desarrolladas por Picard y que se conocerían como iterantes de Picard.

En 1876, Lipschitz mejoraría el resultado de Cauchy, sustituyendo la condición de que exista la derivada continua de $f$ por una menos fuerte, conocida como condición de Lipschitz.

Posteriormente, todo lo anterior fue ligeramente mejorado y generalizado por Picard (1890) y Lindelöf (1893), siguiendo las mismas ideas dadas por Liouville y Lipschitz.

Actualmente el método y los resultados se les atribuyen a Picard conociéndose como método de las iterantes de Picard y teorema de Picard (o más generalmente, teorema de Picard – Lindelöf).

En las dos últimas entradas hemos presentado una teoría preliminar con todas las herramientas necesarias para demostrar el teorema de Picard – Lindelöf, sin más, demostremos el teorema.

Teorema de existencia y unicidad de Picard – Lindelöf

El resultado global del teorema de existencia y unicidad de Picard – Lindelöf es el siguiente.

Demostración del teorema de Picard – Lindelöf

Sea $\delta = [a, b]$. Como cualquier función $y: \delta \rightarrow \mathbb{R}$ tiene su gráfica en $U$ y por hipótesis $f$ es continua en $U$, tenemos, como consecuencia del teorema sobre la ecuación integral, que $y: \delta \rightarrow \mathbb{R}$ es solución del PVI si y solo si $y(x)$ es una función continua en $\delta$ y para cada $x \in \delta$ verifica la ecuación integral

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t))dt \label{2} \tag{2}$$

Necesitamos probar que esta ecuación integral sólo posee una solución continua. Para ello, al ser $U$ una banda vertical, podemos definir sin problema alguno las iterantes de Picard $y_{n}: \delta \rightarrow \mathbb{R}$, las cuales son funciones continuas que verifican $y_{n}(x_{0}) = y_{0}$.

La demostración la dividiremos en tres secciones:

  • Primero probaremos que la sucesión de iterantes $\{y_{n}\}$ converge uniformemente en el intervalo $\delta$ hacia una función continua $y: \delta \rightarrow \mathbb{R}$.
  • Posteriormente comprobaremos que esta función $y: \delta \rightarrow \mathbb{R}$ verifica la ecuación integral (\ref{2}) y, por tanto, es solución del PVI.
  • Finalmente probaremos que el PVI no posee otra solución distinta de $y: \delta \rightarrow \mathbb{R}$.

Con los primeros dos puntos estaremos demostrando la existencia de una solución al problema de valor inicial y con el tercer punto estaremos demostrando la unicidad. Es importante mencionar que en cada uno de los tres puntos anteriores, aparte de la continuidad de $f$, haremos uso de manera esencial de la condición de Lipschitz de $f$ respecto de la segunda variable.

$$|f(x, y_{1}) -f(x, y_{2})| \leq L|y_{1} -y_{2}| \label{3} \tag{3}$$

para cada par de puntos $(x, y_{1}), (x, y_{2}) \in U$. Con $L$ la constante de Lipschitz para $f$ en $U$.

Así mismo, en el primer punto utilizaremos de forma esencial que la convergencia de las iterantes es uniforme, pues no basta con la convergencia puntual.

Demostremos el primer punto.

  • Convergencia uniforme de las iterantes de Picard.

Para probar que la sucesión de iterantes $\{y_{n}\}$ converge uniformemente en el intervalo $\delta$ es conveniente expresarlas de la siguiente forma.

$$y_{n}(x) = y_{0}(x) + \sum_{m = 1}^{n}(y_{m}(x) -y_{m -1}(x)) \label{4} \tag{4}$$

Desglosa la serie anterior para que verifiques la equivalencia.

Fijado $x \in \delta$ es evidente que la sucesión numérica $\{y_{n}(x)\}$ es convergente en $\mathbb{R}$ si y sólo si la serie numérica $\sum_{m = 1}^{\infty}(y_{m}(x) -y_{m -1}(x))$ es convergente, para lo cual es suficiente con la convergencia absoluta de la serie para cada $x \in \delta$, es decir

$$\sum_{m = 1}^{\infty }|y_{m}(x) -y_{m -1}(x)|< \infty \label{5} \tag{5}$$

Si la serie (\ref{5}) fuese convergente para cada $x \in \delta$, entonces se tendría que la sucesión de iterantes converge puntualmente en $\delta$, sin embargo no es suficiente con la convergencia puntual; necesitamos algo más fuerte, como lo es la convergencia uniforme.

Para probar que la serie funcional $\sum_{m = 1}^{\infty}(y_{m}(x) -y_{m -1}(x))$ converge uniformemente en $\delta$ y, por tanto, la sucesión de iterantes, vamos a usar el criterio mayorante de Weierstrass para lo cual necesitamos probar que existen unas constantes $M_{m} \in \mathbb{R}^{+}$, tales que

$$|y_{m}(x) -y_{m -1}(x)|\leq M_{m} \label{6} \tag{6}$$

para cada $x \in \delta$, cada $m = 1, 2, 3 \cdots$, y $\sum_{m = 1}^{\infty } M_{m} < \infty$.

Vamos a comenzar con los casos $m = 1$ y $m = 2$, es decir, vamos a hallar las constantes $M_{1}$ y $M_{2}$, tales que

$$|y_{1}(x) -y_{0}(x)| \leq M_{1} \hspace{1cm} y \hspace{1cm} |y_{2}(x) -y_{1}(x)| \leq M_{2}$$

y con estos resultados intentaremos encontrar una relación de recurrencia para las constantes $M_{m}$ para luego corroborar que $\sum_{m = 1}^{\infty } M_{m} < \infty$ y de esta manera probar la convergencia (\ref{5}).

Partiendo de la ecuación de las iterantes de Picard

$$y_{m}(x) = y_{0} + \int_{x_{0}}^{x} f(t, y_{m -1}(t)) dt; \hspace{1cm} y_{0} = y_{0}(x) \label{7} \tag{7}$$

las primeras iterantes son

$$y_{1}(x) = y_{0}(x) + \int_{x_{0}}^{x} f(t, y_{0}(t)) dt \hspace{1cm} y \hspace{1cm} y_{2}(x) = y_{0}(x) + \int_{x_{0}}^{x} f(t, y_{1}(t)) dt$$

de donde,

$$|y_{1}(x) -y_{0}(x)| = \left| \int_{x_{0}}^{x} f(t, y_{0}) dt \right |$$

y

$$|y_{2}(x) -y_{1}(x)| = \left| \int_{x_{0}}^{x} f(t, y_{1}(t)) -f(t, y_{0}(t))dt \right|$$

Al momento de estimar $|y_{1}(x) -y_{0}(x)|$ necesitamos hacer la siguiente consideración. La función $f$ es continua en $U$ y, por tanto, la función

$$g: \delta \rightarrow \mathbb{R}; \hspace{1cm} x \rightarrow g(x) = f(x, y_{0}(x))$$

es continua en $\delta$. Como $\delta$ es compacto, la función $g(x)$ está acotada en $\delta$, es decir, existe una constante $H > 0$, tal que

$$|g(x)| = |f(x, y_{0}(x))| \leq H$$

para cada $x \in \delta$ y, por tanto, se verifica lo siguiente.

\begin{align*}
|y_{1}(x) -y_{0}(x)| &= \left| \int_{x_{0}}^{x} f(t, y_{0}(t)) dt \right | \\
&\leq \int_{x_{0}}^{x}|f(t, y_{0}(t))| dt \\
&\leq \int_{x_{0}}^{x} H dt \\
&= H|x -x_{0}|
\end{align*}

esto es,

$$|y_{1}(x) -y_{0}(x)| \leq H|x -x_{0}| \label{8} \tag{8}$$

Si consideramos todo el intervalo $\delta = [a, b]$ podríamos obtener finalmente la estimación

$$|y_{1}(x) -y_{0}(x)| \leq H (b -a) = M_{1} \label{9} \tag{9}$$

Para poder estimar adecuadamente $|y_{2}(x) -y_{1}(x)|$ consideremos el resultado (\ref{8}), además de las siguientes dos desigualdades.

\begin{align*}
|y_{2}(x) -y_{1}(x)| &= \left| \int_{x_{0}}^{x} f(t, y_{1}(t)) -f(t, y_{0}(t))dt \right| \\
&\leq \int_{x_{0}}^{x}| f(t, y_{1}(t)) -f(t, y_{0}(t))|dt \label{10} \tag{10}
\end{align*}

y la condición de Lipschitz

$$|f(t, y_{1}(t)) -f(t, y_{0})| \leq L |y_{1}(t) -y_{0}(t)| \label{11} \tag{11}$$

Supongamos que $x > x_{0}$. Usando (\ref{10}) y (\ref{11}), además del resultado (\ref{8}), se tiene

\begin{align*}
|y_{2}(x) -y_{1}(x)| &\leq \int_{x_{0}}^{x}|f(t, y_{1}(t)) -f(t ,y_{0}(t))| dt \\
&\leq \int_{x_{0}}^{x} L |y_{1}(t) -y_{0}(t)|dt \\
&\leq LH \int_{x_{0}}^{x}|t- x_{0}|dt \\
&= LH \int_{x_{0}}^{x}(t -x_{0})dt \\
&= LH \dfrac{(x -x_{0})^{2}}{2}
\end{align*}


Por otro lado, para $x < x_{0}$, se tiene

\begin{align*}
|y_{2}(x) -y_{1}(x)| &\leq \int_{x}^{x_{0}}|f(t, y_{1}(t)) -f(t ,y_{0}(t))| dt \\
&\leq L \int_{x}^{x_{0}}|y_{1}(t) -y_{0}(t)|dt \\
&\leq LH \int_{x}^{x_{0}}|t -x_{0}|dt \\
&= LH \int_{x}^{x_{0}}(x_{0} -t)dt \\
&= LH \dfrac{(x_{0} -x)^{2}}{2}
\end{align*}

De ambos resultados, podemos afirmar que para cada $x \in \delta$

$$|y_{2}(x) -y_{1}(x)| \leq HL \dfrac{|x -x_{0}|^{2}}{2!} \label{12} \tag{12}$$

La desigualdad (\ref{8}) la podemos escribir de forma similar a (\ref{12}) de la siguiente forma.

$$|y_{1}(x) -y_{0}(x)| \leq HL^{0} \dfrac{|x -x_{0}|^{1}}{1!}$$

De estas dos relaciones establecemos una relación de recurrencia que vamos a probar por inducción sobre $m$. Proponemos que para cada $m = 1, 2, 3, \cdots$, y para cada $x \in \delta$, se cumple

$$|y_{m}(x) -y_{m -1}(x)| \leq HL^{m -1} \dfrac{|x -x_{0}|^{m}}{m!} \label{13} \tag{13}$$

La desigualdad ha sido probada anteriormente para $m = 1$ y $m = 2$. Supongamos que es cierta para $m$ y vamos a probar que es válida para $m + 1$ siguiendo el mismo razonamiento que en la obtención del caso $m = 2$. Vamos a mostrar el caso $x > x_{0}$, pero la prueba es similar para el caso $x < x_{0}$.

Si $x > x_{0}$, se tiene

\begin{align*}
|y_{m+1}(x) -y_{m}(x)| &\leq \int_{x_{0}}^{x}|f(t, y_{m}(t)) -f(t, y_{m -1}(t))|dt \\
&\leq L \int_{x_{0}}^{x}|y_{m}(t) -y_{m -1}(t)|dt \\
&\leq \dfrac{HL^{m}}{m!} \int_{x_{0}}^{x}(t -x_{0})^{m} dt \\
&= HL^{m} \dfrac{(x -x_{0})^{m + 1}}{(m+1)!}
\end{align*}

De forma similar, si $x < x_{0}$, se tiene

$$|y_{m+1}(x) -y_{m}(x)| \leq HL^{m} \dfrac{(x_{0} -x)^{m + 1}}{(m+1)!}$$

De ambos resultados concluimos que

$$|y_{m+1}(x) -y_{m}(x)| \leq HL^{m} \dfrac{|x -x_{0}|^{m + 1}}{(m+1)!}$$

Es Importante hacer énfasis que en este desarrollo ha sido fundamental que las iterantes $\{y_{n}\}$ tengan sus gráficas en una región $U$ donde $f$ es lipschitziana.

De lo obtenido anteriormente, y considerando el intervalo completo $\delta = [a, b]$, obtenemos finalmente la siguiente desigualdad.

$$|y_{m}(x) -y_{m -1}(x)| \leq \dfrac{H}{L} \dfrac{(L(b -a))^{m}}{m!} = M_{m} \label{14} \tag{14}$$

para cada $x \in \delta$ y cada $m = 1, 2, 3, \cdots$. Como el intervalo $\delta$ es acotado, entonces $M_{m} \in \mathbb{R}^{+}$ y sabemos que

$$\sum_{m = 1}^{\infty} \dfrac{(L(b -a))^{m}}{m!} = e^{L(b -a)} -1< \infty \label{15} \tag{15}$$

En definitiva,

$$\sum_{m=1}^{\infty } M_{m} < \infty$$

es decir la serie es convergente. Con esto queda probada la condición (\ref{5}) y debido a que la prueba se hizo utilizando el criterio mayorante de Weierstrass concluimos que se trata de una convergencia uniforme de las iterantes de Picard en el intervalo $\delta$ hacia una función $y: \delta \rightarrow \mathbb{R}$.

Es bien conocido que si una sucesión $y_{n}: \delta \rightarrow \mathbb{R}$, $n = 1, 2, 3, \cdots$, de funciones continuas sobre $\delta$ que convergen uniformemente en $\delta$ hacia una función $y: \delta \rightarrow \mathbb{R}$, la función límite uniforme $y$ también es continua en $\delta$.

Queda así demostrado el primer punto de la prueba. Ahora verifiquemos que la función límite uniforme $y: \delta \rightarrow \mathbb{R}$ verifica la ecuación integral (\ref{2}) siendo la solución al problema de valor inicial.

  • La existencia de la solución.

Sea $y: \delta \rightarrow \mathbb{R}$ la función obtenida anteriormente como límite uniforme de las iterantes de Picard $\{y_{n}\}$. La convergencia uniforme de $\{y_{n}\}$ hacia $y(x)$ en el intervalo $\delta$ significa que dado cualquier $\hat{\varepsilon} > 0$ existe un natural $N = N(\hat{\varepsilon})$, tal que para cada $n > N$ y cada $x \in \delta$

$$|y_{n}(x) -y(x)| < \hat{\varepsilon} \label{16} \tag{16}$$

Sabemos que la convergencia uniforme implica la convergencia puntual (pero no al revés), de manera que para cada $x \in \delta$ se cumple que

$$\lim_{n \to \infty}y_{n}(x) = y(x) \label{17} \tag{17}$$

Fijemos un $x \in \delta$. De acuerdo a (\ref{17}) y usando (\ref{7}), se tiene

$$y(x) = \lim_{n \to \infty} y_{n+1}(x) = y_{0} + \lim_{n \to \infty } \int_{x_{0}}^{x}f(t, y_{n}(t))dt$$

Por otro lado, sabemos que la función solución que satisface el PVI satisface también la ecuación integral (\ref{2}),

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t))dt$$

Nuestro objetivo es probar que

$$\lim_{n\rightarrow \infty }\int_{x_{0}}^{x} f(t, y_{n}(t)) dt = \int_{x_{0}}^{x}f(t, y(t))dt \label{18} \tag{18}$$

Pues de esta forma la función límite uniforme $y$ verificaría la ecuación integral y, por tanto sería solución del PVI en el intervalo $\delta$, quedando así probada la existencia de la solución.

Demostrar la relación (\ref{18}) es equivalente a probar que $\forall \varepsilon > 0$ existe $N = N(\varepsilon) \in \mathbb{N}$, tal que para cada $n > N$ y cada $x \in \delta$

$$\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt \right| < \varepsilon \label{19} \tag{19}$$

Para probar la relación (\ref{19}) de nuevo haremos uso de la condición de Lipschitz (\ref{3}) y de la convergencia uniforme de las iterantes hacia $y$ en $\delta$ (\ref{16}).

\begin{align*}
\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt\right| &\leq \int_{x_{0}}^{x}|f(t, y_{n}(t)) -f(t, y(t))|dt \\
&\leq \int_{a}^{b}|f(t, y_{n}(t)) -f(t, y(t))|dt \\
&\leq L \int_{a}^{b}|y_{n}(t) -y(t)|dt
\end{align*}

Dado $\varepsilon > 0$, definimos

$$\hat{\varepsilon} = \dfrac{\varepsilon }{L(b -a)} \label{20} \tag{20}$$

Con esto, la desigualdad (\ref{16}) se puede escribir como

$$|y_{n}(t) -y(t)|< \dfrac{\varepsilon }{L(b -a)} \label{21} \tag{21}$$

Usando esta desigualdad notamos que, para cada $n > N$ y cada $x \in \delta$

\begin{align*}
\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt\right| &\leq L \int_{a}^{b}|y_{n}(t) -y(t)|dt \\
&\leq \dfrac{L}{L(b -a)} \int_{a}^{b} \varepsilon dt \\
&= \dfrac{L}{L(b -a)} \varepsilon (b -a) \\
&= \varepsilon
\end{align*}

Por lo tanto, $ \forall \varepsilon > 0$ existe $N = N(\varepsilon) \in \mathbb{N}$, tal que para cada $n > N$ y cada $x \in \delta$

$$\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt \right| < \varepsilon$$

lo que confirma la relación (\ref{18}) que es lo que queríamos demostrar. De esta forma queda demostrada la existencia de la solución $y: \delta \rightarrow \mathbb{R}$ para el problema de valor inicial. Finalmente demostremos la unicidad de esta solución.

  • Demostración de la unicidad.

Con los dos puntos anteriores estamos convencidos de la existencia de una solución $y: \delta \rightarrow \mathbb{R}$ que satisface el problema de valor inicial (\ref{1}), así como la ecuación integral (\ref{2}). La prueba de la unicidad se basa en la suposición de la existencia de otra solución $\hat{y}: \delta \rightarrow \mathbb{R}$ que igualmente cumple con los dos puntos anteriores y el objetivo será demostrar que $\hat{y}(x) = y(x)$.

De tarea moral demostrarás que la solución $\hat{y}(x)$ es también una función límite uniforme de las mismas iterantes de Picard para cada $x \in \delta$, esto es

$$\lim_{n \to \infty}y_{n}(x) = \hat{y}(x) \label{22} \tag{22}$$

o, lo que es equivalente, mostrar que

$$\lim_{n \to \infty} |\hat{y}(x) -y_{n}(x)| = 0 \label{23} \tag{23}$$

y por la ecuación (\ref{17}) concluir que $\hat{y}(x) = y(x)$.

En esta situación se procede de manera muy similar a la prueba del primer punto en el que debemos encontrar una relación de recurrencia que acote a la cantidad $|\hat{y}(x) -y_{n}(x)|$ para cada $x \in \delta$ de la siguiente manera

$$0 \leq |\hat{y}(x) -y_{n}(x)| \leq B_{n} \label{24} \tag{24}$$

y si se prueba que

$$\lim_{n \to \infty}B_{n} = 0$$

entonces quedará probada la relación (\ref{23}).

A continuación te damos algunos hints y resultados que deberás obtener a lo largo de tu demostración.

Estudia lo que sucede con $n = 1$ y $n = 2$ y con los resultados encuentra la relación de recurrencia general para cada $n \in \mathbb{N}$, para ello considera la máxima distancia entre $\hat{y}$ y $y_{0}$, esto es

$$A = \max_{x \in \delta} |\hat{y} -y_{0}|$$

El máximo $A \in \mathbb{R}^{+}$ esta asegurado gracias a la continuidad de la función $\hat{y}$ en el intervalo compacto $\delta$. Como la gráfica de la función $\hat{y}(x)$ está contenida en $U$ y $f = f(x, \hat{y})$ es una función lipschitziana, demuestra que para cada $x \in \delta$

$$|\hat{y}(x) -y_{1}(x)| \leq L \int_{x_{0}}^{x}|\hat{y}(t) -y_{0}(t)|dt \leq AL|x -x_{0}| \label{25} \tag{25}$$

Usando este resultado demuestra que

$$|\hat{y}(x) -y_{2}(x)| \leq AL^{2} \int_{x_{0}}^{x}|t -x_{0}|dt \leq AL^{2} \dfrac{|x -x_{0}|^{2}}{2!} \label{26} \tag{26}$$

Demuestra por inducción que en general, para cada $n = 1, 2, 3, \cdots,$ y $x \in \delta$

$$|\hat{y}(x) -y_{n}(x)| \leq AL^{n} \dfrac{|x -x_{0}|}{n!} \label{27} \tag{27}$$

Este resultado te permite concluir que para cada $x \in \delta = [a, b]$

$$|\hat{y}(x) -y_{n}(x)| \leq A \dfrac{(L(b -a))^{n}}{n!} = B_{n} \label{28} \tag{28}$$

Prueba que

$$\lim_{n \to \infty} B_{n} = \lim_{n \to \infty} \dfrac{(L(b -a))^{n}}{n!} = 0 \label{29} \tag{29}$$

Así finalmente queda demostrada la relación (\ref{23}) y por lo tanto $\hat{y}(x) = y(x)$ para cada $x \in \delta$.

Realizar este ejercicio te servirá para consolidar mucho mejor lo que hemos realizado a lo largo de la demostración. Sin embargo, la demostración de la unicidad puede ser mucho más simple si aplicamos el lema de Gronwall. Demostremos la unicidad por esta opción.

Sean $y: \delta \rightarrow \mathbb{R}$ y $\hat{y}: \delta \rightarrow \mathbb{R}$ soluciones al PVI (\ref{1}) y la ecuación integral (\ref{2}).

$$y(x) = y_{0} + \int_{x_{0}}^{x}f(t, y(t)) dt \hspace{1cm} y \hspace{1cm} \hat{y}(x) = y_{0} + \int_{x_{0}}^{x}f(t, \hat{y}(t)) dt$$

Restemos las dos ecuaciones anteriores y consideramos su valor absoluto.

\begin{align*}
|y(x) -\hat{y}(x)| &= \left|\int_{x_{0}}^{x}f(t, y(t))dt -\int_{x_{0}}^{x}f(t, \hat{y}(t))dt \right|\\
&= \left|\int_{x_{0}}^{x}f(t, y(t)) -f(t, \hat{y}(t))dt \right| \\
&\leq \int_{x_{0}}^{x}|f(t, y(t)) -f(t,\hat{y}(t))|dt
\end{align*}

Como $f$ es una función lipschitziana respecto de la segunda variable, entonces

$$\int_{x_{0}}^{x}|f(t, y(t)) -f(t, \hat{y}(t))|dt \leq \int_{x_{0}}^{x} L|y(t) -\hat{y}(t)|dt = L \int_{x_{0}}^{x}|y(t) -\hat{y}(t)|dt$$

es decir,

$$|y(x) -\hat{y}(x)| \leq L \int_{x_{0}}^{x}|y(t) -\hat{y}(t)|dt \label{30} \tag{30}$$

Para que este resultado nos sea más familiar definamos lo siguiente.

$$h(x) = |y(x) -\hat{y}(x)| \hspace{1cm} y \hspace{1cm} \alpha = 0, \hspace{0.2cm} \beta = L$$

Usando esto reescribimos a la ecuación (\ref{30}) como

$$0 \leq h(x) \leq \alpha + \beta \int_{x_{0}}^{x} h(t) dt \label{31} \tag{31}$$

Estamos en las condiciones del lema de Gronwall, pero en el caso especial en el que $\alpha = 0$, así que aplicando el corolario del lema de Gronwall podemos concluir que para cada $x \in \delta$

$$h(x) = |y(x) -\hat{y}(x)| = 0$$

lo que significa que $\forall x \in \delta$, $y(x) = \hat{y}(x)$, es decir, la solución al problema de valor inicial es única.

Con esto quedan demostrados los tres puntos de la prueba, por lo tanto concluimos que el problema de valor inicial (\ref{1}) posee una única solución en $\delta = [a, b]$ y además, las iterantes de Picard asociadas al PVI convergen uniformemente en $\delta$ hacia la solución $y: \delta \rightarrow \mathbb{R}$ del PVI.

$\square$

¡Listo!. Hemos demostrado el teorema de existencia y unicidad de Picard – Lindelöf.

Apliquemos este resultado al caso de las ecuaciones diferenciales lineales.

Existencia y unicidad en ecuaciones lineales

Apliquemos el teorema de Picard – Lindelöf al caso de las ecuaciones diferenciales lineales de primer orden.

$$\dfrac{dy}{dx} = P(x) y + Q(x); \hspace{1cm} y(x_{0}) = y_{0} \label{32} \tag{32}$$

Donde las funciones $P(x)$ y $Q(x)$ son continuas en un intervalo compacto $\delta = [a, b]$, $x_{0} \in \delta$ y $y_{0} \in \mathbb{R}$.

En este caso $U = \delta \times \mathbb{R}$ y

$$f(x, y) = P(x) y + Q(x)$$

Notemos que se verifica lo siguiente:

  • $U$ es una banda vertical de base compacta, pues $\delta$ es un intervalo compacto.
  • Como $P(x)$ y $Q(x)$ son continuas en $\delta$, entonces $f$ es continua en $U$.
  • Como $P(x)$ es continua en el intervalo $\delta$ y éste es compacto, entonces la función $P(x)$ es acotada, así que podemos fijar $L > 0$, tal que $|P(x)|< L$ para todo $x \in \delta$. Considerando esto tenemos que

\begin{align*}
|f(x, y_{1}) -f(x, y_{2})| &= |(P(x) y_{1} + Q(x)) -(P(x) y_{2} + Q(x))| \\
&= |P(x) y_{1} -P(x) y_{2}| \\
&= |P(x) ||y_{1} -y_{2}| \\
&\leq L|y_{1} -y_{2}|
\end{align*}

esto es

$$|f(x, y_{1}) -f(x, y_{2})| \leq L|y_{1} -y_{2}| \label{33} \tag{33}$$

para cada par de puntos $(x, y_{1}), (x, y_{2}) \in U$ es decir, $f$ es una función lipschitziana.

Por tanto, se cumplen las condiciones del teorema de existencia y unicidad global. En consecuencia ratificamos el resultado visto anteriormente en el que se asegura que cualquier problema de valor inicial asociado a una ecuación lineal posee solución única en el intervalo $\delta$. Además, ahora podemos afirmar que las iterantes de Picard asociadas convergen uniformemente hacia la solución del PVI.

$\square$

Un resultado importante que debemos revisar es que si dos problemas de valor inicial tienen valores iniciales muy cercanos entre sí, entonces las soluciones a cada PVI serán funciones muy próximas. A esto le llamamos dependencia continua de las soluciones respecto a condiciones iniciales. Revisemos este resultado. En la demostración será de uso esencial el lema de Gronwall.

Dependencia continua de la condición inicial

Demostración: Como $y(x)$ y $\hat{y}(x)$ son solución de sus respectivos PVI, entonces cada solución verifica una ecuación integral.

$$y(x) = y_{0} + \int_{x_{0}}^{x}f(t, y(t)) dt \hspace{1cm} y \hspace{1cm} \hat{y}(x) = \hat{y}_{0} + \int_{x_{0}}^{x}f(t, \hat{y}(t)) dt$$

Vemos que

\begin{align*}
|y(x) -\hat{y}(x)| &= \left| y_{0} -\hat{y}_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt -\int_{x_{0}}^{x}f(t, \hat{y}(t)) dt \right| \\
&\leq |y_{0} -\hat{y}_{0}| + \left| \int_{x_{0}}^{x} f(t, y(t)) -f(t, \hat{y}(t)) dt \right | \\
&\leq |y_{0} -\hat{y}_{0}| + \int_{x_{0}}^{x}\left| f(t, y(t)) -f(t, \hat{y}(t)) \right| dt
\end{align*}

Sabemos que $f$ es una función lipschitziana respecto de la segunda variable en $R$ de manera que

$$|f(x, y(x)) -f(x, \hat{y}(x)) | \leq L | y(x) -\hat{y}(x)| \label{35} \tag{35}$$

con $L$ la constante de Lipschitz para $f$ en $R$. Entonces,

$$|y(x) -\hat{y}(x)| \leq |y_{0} -\hat{y}_{0} | + L \int_{x_{0}}^{x} |y(t) -\hat{y}(t)|dt \label{36} \tag{36}$$

Definamos

$$0 < g(x) = |y(x) -\hat{y}(x)|, \hspace{1cm} \alpha = |y_{0} -\hat{y}_{0}| \hspace{1cm} y \hspace{1cm} \beta = L$$

Con esto la desigualdad (\ref{36}) la podemos reescribir como

$$0 < g(x) \leq \alpha +\beta \int_{x_{0}}^{x}g(t) dt$$

Ahora podemos aplicar el lema de Gronwall.

$$g(x) \leq \alpha e^{\beta (x -x_{0})}$$

es decir,

$$|y(x) -\hat{y}(x)| \leq |y_{0} -\hat{y}_{0}| e^{L(x -x_{0})}$$

Que es lo que queríamos demostrar.

$\square$

De este resultado observamos que si

$$y_{0} \rightarrow \hat{y}_{0} \hspace{1cm} \Rightarrow \hspace{1cm} |y_{0} -\hat{y}_{0}| \rightarrow 0$$

Entonces las soluciones de los PVI serán funciones muy próximas

$$|y(x) -\hat{y}(x)| \rightarrow 0 \hspace{1cm} \Rightarrow \hspace{1cm} y(x) \rightarrow \hat{y}(x)$$

Para concluir la entrada hagamos un breve comentario sobre el resultado local del teorema de Picard y realicemos unos ejemplos al respecto.

Teorema de existencia y unicidad local

Recordemos que el resultado local del teorema de existencia y unicidad de Picard – Lindelöf establece lo siguiente.

La demostración a este teorema corresponde a una adaptación de la demostración vista para el caso global, teniendo en cuenta que las gráficas de las iterantes de Picard, así como la de cualquier posible solución, definidas en el intervalo $\delta = [x_{0} -h, x_{0} + h]$, están dentro del rectángulo $R$ donde la función $f$ es continua y lipschitziana respecto de la segunda variable. Los pasos claves a seguir y las técnicas son prácticamente una repetición de lo visto anteriormente cambiando la banda vertical $U = [a, b] \times \mathbb{R}$ por el rectángulo

$$R = \{(x, y) \in \mathbb{R} \mid |x -x_{0}| \leq a, |y -y_{0}| \leq b, \hspace{0.2cm} a, b \in \mathbb{R} \}$$

Para conocer sobre los detalles puedes revisar la demostración del teorema local en los videos de este mismo curso.

Finalmente, resolvamos algunos ejemplos.

Ejemplo: Mostrar que el problema de valor inicial

$$\dfrac{dy}{dx} = \sin^{2}{(x -y)}; \hspace{1cm} y(0) = 0$$

posee una única solución definida en $\mathbb{R}$.

Solución: En este caso tenemos la función $f: U = \mathbb{R} \times \mathbb{R} \rightarrow \mathbb{R}$ definida como

$$f(x, y) = \sin^{2}{(x -y)}$$

Es claro que $f$ es continua en la región $U = \mathbb{R} \times \mathbb{R}$. La función derivada parcial $\dfrac{\partial f}{\partial y}: U \rightarrow \mathbb{R}$ está dada como

$$\dfrac{\partial f}{\partial y} = -2 \sin{(x -y) \cos{(x -y)}}$$

Como

$$|\sin{(x -y)}| \leq 1 \hspace{1cm} y \hspace{1cm} |\cos{(x -y)}| \leq 1$$

para todo $(x, y) \in U$, entonces

$$\left| \dfrac{\partial f}{\partial y} (x, y) \right| \leq 2$$

para todo $(x, y) \in U$. En consecuencia $f$ es una función lipschitziana en $U$ respecto de la segunda variable. Con esto hemos probado que se satisfacen las hipótesis del teorema de existencia y unicidad global por lo que podemos asegurar que el PVI posee una única solución definida en $\mathbb{R}$.

$\square$

Calcular las iterantes no siempre será sencillo. En el ejemplo anterior las iterantes pueden no ser fácil de desarrollar, pero debido a que satisface el teorema de Picard – Lindelöf podemos asegurar que dichas iterantes van a converger a la solución del PVI.

Ejemplo: Mostrar que aplicando el resultado global del teorema de Picard – Lindelöf al problema de valor inicial

$$\dfrac{dy}{dx} = y^{2}; \hspace{1cm} y(0) = 1$$

no es posible asegurar la existencia y unicidad de la solución.

Solución: La función $f: U = \mathbb{R} \times \mathbb{R} \rightarrow \mathbb{R}$ definida como

$$f(x, y) = y^{2}$$

es continua en $U = \mathbb{R} \times \mathbb{R}$, sin embargo su derivada parcial

$$\dfrac{\partial f}{\partial y} = 2y$$

no está acotada en $U$ por lo que $f$ no es una función lipschitziana en $U$.

Una observación más es que la solución al PVI dada por

$$y(x) = \dfrac{1}{1 -x}$$

no está definida en $\mathbb{R}$ si no en el intervalo $(-\infty, 1)$.

En definitiva, como no se cumple la tercera condición del teorema global, entonces no podemos asegurar nada sobre la existencia y unicidad de la solución del PVI.

$\square$

Veamos ahora la importancia del resultado local del teorema de existencia y unicidad de Picard – Lindelöf . Resolvamos de nuevo el ejemplo anterior, pero ahora considerando una región $R$ alrededor del punto dado por la condición inicial.

Ejemplo: Mostrar que aplicando el resultado local del teorema de Picard – Lindelöf, el problema de valor inicial

$$\dfrac{dy}{dx} = y^{2}; \hspace{1cm} y(0) = 1$$

posee una única solución. Encontrar el intervalo de existencia y unicidad.

Solución: Es claro que la función

$$f(x, y) = y^{2}$$

es continua en $\mathbb{R}^{2}$ por lo que $f$ será una función lipschitziana en cualquier conjunto $R$ convexo y compacto. Consideremos el rectángulo centrado en el valor inicial $(0, 1)$ de dimensiones $a = 2$ y $b = 1$, es decir

$$R = \{(x, y) \in \mathbb{R} \mid |x| \leq 2, |y -1| \leq 1\} = [-2, 2] \times [0, 2]$$

En la región $R$ la función $f$ si es lipschitziana y continua por lo que se satisfacen las condiciones del teorema local de existencia y unicidad de Picard. Este teorema nos dice que existe una única solución definida en el intervalo $\delta = [x_{0} -h, x_{0} + h]$ donde

$$ h = \min \left\{a,\dfrac{b}{M} \right\} \hspace{1cm} y \hspace{1cm} M \geq \max_{(x, y) \in R}|f(x, y)|$$

En este caso, como el máximo valor que puede tomar $y$ en el rectángulo $R$ es $y = 2$, entonces

$$M = \max_{(x, y) \in R}|f(x, y)| = \max_{(x, y) \in R}|y^{2}| = 4$$

Usando este resultado, se tiene

$$h = \min \left\{a,\dfrac{b}{M} \right\} = \min \left\{2,\dfrac{1}{4} \right\} = \dfrac{1}{4}$$

Por lo tanto, podemos asegurar la existencia y unicidad de la solución del PVI en el intervalo

$$\delta = [x_{0} -h, x_{0} + h] = \left[ -\dfrac{1}{4}, \dfrac{1}{4} \right]$$

Además podemos asegurar que las iterantes de Picard convergen uniformemente en el intervalo $\delta$ hacia la solución única del PVI. A saber, convergen a

$$y(x) = \dfrac{1}{1 -x}$$

$\square$

Con esto concluimos la primera unidad del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Completar la demostración de la unicidad de la solución a un problema de valor inicial que cumple con las hipótesis del teorema global de existencia y unicidad. Recuerda que el objetivo es demostrar que $$\lim_{n \to \infty} |\hat{y}(x) -y_{n}(x)| = 0$$
  1. Comprobar que el problema de valor inicial $$\dfrac{dy}{dx} = \dfrac{y}{x}; \hspace{1cm} y(0) = 0$$ posee infinitas soluciones en cualquier intervalo $\delta$ en el que $0 \in \delta$.
    ¿Porqué no contradice esto al teorema de existencia y unicidad local?.
  1. Determinar, por el método de iterantes de Picard, la solución del siguiente problema de valor inicial: $$\dfrac{dy}{dx} = 2y(1 + x); \hspace{1cm} y(-1) = 1$$
  1. Comprobar que el mayor intervalo que proporciona el teorema local de existencia y unicidad de Picard para el problema de valor inicial $$\dfrac{dy}{dx} = 1 + x^{2}; \hspace{1cm} y(0) = 0$$ donde se asegura la existencia y unicidad de la solución, es $\delta = \left[-\dfrac{1}{2}, \dfrac{1}{2} \right]$.

Más adelante…

Con la demostración del teorema de existencia y unicidad de Picard – Lindelöf justificamos la teoría realizada a lo largo de esta primera unidad.

En la siguiente entrada comenzaremos la unidad 2 del curso. En dicha unidad estudiaremos las ecuaciones diferenciales de orden mayor a uno, en particular estudiaremos con mayor detalle las ecuaciones diferenciales de segundo orden.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Variable Compleja I: El plano complejo $\mathbb{C}$

Por Pedro Rivera Herrera

Introducción

En el año de 1685 el matemático británico John Wallis planteó en su libro «De algebra tractatus» la primera idea sobre la existencia de una correspondencia entre los puntos del plano y los números complejos, aunque ésta no tuvo gran influencia entre sus contemporáneos pues era un tanto confusa. Es hasta el año de 1798 cuando el topógrafo noruego Caspar Wessel da una propuesta seria, en su libro «On the Analytical Representation of Direction«, de una primera representación de los números complejos a través de puntos en un plano. Aunque el trabajo de Wessel permaneció oculto hasta su traducción al francés en 1897, la idea de Wessel era tratar a los números complejos como segmentos de líneas dirigidos, por lo que introduce un eje imaginario, perpendicular al eje de los números reales, asigna la letra griega $\varepsilon$ para denotar a la unidad imaginaria $\sqrt{-1}$ e identifica entonces a los números complejos como puntos en el plano, es decir intuitivamente los tratan como vectores en 2 dimensiones, por lo que las operaciones con las que los trata coinciden con las operaciones de vectores usuales, obteniendo así una primera representación geométrica de estos números.

Otra interpretación geométrica de los números complejos fue dada por el contador suizo Jean Robert Argand, quien en su libro «Essai sur une manière de représenter les quantités imaginaires dans les constructions géometriques«, interpreta a $\sqrt{-1}$ como una rotación de un ángulo recto en el plano. Su justificación se basaba en el hecho de que $\sqrt{-1} \sqrt{-1} = -1$, es decir dos rotaciones de un ángulo recto son equivalentes a una rotación de dos ángulos rectos. El trabajo de Argand es quizás de los más trascendentes pues la forma en que representa a los números en el plano, denominado como el plano de Argand, es básicamente la que usamos hoy en día.

Para 1749, Leonhard Euler redacta en su escrito «De la controverse entre Mrs. Leibnitz et Bernoulli sur les logarithmes des nombres négatifs et imaginaires«, que para localizar un número imaginario $x$ en el plano solo basta con tomar un arco $g$ de la circunferencia de radio $r$ y determinar su seno y coseno, entonces dicho número está determinado por:

\begin{equation*}
x = r \left(\text{cos}(g) + \sqrt{-1} \, \text{sen}(g)\right).
\end{equation*}

Es gracias al trabajo de Carl Friedrich Gauss que se logra por fin unificar todas estas ideas y poder dar sin duda una relación de los números complejos y el plano complejo. Alrededor del año de 1796, Gauss estaba de acuerdo con la asociación de los números complejos con puntos en el plano, tanto que para el año de 1799 hizo uso de esa idea en su trabajo para probar el Teorema Fundamental del Álgebra. En 1811 Gauss redactó en uno de sus escritos con Bessel que «tal como uno puede pensar en todo el dominio de las magnitudes reales representado como una línea recta, así también el dominio completo de todas las magnitudes, tanto números reales como números imaginarios, puede ser visualizado como un plano infinito, en el cual el punto definido por la ordenada $a$ y la abscisa $b$, igualmente representa a la magnitud $a+ib$».

Es hasta 1835 que el matemático británico William Rowan Hamilton en su trabajo «Theory of Conjugate Functions, or Algebra Couples, with a Preliminary and Elementary Essay on Algebra as the Science of Pure Time«, da la primera definición de un número complejo como un par ordenado de números reales, tal y como la conocemos hoy en día.

Si deseas conocer más acerca de la historia de los números complejos puedes consultar los libros An Introduction to Complex Analysis de Agarwal, Ravi P., y Numbers de Ebbinghaus, H.D.

Interpretación geométrica de los números complejos.

Hasta ahora tenemos construido ya el campo de los números complejos, el cual lo definimos como el conjunto:
\begin{equation*}
\mathbb{C} = \{ z = (a,b) \, \, | \, \, a, b \in \mathbb{R}, \, i=(0,1)\}.
\end{equation*}

Esta definición de número complejo como un par ordenado es la representación geométrica de un número complejo con la que trabajaremos. Es decir, a cada número complejo de la forma $z=a+ib$, donde $a,b \in \mathbb{R}$, le corresponde el punto $(a, b) = \left(\text{Re}(z), \, \text{Im}(z)\right)$ en el plano cartesiano, de ahora en adelante llamado el plano complejo o el plano de Argand.

De acuerdo con esta idea, los números reales $a$ son asociados en el plano complejo con puntos en el eje $x$, llamado propiamente como el eje real, mientras que los números complejos puros, es decir de la forma $ib$, corresponden a puntos en el eje $y$ el cual se denomina como el eje imaginario, figura 1.

Figura 1: El plano complejo.

Las operaciones definidas en la entrada previa cobran entonces un sentido geométrico. Mientras que la suma de dos números complejos coincide con la suma vectorial en $\mathbb{R}^2$, figura 2(a), el producto de dos números complejos corresponde a una rotación, seguida de una homotecia en $\mathbb{R}^2$, figura 2(b). Por otra parte, tenemos que el conjugado de un número complejo $z$ resulta ser la reflexión de dicho número a través del eje real, figura 3.

Figura 2: Operaciones aritméticas de dos números $z_1$ y $z_2$ complejos en el plano.

Figura 3: Conjugado de un número complejo $z$.

Definición 3.1. (El módulo de un número complejo.)
Sea $z = a+ib \in \mathbb{C}$. El módulo o valor absoluto de $z$ se define como el número real, no negativo:
\begin{equation*}
|\, z \,| = \sqrt{a^2 + b^2}
\end{equation*}
Geométricamente, el número $| \, z \, |$ es la distancia entre el punto $(a, b)$ y el origen, o la longitud del radio del vector que representa $z$.

Es interesante notar que si $z$ es un número real, es decir si $\operatorname{Im}(z)=0$, entonces el módulo de $\mathbb{C}$ es simplemente el valor absoluto de $\mathbb{R}$.

Figura 4: Módulo de un número complejo.

De acuerdo con la figura 4, notemos que la parte real, Re$(z)$, de un número complejo $z$, es la proyección de $z$ sobre el eje real, mientras que su parte imaginaria, Im$(z)$, es la proyección de $z$ sobre el eje imaginario.

Observación 3.1.
Considerando la definición del módulo de un número complejo es fácil verificar que:
\begin{equation*}
\text{máx}\left\{|\,\operatorname{Re}(z)\,|, |\,\operatorname{Im}(z)\,|\right\} \leq |\,z\,| \leq |\,\operatorname{Re}(z)\,| + |\,\operatorname{Im}(z)\,|.
\end{equation*}

Observación 3.2
A diferencia de $\mathbb{R}$, en $\mathbb{C}$ no es posible introducir una propiedad de ser positivo que sea compatible con las operaciones de suma y producto definidas en $\mathbb{C}$, lo cual nos imposibilita el ordenar a los números complejos bajo la relación “$>0$”. Para probar esto, basta ver que dicha propiedad no es compatible con las operaciones de campo, es decir notemos que no se cumplen las siguientes propiedades de manera simultánea:

  1. Para todo $z \in \mathbb{C}$, se cumple una y solo una de las siguientes tres condiciones: $z>0$, $z=0$ ó $-z>0$.
  2. Si $z>0$ y $w>0$, entonces $z+w>0$ y $zw>0$.

Sin perder generalidad, notemos que si suponemos que $z \neq 0$, entonces se cumple que $z^2>0$. De manera particular tenemos que $1^2>0$, $i^2>0$, por lo que $1^2 + i^2 >0$, pero $1^2 + i^2 = 1 + (-1) = 0$, es decir que $0>0$, lo cual claramente es una contradicción a la antisimetría, por lo que, bajo esta relación de orden, $\mathbb{C}$ no puede ser ordenado.

La observación 3.2 nos deja ver que dados $z_1, z_2 \in \mathbb{C}$ la desigualdad $z_1 < z_2$ no tiene sentido desde que no podemos decir que alguno es mayor que cero. Sin embargo mediante el módulo de un número complejo sí es posible pensar en la desigualdad $| \, z_1 \, | < | \, z_2 \,|$, que de acuerdo con la definición 3.1 nos diría que el punto $z_1$ está más cerca del origen que el punto $z_2$.

Ejemplo 3.1.
Sean $z_1 = -4 + 2i$, $z_2 = 3 – i$ y $z_3 = -4$ entonces:

  • a) $ \quad |\, z_1 \,| = |\, -4 + 2i \,| = \sqrt{(-4)^2 + 2^2} = \sqrt{16 + 4} = \sqrt{20}$.
  • b) $\quad |\, z_2 \,| = |\, 3 – i \,| = \sqrt{3^2 + (-1)^2} = \sqrt{9 + 1} = \sqrt{10}$.
  • c) $\quad |\, z_3 \,| = \sqrt{\left(-4\right)^2} = |\, -4 \,| = 4$.

Como $|\,z_1\,|>|\,z_2\,|$, entonces $z_1$ está más lejos del origen que $z_2$.

Por otra parte, tenemos que $|\,z_3\,|$ simplemente nos determina el valor absoluto del número real $z_3$.

Observación 3.3.
De acuerdo con las observaciones 2.3 y 2.4 sabemos que para $z = a+ib \in \mathbb{C}$ se cumple que $z\overline{z} = a^2 + b^2$, por lo que:
\begin{equation*}
| \, z \, |^2 = z \overline{z}.
\end{equation*}

Si consideramos que $z \neq 0$, tenemos que:
\begin{equation*}
\frac{z \overline{z}}{| \, z \, |^2} = z \, \frac{\overline{z}}{| \, z \, |^2} = 1.
\end{equation*}

Lo anterior nos dice que para $z \neq 0$, podemos calcular el inverso multiplicativo de $z$ como:
\begin{equation*}
z^{-1} = \frac{1}{z} = \frac{\overline{z}}{| \, z \, |^2}.
\end{equation*}
Geométricamente esto nos dice que el inverso de un número complejo $z\neq0$ estará en la dirección de su conjugado $\overline{z}$, pero su módulo estará determinado por el inverso del módulo de $z$, lo cual cobrará mayor sentido en la entrada 6.

Ejemplo 3.2.
Consideremos los siguientes números complejos:

  • a) $\quad z_1 = i$.
  • b) $\quad z_2 = 1 + i\,\sqrt{3}$.
  • c) $\quad z_3 = \frac{-1-i}{2}$.

Entonces:

  • a) \begin{equation*}
    z_1^{-1} =\frac{1}{z_1} =\frac{-i}{1^2} = – i.
    \end{equation*}
  • b) \begin{equation*}
    z_2^{-1} =\frac{1}{z_2} =\frac{1-i\sqrt{3}}{2^2} = \frac{1}{4}(1-i\sqrt{3}).
    \end{equation*}
  • c) \begin{equation*}
    z_3^{-1} =\frac{1}{z_3} =\frac{ \frac{-1+i}{2}}{\left(\frac{\sqrt{2}}{2}\right)^2} = -1+i.
    \end{equation*}
Figura 5: Gráfica de los números complejos del ejemplo 3.2 con sus respectivos inversos multiplicativos.

Proposición 3.1.
Sean $z, w \in \mathbb{C}$, entonces se satisfacen las siguientes igualdades:

  1. $|\, z + w \, |^2 = |\, z \, |^2 + 2 \, \text{Re}(z \overline{w}) + |\, w \, |^2$.
  2. Ley de cosenos.
    \begin{equation*}
    |\, z – w \, |^2 = |\, z \, |^2 – 2 \, \text{Re}(z \overline{w}) + |\, w \, |^2.
    \end{equation*}
  3. Identidad del paralelogramo.
    \begin{equation*}
    |\, z + w \, |^2 + |\, z – w \, |^2 = 2 \left(|\, z \, |^2 + |\, w \, |^2\right).
    \end{equation*}
  4. $| \, z w \,| = |\,z\,| \, |\,w\,|$.
  5. $\text{Re}(z \pm w) = \text{Re}(z) \pm \text{Re}(w)$ y $\text{Im}(z \pm w) = \text{Im}(z) \pm \text{Im}(w)$.
  6. Para $\alpha \in \mathbb{R}$, $\alpha\,\text{Re}(z) = \text{Re}(\alpha z)$ y $\alpha\,\text{Im}(z) = \text{Im}(\alpha z)$.
  7. Si $w \neq 0$, entonces $\left| \dfrac{z}{w} \right| = \dfrac{|\,z\,|}{|\,w|\,}$.
  8. $|\, z \,| = |\, \overline{z} \,|$.

Demostración. Dadas las hipótesis y considerando las observaciones 2.3 y 2.4, tenemos que:


  1. \begin{align*}
    |\, z + w \, |^2 & = \left( z + w \right)\overline{\left( z + w \right)}\\
    & = \left( z + w \right) \left( \overline{z} + \overline{w} \right)\\
    & = z \overline{z} + z \overline{w} + \overline{z}w + w \overline{w}\\
    & = |\, z \, |^2 + z \overline{w} + \overline{z \overline{w}} + |\, w \, |^2\\
    & = |\, z \, |^2 + 2 \, \text{Re}(z \overline{w}) + |\, w \, |^2.
    \end{align*}
  2. Se deja como ejercicio al lector.
  3. Considerando 1 y 2 tenemos que:
    \begin{align*}
    |\, z + w \, |^2 + |\, z – w \, |^2 & = \left(|\, z \, |^2 + 2\,\text{Re}(z \overline{w}) + |\, w \, |^2\right) + \left(|\, z \, |^2 – 2 \, \text{Re}(z \overline{w}) + |\, w \, |^2\right)\\
    & = 2 \, |\, z \, |^2 + 2 \, |\, w \, |^2\\
    & = 2 \left(|\, z \, |^2 + |\, w \, |^2\right)
    \end{align*}
  4. Sabemos que para todo $z\in\mathbb{C}$ se tiene que $|\,z\,|\geq0$, por lo que:
    \begin{equation*}
    |\,zw\,|^2 = \left(zw\right)\left(\overline{zw}\right) = \left(z \overline{z} \right)\left(w \overline{w}\right) = |\,z\,|^2 |\,w\,|^2.
    \end{equation*}

Entonces $|\,zw\,| = |\,z\,|\, |\,w\,|$.

  1. Se deja como ejercicio al lector.
  2. Se deja como ejercicio al lector.
  3. Supongamos que $w\neq0$, entonces $|\,w\,|>0$, por lo que considerando el punto 4 tenemos que:
    \begin{equation*}
    |\, z \,| = \left|\,\frac{z}{w}\, w\,\right| = \left|\,\frac{z}{w}\,\right|\,|\, w\,|, \quad \Longrightarrow \quad \frac{|\,z\,|}{|\,w\,|} = \left|\,\frac{z}{w}\,\right|.
    \end{equation*}
  4. Se deja como ejercicio al lector.

$\blacksquare$

Observación 3.4.
Las propiedades 4, 5 y 6 de esta proposición se pueden generalizar por medio de inducción matemática, es decir para $z_1, z_2, \ldots, z_n \in\mathbb{C}$, con $n\geq2$, se cumple que:

\begin{equation*}
|\,z_1 z_2 \cdots z_n\,| = |\,z_1\,| \, |\,z_2\,| \cdots |\,z_n\,|.
\end{equation*}

\begin{equation*}
\operatorname{Re}(z_1 + z_2 + \cdots + z_n) =\operatorname{Re}(z_1) + \operatorname{Re}(z_2) + \cdots + \text{Re}(z_n).
\end{equation*}

\begin{equation*}
\operatorname{Im}(z_1 + z_2 + \cdots + z_n) = \operatorname{Im}(z_1) + \operatorname{Im}(z_2) + \cdots + \operatorname{Im}(z_n).
\end{equation*}

Es importante notar que al igual que el valor absoluto satisface la desigualdad del triángulo en $\mathbb{R}$, el módulo en $\mathbb{C}$ también la cumple.

Proposición 3.2. (Desigualdad del triángulo.)
Para todo $z_1,z_2\in\mathbb{C}$ se cumple que:

\begin{equation*}
|\,z_1 + z_2\,| \leq |\,z_1\,| + |\,z_2\,|
\end{equation*}

Demostración. De acuerdo con la observación 3.1 tenemos que para todo $z \in \mathbb{C}$ se cumple:
\begin{equation*}
\operatorname{Re}(z) \leq \left|\,\operatorname{Re}(z)\,\right| \leq \left|\,z\,\right|. \tag{3.1}
\end{equation*}

Considerando la proposición 3.1, incisos 4 y 6, tenemos que:
\begin{equation*}
|\, z_1 \,| \, |\, z_2 \,| = |\, z_1 \,| \, |\, \overline{z_2} \,| = |\, z_1 \overline{z_2}\,|.
\end{equation*}

Entonces, por (3.1) se sigue que:
\begin{equation*}
\operatorname{Re}(z_1\overline{z_2}) \leq |\, z_1 \overline{z_2}\,|.
\end{equation*}

Por otra parte, por la proposición 3.1 inciso 1, se tiene que:
\begin{align*}
|\, z_1 + z_2 \, |^2 & = |\, z_1 \, |^2 + 2 \, \operatorname{Re}(z_1 \overline{z_2}) + |\, z_2 \, |^2 \\
& \leq |\, z_1 \, |^2 + 2 \, |\, z_1 \overline{z_2}\,| + |\, z_2 \, |^2\\
& = |\, z_1 \, |^2 + 2\,|\, z_1 \,| \, |\,\overline{z_2}\,| + |\, z_2 \, |^2\\
& = |\, z_1 \, |^2 + 2\,|\, z_1 \,| \, |\,z_2\,| + |\, z_2 \, |^2\\
& = \left( | \, z_1 \, | + | \, z_2 \, | \right)^2.
\end{align*}

Como $| \, z \,| \geq 0 $ para todo $z \in \mathbb{C}$, entonces tomando raíz cuadrada en la desigualdad se sigue que:
\begin{equation*}
| \, z_1 + z_2 \, | \leq | \, z_1 \, | + | \, z_2 \,|.
\end{equation*}

$\blacksquare$

De manera geométrica podemos comprobar que se satisface la desigualdad del triángulo:

Figura 6: Desigualdad del triángulo para el módulo de números complejos.

Observación 3.5.
Consideremos la proposición 3.2, tenemos que:
\begin{equation*}
\operatorname{Re} \left(z_1\,\overline{z_2}\right) = |\,z_1\,\overline{z_2}\,| \quad \Longleftrightarrow \quad z_1\,\overline{z_2} \in \mathbb{R} \,\, \text{y} \, \, z_1\,\overline{z_2}\geq 0.
\end{equation*}

La cual es una condición necesaria y suficiente para que se cumpla la igualdad en la desigualdad del triángulo. (¿Por qué?)

Notemos que si $z_2 \neq 0$, entonces $z_1\,\overline{z_2} = \dfrac{z_1 |z_2|^2}{z_2}$, por lo que (¿Por qué?):
\begin{equation*}
z_1\,\overline{z_2} \in \mathbb{R} \,\, \text{y} \, \, z_1\,\overline{z_2}\geq0 \quad \Longleftrightarrow \quad \frac{z_1}{z_2}\geq0.
\end{equation*}

Entonces:
\begin{align*}
|\, z_1 + z_2 \,| &= \left|\,\left(\frac{z_1}{z_2} + 1 \right)z_2\,\right|\\
&= \left|\,\frac{z_1}{z_2} + 1 \,\right|\,|\,z_2\,|\\
&= \left(\frac{|\,z_1\,|}{|\,z_2\,|} + 1 \right) |\,z_2\,|\\
&=|\,z_1\,| + |\,z_2\,|.
\end{align*}

Una consecuencia de la desigualdad del triángulo es:

Proposición 3.3.
Para todo $z_1, z_2 \in \mathbb{C}$ se cumple que:
\begin{equation*}
\left| \, | \, z_1 \, | – | \, z_2 \,| \, \right| \leq | \, z_1 \pm z_2 \, |.
\end{equation*}

Demostración.
Se deja como ejercicio al lector.

$\blacksquare$

Ejemplo 3.3.
Sea $z$ un número complejo tal que $|\, z \,| = 1$, entonces:
\begin{equation*}
1 = |\, – 1 \,| = |\, 1 – 2 \,| = |\, |\,z\,| – 2 \,| \leq |\, z – 2\,|.
\end{equation*}

\begin{equation*}
|\, z – 2\,| \leq |\,z\,| + 2 = 1 + 2 = 3.
\end{equation*}

Observación 3.6.
La desigualdad del triángulo se puede generalizar mediante inducción matemática para un número finito de términos, es decir:
\begin{equation*}
|\, z_1 + z_2 + \cdots + z_n\,| \leq |\,z_1\,| + |\,z_2\,| + \cdots + |\,z_n\,|, \quad \forall n \geq 2.
\end{equation*}

o simplemente:
\begin{equation*}
\left|\, \sum_{i=1}^n z_i \,\right| \leq \sum_{i=1}^n |\,z_i\,|, \quad \forall n \geq 2.
\end{equation*}

Otro resultado importante es la siguiente desigualdad:

Proposición 3.4. (Desigualdad de Cauchy – Schwarz para números complejos.)
Si $z_1, \ldots, z_n$ y $w_1, \ldots, w_n$ son números complejos, entonces:
\begin{equation*}
\left|\, \sum_{i=1}^n z_i w_i \,\right|^2 \leq \sum_{i=1}^n \left|\,z_i\,\right|^2 \sum_{i=1}^n \left|\,w_i\,\right|^2, \quad \forall n \geq 2.
\end{equation*}

Demostración. Dadas las hipótesis, tenemos sin pérdida de generalidad que:
\begin{equation*}
\sum_{i=1}^n \left|\,w_i\,\right|^2 = 0 \quad \Longleftrightarrow \quad \left|\,w_i\,\right|^2 = 0, \quad \forall i \in {1, \ldots, n} \quad \Longleftrightarrow \quad w_i = 0, \quad \forall i \in {1, \ldots, n}.
\end{equation*}

Por lo que en caso de que $w_i = 0, \, \forall i \in {1, \ldots, n}$, es claro que se cumple la igualdad. Entonces, sin pérdida de generalidad supongamos que $\sum_{i=1}^n \left|\,w_i\,\right|^2 \neq 0$.

Notemos que para cualquier $\lambda \in \mathbb{C}$ se cumple que:
\begin{equation*}
0 \leq \sum_{i=1}^n \left|\,z_i – \lambda \overline{w_i}\,\right|^2.
\end{equation*}
De acuerdo con la proposición 3.1 tenemos que:
\begin{align*}
\sum_{i=1}^n \left|\,z_i – \lambda \overline{w_i}\,\right|^2 & = \sum_{i=1}^n \left( \left|\,z_i\,\right|^2 + \left|\,w_i\,\right|^2 – 2 \, \text{Re}\left(z_i \overline{\lambda \overline{w_i}}\right) \right)\\
& = \sum_{i=1}^n \left|\,z_i\,\right|^2 + \left|\,\lambda\,\right|^2\sum_{i=1}^n \left|\,w_i\,\right|^2 – 2 \, \sum_{i=1}^n \text{Re}\left(z_i \overline{\lambda} w_i\right)\\
& = \sum_{i=1}^n \left|\,z_i\,\right|^2 + \left|\,\lambda\,\right|^2\sum_{i=1}^n \left|\,w_i\,\right|^2 – 2\,\text{Re}\left( \overline{\lambda} \sum_{i=1}^n z_i w_i\right). \tag{3.2}
\end{align*}

Por otra parte, dado que $\lambda$ es arbitrario y $\sum_{i=1}^n \left|\,w_i\,\right|^2 \neq 0$, entonces podemos tomarlo de la forma:
\begin{equation*}
\lambda = \frac{\sum_{i=1}^n z_i w_i}{\sum_{i=1}^n \left|\, w_i\,\right|^2} \quad \Longrightarrow \quad \overline{\lambda} = \frac{\overline{\sum_{i=1}^n z_i w_i}}{\sum_{i=1}^n \left|\, w_i\,\right|^2}.
\end{equation*}

Notemos que:
\begin{align*}
\overline{\lambda}\sum_{i=1}^n z_i w_i & = \left( \frac{\overline{\sum_{i=1}^n z_i w_i}}{\sum_{i=1}^n \left|\, w_i\,\right|^2} \right) \left( \sum_{i=1}^n z_i w_i \right)\\
& = \frac{\left|\sum_{i=1}^n z_i w_i\right|^2}{\sum_{i=1}^n \left|\, w_i\,\right|^2} \in \mathbb{R},
\end{align*}

por lo que:
\begin{align*}
– 2\,\text{Re}\left( \overline{\lambda} \cdot \sum_{i=1}^n z_i w_i\right) & = – 2\,\text{Re}\left( \frac{\left|\sum_{i=1}^n z_i w_i\right|^2}{\sum_{i=1}^n \left|\, w_i\,\right|^2}\right)\\
& = – 2 \, \frac{\left|\sum_{i=1}^n z_i w_i\right|^2}{\sum_{i=1}^n \left|\, w_i\,\right|^2}.
\end{align*}

Sustituyendo en (3.2) tenemos que:
\begin{align*}
0 & \leq \sum_{i=1}^n \left|\,z_i\,\right|^2 + \left|\,\frac{\sum_{i=1}^n z_i w_i}{\sum_{i=1}^n \left|\, w_i\,\right|^2} \,\right|^2\sum_{i=1}^n \left|\,w_i\,\right|^2 – 2\,\text{Re}\left( \overline{\lambda} \sum_{i=1}^n z_i w_i\right)\\
& = \sum_{i=1}^n \left|\,z_i\,\right|^2 + \frac{\left|\,\sum_{i=1}^n z_i w_i\,\right|^2}{\sum_{i=1}^n \left|\, w_i\,\right|^2} – 2\,\frac{\left|\,\sum_{i=1}^n z_i w_i\,\right|^2}{\sum_{i=1}^n \left|\, w_i\,\right|^2}.
\end{align*}

Por lo tanto:
\begin{equation*} \frac{\left|\,\sum_{i=1}^n z_i w_i\,\right|^2}{\sum_{i=1}^n \left|\, w_i\,\right|^2} \leq \sum_{i=1}^n \left|\,z_i\,\right|^2 \quad \Longrightarrow \quad \left|\,\sum_{i=1}^n z_i w_i\,\right|^2 \leq \sum_{i=1}^n \left|\,z_i\,\right|^2 \sum_{i=1}^n \left|\, w_i\,\right|^2.
\end{equation*}

$\blacksquare$

Esta desigualdad será de mucha utilidad en la última unidad como criterio para probar la convergencia de algunas series.

Observación 3.7.
La definición de producto interior en un espacio vectorial tiene cierta sutileza cuando se trata de un espacio vectorial complejo, ya que en dado caso es posible hablar de un producto interior hermitiano, es decir la propiedad de simetría que conocemos queda sujeta a la operación de la conjugación compleja, por lo que en algunos textos es común establecer la desigualdad de Cauchy-Schwarz como:
\begin{equation*}
\left|\, \sum_{i=1}^n z_i \overline{w_i} \,\right|^2 \leq \sum_{i=1}^n \left|\,z_i\,\right|^2 \sum_{i=1}^n \left|\,w_i\,\right|^2, \quad \forall n \geq 2, \end{equation*}

ya que $\sum_{i=1}^n z_i \overline{w_i}$ define justamente un producto interior en $\mathbb{C}^n$.

De acuerdo con lo anterior, se puede plantear la siguiente proposición, cuya demostración se obtuvo del libro Principios de Análisis Matemático de Walter Rudin.

Proposición 3.4.1. (Desigualdad de C-S.)
Si $z_1,\ldots,z_n, w_1, \ldots, w_n\in\mathbb{C}$, entonces:
\begin{equation*}
\left|\, \sum_{i=1}^n z_i \overline{w_i} \,\right|^2 \leq \sum_{i=1}^n \left|\,z_i\,\right|^2 \sum_{i=1}^n \left|\,w_i\,\right|^2, \quad \forall n \geq 2. \end{equation*}

Demostración. Dadas las hipótesis, sean $A = \sum_{i=1}^n \left|\,z_i\,\right|^2$, $B = \sum_{i=1}^n \left|\,w_i\,\right|^2$ y $C = \sum_{i=1}^n z_i \overline{w_i}$, entonces:
\begin{align*}
\sum_{i=1}^n |\,Bz_i – Cw_i\,|^2 & = B^2 A – 2\,\text{Re}(B\overline{C}C) + |\,C\,|^2B\\
& = B\left(AB – |C|^2\right)\geq 0.
\end{align*}

Entonces de $|\,C\,|^2 \leq AB$ se sigue el resultado.

$\blacksquare$

Tarea moral

  1. Verifica las desigualdades de la observación 3.1.
  2. Realiza las demostraciones faltantes en la proposición 3.1.
  3. Considera la observación 3.5. Justifica porqué la primera condición es necesaria y suficiente para que se cumpla la igualdad en la proposición 3.2. Explica porqué son equivalentes las últimas dos condiciones.
  4. Escribe la demostración de la proposición 3.3 de manera detallada.
  5. Realiza por inducción la prueba de la observación 3.6. ¿Qué condición es necesaria y suficiente para que se de la igualdad?
  6. Considera la proposición 3.5, ¿es posible probar la desigualdad de Cauchy-Schawrz por inducción?
  7. Justifica y desarrolla los pasos de la demostración de la desigualdad de Cauchy-Schwarz dada en la proposición 3.4.1. Argumenta de manera detallada porqué se cumple el resultado.
  8. Sean $z_1,z_2,z_3\in\mathbb{C}$. Prueba la siguiente igualdad:
    \begin{equation*}
    (z_1 – z_2)(1+z_3\overline{z_3}) = (z_1 – z_3)(1+z_2\overline{z_3}) + (z_3 – z_2)(1+z_1\overline{z_3}).
    \end{equation*}
  9. Sean $z,w\in\mathbb{C}$ y sea $n\in\mathbb{N}$. Prueba el siguiente resultado:
    \begin{equation*}
    (n+zw)(n+\overline{zw}) \leq \left(n+|\,z\,|^2\right) \left(n+|\,w\,|^2\right). \end{equation*}

Más adelante…

Hasta ahora hemos realizado una interpretación geométrica de los números complejos mediante una correspondencia con los puntos del plano, ahora llamado el plano complejo. Analizamos las operaciones aritméticas de estos números y notamos cómo la suma y resta de números complejos se comportan como la suma y resta vectorial en $\mathbb{R}^2$ respectivamente, mientras que notamos que la multiplicación y división de números complejos se comportan como una rotación compuesta con una homotecia en $\mathbb{R}^2$ y la conjugación compleja se comporta como una reflexión del número complejo sobre el eje real. Observamos que la parte real y la parte imaginaria de un número complejo son las proyecciones de dicho número sobre los ejes real e imaginario respectivamente.

De manera geométrica interpretamos el concepto del módulo de un número complejo como la distancia que hay entre un número $z\in\mathbb{C}$ y el cero. Además probamos algunas propiedades del módulo que nos permitieron caracterizar y entender mejor a los números complejos. Por ejemplo, notamos que en el caso en que un número complejo es un número real entonces el módulo de $\mathbb{C}$ es simplemente el valor absoluto de $\mathbb{R}$ y que a diferencia de $\mathbb{R}$, en $\mathbb{C}$ no es posible establecer un orden que sea compatible con las operaciones de campo definidas en la entrada anterior.

En la siguiente entrada continuaremos analizando al campo $\mathbb{C}$ desde una perspectiva geométrica. Consideraremos el concepto del módulo y sus propiedades para dar una nueva interpretación de un número complejo mediante el uso de coordenadas polares, misma que nos permitirá dar solución a ecuaciones de la forma $w^n = z$, con $w,z\in\mathbb{C}$, $z\neq 0$ y $n\in\mathbb{Z}$.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales de segundo orden con coeficientes variables. Solución por series de potencias cerca de un punto ordinario

Por Eduardo Vera Rosales

Introducción

A lo largo de las entradas anteriores que forman parte de la segunda unidad hemos estudiado a detalle ecuaciones lineales de segundo orden con coeficientes constantes, es decir, ecuaciones de la forma $$a\frac{d^{2}y}{dt^{2}}+b\frac{dy}{dt}+cy=g(t), \,\,\,\,\, a\neq 0$$ y hemos desarrollado diversos métodos para resolverlas. Es momento de revisar ecuaciones lineales de segundo orden, pero ahora con coeficientes variables, es decir, del tipo $$a_{0}(t)\frac{d^{2}y}{dt^{2}}+a_{1}(t)\frac{dy}{dt}+a_{2}(t)y=g(t).$$

Hallar soluciones para este tipo de ecuaciones no resulta tan sencillo como para el caso con coeficientes constantes, y en ocasiones no podremos encontrar soluciones en términos de funciones elementales como polinomios, exponenciales, trigonométricas, etc., por lo que una manera de hallar soluciones es suponiendo que la solución puede escribirse como una serie de potencias alrededor de un punto dado.

Estudiaremos entonces soluciones por series de potencias en dos tipos de puntos: cuando los coeficientes tienen desarrollo en series de Taylor alrededor del punto dado, y cuando lo anterior no ocurre. En particular, en esta entrada revisaremos el primer caso. Definiremos los conceptos de puntos ordinarios y singulares, y demostraremos la existencia de soluciones en series de potencias cerca de un punto ordinario,.

¡Manos a la obra!

Soluciones en series de potencias cerca de un punto ordinario

En el primer video ofrecemos la definición de puntos ordinarios y puntos singulares, y probamos la existencia de soluciones en series de potencias cerca de un punto ordinario, a la ecuación diferencial $$a_{0}(t)\frac{d^{2}y}{dt^{2}}+a_{1}(t)\frac{dy}{dt}+a_{2}(t)y=0.$$ La solución encontrada será, además, la solución general a la ecuación diferencial.

Radio de convergencia de la solución en serie de potencias cerca de un punto ordinario

En el segundo video de la entrada encontramos el radio de convergencia para la solución en serie de potencias cerca de un punto ordinario.

Ejemplos

En el último video de la entrada resolvemos un par de ejemplos de ecuaciones diferenciales con coeficientes variables, con el método desarrollado a lo largo de esta misma entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Qué sucede si suponemos que $a_{0}=0$ en la demostración del primer video?
  • ¿Qué pasa si suponemos que $c=1$ en la demostración del primer video?
  • Prueba que las series de potencias que aparecen en la solución general a la ecuación diferencial $$\frac{d^{2}y}{dt^{2}}-ty=0$$ son soluciones particulares a la misma ecuación, y que estas son linealmente independientes. Por tanto, la solución general efectivamente lo es para la ecuación diferencial.
  • Encuentra la solución general a la ecuación $$\frac{d^{2}y}{dt^{2}}-y=0$$ usando series de potencias alrededor de $t_{0}=0$.
  • Encuentra la solución al problema de valor inicial $$\frac{d^{2}y}{dt^{2}}-ty=0$$ $$y(1)=0; \,\,\,\,\, \frac{dy}{dt}(1)=2$$ calculando una solución por serie de potencias alrededor de $t_{0}=1$.

Más adelante

Terminamos de estudiar las soluciones cerca de un punto ordinario. Lo siguientes será revisar el caso cuando el punto en cuestión no es un punto ordinario, es decir, es un punto singular de nuestra ecuación diferencial $$a_{0}(t)\frac{d^{2}y}{dt^{2}}+a_{1}(t)\frac{dy}{dt}+a_{2}(t)y=0.$$

Pero antes analizaremos un caso particular sencillo de resolver: la ecuación de Euler que tiene la forma $$t^{2}\frac{d^{2}y}{dt^{2}}+\alpha t\frac{dy}{dt}+\beta y=0.$$

A partir de la solución para esta ecuación podremos generalizar más adelante el método a una clase más general de ecuaciones diferenciales con puntos singulares.

¡No se lo pierdan!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Teorema de Existencia y Unicidad – Iterantes de Picard y Convergencia

Por Omar González Franco

No te preocupes por tus dificultades en matemáticas.
Te puedo asegurar que las mías son aún mayores.
– Albert Einstein

Introducción

En la entrada anterior iniciamos con el desarrollo de una teoría preliminar para demostrar el teorema de existencia y unicidad de Picard – Lindelöf. Hasta ahora hemos visto que un problema de valor inicial, en el caso de ecuaciones diferenciales ordinarias de primer orden, se puede escribir de forma equivalente como una ecuación integral. Aprendimos lo que es una función lipschitziana respecto de la segunda variable, demostramos algunos resultados importantes al respecto y concluimos con la demostración del lema de Gronwall.

Continuando con esta teoría preliminar, en esta entrada definiremos las iterantes de Picard, pero antes de ello es importante hacer un breve recordatorio sobre series y sucesiones de funciones.

También enunciaremos el teorema de Picard – Lindelöf para el caso local y resolveremos un ejercicio en el que apliquemos este resultado.

Recordemos el teorema de Picard – Lindelöf para que lo tengamos presente.

Bien, comencemos con el repaso de series y sucesiones de funciones.

Series y sucesiones de funciones

En cursos anteriores ya se han estudiado series y sucesiones de funciones. Aquí presentaremos, a manera de repaso, el concepto de convergencia puntual, convergencia uniforme y convergencia absoluta, además del criterio mayorante de Weierstrass.

Recordemos que una sucesión $\{f_{n}\}$ de funciones de $D$ a $\mathbb{R}$ converge en un punto $x \in D$ cuando la sucesión de números reales $\{f_{n}(x)\}$ es convergente. Cuando esto ocurre en todos los puntos de un conjunto no vacío $I \subset D$ se dice que $\{f_{n}\}$ converge puntualmente en $I$. En tal caso podemos definir una función $f: I \rightarrow \mathbb{R}$ escribiendo

$$f(x) = \lim_{n \to \infty} f_{n}(x) \label{3} \tag{3}$$

para todo $x \in I$, y decimos que $f$ es el límite puntual de $\{f_{n}\}$ en $I$.

Por otro lado, se dice que la sucesión $\{f_{n}(x)\}$ converge uniformemente a la función $f(x)$ en $I$ si

$$\lim_{n \to \infty} \left( \sup_{x \in I} |f_{n}(x) -f(x)|\right) = 0 \label{4} \tag{4}$$

En la práctica las ecuaciones (\ref{3}) y (\ref{4}) nos serán de mucha utilidad, sin embargo es conveniente tener presente las definiciones formales de convergencia puntual y convergencia uniforme para sucesiones de funciones.

El concepto de convergencia uniforme es un concepto más fuerte que el de convergencia puntual. En el caso de convergencia puntual $N$ puede depender de $\varepsilon$ y de $x$, mientras que en la convergencia uniforme sólo puede depender de $\varepsilon$. Así, toda sucesión que converge uniformemente, converge puntualmente. El enunciado recíproco es falso, realicemos un ejemplo para mostrar esto.

Ejemplo: Mostrar que la sucesión $f_{n}: [0, 1] \rightarrow \mathbb{R}$ definida por $f_{n}(x) = x^{n}$ converge puntualmente pero no uniformemente.

Solución: Para $x \in [0, 1)$ la sucesión $f_{n}(x) = x^{n}$ converge puntualmente a $f(x) = 0$ ya que

$$|f_{n}(x) -f(x)|=|x^{n} -0| = |x^{n}| = x^{n}$$

y

$$\lim_{n \to \infty} x^{n} = 0$$

esto para $x \in [0, 1)$, pero cuando $x = 1$ ocurre que $f_{n}(1) = 1^{n} = 1$, es decir, converge puntualmente a $f(x) = 1$ y así

$$|f_{n}(x) -f(x)|=|x^{n} -1| = |1 -1| = 0$$

Geométricamente podemos observar que, en efecto, todas las gráficas convergen a $f(x) = 0$ para $x \in [0, 1)$ y sólo cuando $x = 1$ es cuando la sucesión converge a $f(x) = 1$.

Gráficas de $f_{n}(x) = x^{n}$ para distintas $n$´s.

Sin embargo, la sucesión $f_{n}(x) = x^{n}$ no converge uniformemente, es sencillo darse cuenta que no existe $N \in \mathbb{N}$ para cumplir con (\ref{5}). Por muy pequeña que tomemos a $\varepsilon$ siempre va a haber alguna $n$ para $x \in [0, 1]$ que haga que

$$|f_{n}(x) -f(x)|> \varepsilon$$

Dicho de otra forma,

$$\lim_{n \to \infty} \left( \sup_{x \in I} |f_{n}(x) -f(x)|\right) \neq 0$$

$\square$

Será necesario extender el concepto de convergencia uniforme al caso de series de funciones.

Un resultado importante que utilizaremos más adelante es el criterio de comparación directa. No lo demostraremos.

Para decir que la serie $\sum_{n = 1}^{\infty} a_{n}$ converge es común usar la notación

$$\sum_{n = 1}^{\infty} a_{n} < \infty \label{8} \tag{8}$$

Ahora definamos lo que significa que una serie sea absolutamente convergente.

La convergencia absoluta implica convergencia, pero la afirmación recíproca no es verdadera.

Una propiedad que nos será de mucha utilidad es la siguiente.

$$ \left| \sum_{n=1}^{\infty }a_{n} \right| \leq \sum_{n = 1}^{\infty}|a_{n}| \label{9} \tag{9}$$

Una herramienta más que nos será útil a la hora de demostrar el teorema de Picard – Lindelöf es el criterio mayorante de Weierstrass o mejor conocido como prueba M de Weierstrass. Este criterio nos permite comprobar la convergencia uniforme de una serie infinita cuyos términos son al mismo tiempo funciones de variable real o compleja.

Demostración: Por hipótesis sabemos que para cada $x$ en $D$

$$\left| \sum_{n = 1}^{\infty} f_{n}(x) \right| \leq \sum_{n = 1}^{\infty}|f_{n}(x)| \leq \sum_{n = 1}^{\infty }M_{n} < \infty \label{10} \tag{10}$$

es decir, la serie $\sum_{n = 1}^{\infty} M_{n}$ converge y como $|f_{n}(x)| \leq M_{n}$ y usando el criterio de comparación directa, entonces $\sum_{n = 1}^{\infty}| f_{n}(x)|$ converge, en consecuencia $\sum_{n = 1}^{\infty}f_{n}(x)$ converge absolutamente, esto significa que existe una función $f$ límite puntual de la serie de funciones tal que

$$f(x) = \sum_{n = 1}^{\infty}f_{n}(x)$$

o bien,

$$|f(x)| = \left| \sum_{n = 1}^{\infty}f_{n}(x) \right| \label{11} \tag{11}$$

Como queremos demostrar la convergencia uniforme tomemos $N \in \mathbb{N}$, tal que para $n > N$ la serie sea convergente. Vemos que podemos escribir lo siguiente.

$$\left|f(x) -\sum_{n = 1}^{N}f_{n}(x) \right| = \left |\sum_{n = N + 1}^{\infty}f_{n}(x) \right| \label{12} \tag{12}$$

sabemos que

$$\left|\sum_{n = N + 1}^{\infty}f_{n}(x) \right | \leq \sum_{n = N + 1}^{\infty} |f_{n}(x)| \label{13} \tag{13}$$

y por hipótesis

$$\sum_{n = N + 1}^{\infty}|f_{n}(x)| \leq \sum_{n = N + 1}^{\infty}M_{n} \label{14} \tag{14}$$

De los resultados (\ref{13}) y (\ref{14}) obtenemos

$$\left| \sum_{n = N + 1}^{\infty}f_{n}(x)\right| \leq \sum_{n = N + 1}^{\infty}M_{n} \label{15} \tag{15}$$

Al ser $\sum_{n = 1}^{\infty }M_{n}$ convergente, el número

$$\varepsilon = \sum_{n = N + 1}^{\infty }M_{n}$$

puede hacerse tan pequeño como se quiera eligiendo $N$ suficiente grande, así

$$\left| \sum_{n = N + 1}^{\infty}f_{n}(x) \right | < \varepsilon \label{16} \tag{16}$$

Por lo tanto, de acuerdo a (\ref{7}), la serie $\sum_{n = 1}^{\infty}f_{n}(x)$ converge uniformemente.

$\square$

Con esto concluimos nuestro repaso sobre series y sucesiones de funciones. Teniendo presente estos resultados definamos las iterantes de Picard.

Iterantes de Picard

El matemático francés Charles Émile Picard (1856 – 1941) desarrolló un método iterativo para obtener una solución de una ecuación diferencial de primer orden. A este método iterativo se le conoce como iterantes de Picard.

Las iterantes de Picard de manera desglosada tienen la siguiente forma:

\begin{align*}
y_{0}(x) &= y_{0} \\
y_{1}(x) &= y_{0} + \int_{x_{0}}^{x}f(t,y_{0}(t)) dt \\
y_{2}(x) &= y_{0} + \int_{x_{0}}^{x}f(t,y_{1}(t)) dt \\
y_{3}(x) &= y_{0} + \int_{x_{0}}^{x}f(t,y_{2}(t))dt \\
\vdots \\
y_{n}(x) &= y_{0} + \int_{x_{0}}^{x} f(t, y_{n -1}(t)) dt
\end{align*}

Las iterantes de Picard siempre convergen, en el intervalo adecuado, a la solución del PVI (\ref{1}), esto lo verificaremos al momento de demostrar el teorema de Picard – Lindelöf, pero considerando que es cierto se puede deducir un resultado interesante, para ello consideremos el siguiente teorema.

La demostración de este resultado también será parte de la demostración del teorema de Picard – Lindelöf, así que por el momento consideremos que es cierto y observemos lo siguiente.

Si las iterantes de Picard satisfacen las hipótesis del teorema anterior y suponiendo que $f(x,y)$ es una función continua en $U$ que contiene a los puntos $(x, y_{n}(x))$, $\forall x \in [a, b]$, $\forall n \in \mathbb{N},$ entonces se tiene lo siguiente.

\begin{align*}
y(x) &= \lim_{n \to \infty } y_{n + 1}(x) \\
&= \lim_{n \to \infty} \left[y_{0} + \int_{x_{0}}^{x} f(t, y_{n}(t)) dt \right] \\
&= y_{0} + \int_{x_{0}}^{x} \lim_{n \to \infty} f(t, y_{n}(t)) dt \\
&= y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt
\end{align*}

es decir,

$$ y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt \label{19} \tag{19}$$

Este resultado corresponde a la ecuación integral equivalente al problema de valor inicial. Con este método notamos que si las iterantes de Picard convergen a la solución del PVI, entonces $y(x)$ verifica la ecuación integral, tal como lo demostramos en la entrada anterior.

Por otro lado, al definir las iterantes de Picard hemos considerado un conjunto de la forma

$$R = \{ (x, y) \in \mathbb{R}^{2} \mid |x -x_{0}| \leq a, |y -y_{0}| \leq b, \hspace{0.2cm} a, b \in \mathbb{R} \}$$

La forma de este conjunto evita tener problemas para definir las iterantes. En general un conjunto de la forma $U = \delta \times \mathbb{R}$, $\delta = [a, b]$, $a, b \in \mathbb{R}$ conocidos como bandas verticales permite, no solamente que estén bien definidas, sino que además todas las iterantes estén definidas en el intervalo $\delta$.

Realicemos un ejemplo en el que apliquemos las iterantes de Picard para obtener la solución particular de un problema de valor inicial.

Ejemplo: Usando las iterantes de Picard, resolver el siguiente problema de valor inicial.

$$\dfrac{dy}{dx} = y; \hspace{1cm} y(0) = 1$$

Solución: En este caso tenemos la función, $f: \mathbb{R}^{2} \rightarrow \mathbb{R}$ definida por

$$f(x, y(x)) = y(x)$$

Es claro que es una función continua en $\mathbb{R}^{2}$. Por tanto, la ecuación integral equivalente al PVI para este caso es

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt = 1 + \int_{0}^{x} y(t)dt$$

La iterante inicial es la función constante $y_{0}(x) = 1$. Comencemos a calcular el resto de las iterantes de Picard de acuerdo a la relación iterativa (\ref{17}).

\begin{align*}
y_{1}(x) &= 1 + \int_{0}^{x} y_{0}(t) dt = 1 + \int_{0}^{x} 1dt = 1 + x \\
y_{2}(x) &= 1 + \int_{0}^{x} y_{1}(t) dt = 1 + \int_{0}^{x} (1 + t) dt = 1 + x + \dfrac{x^{2}}{2!} \\
y_{3}(x) &= 1 + \int_{0}^{x} y_{2}(t) dt = 1 + \int_{0}^{x} \left(1 + t + \dfrac{t^{2}}{2}\right) dt = 1 + x + \dfrac{x^{2}}{2!} + \dfrac{x^{3}}{3!} \\
\vdots
\end{align*}

La afirmación que hacemos es que para $n$ se obtiene

$$y_{n}(x) = 1 + \int_{0}^{x} y_{n -1}(t) dt = 1 + \dfrac{x}{1!} + \dfrac{x^{2}}{2!} + \dfrac{x^{3}}{3!} + \cdots + \dfrac{x^{n}}{n!} \label{20} \tag{20}$$

Ya lo hemos probado para $n = 1$, supongamos que la afirmación (\ref{20}) es verdadera y probemos para $n + 1$.

\begin{align*}
y_{n + 1}(x) &= 1 + \int_{0}^{x} y_{n}(t)dt \\
&= 1 + \int_{0}^{x} \left(1 + \dfrac{t}{1!} + \dfrac{t^{2}}{2!} + \cdots + \dfrac{t^{n}}{n!} \right) dt \\
&= 1 + x + \dfrac{x^{2}}{2 \cdot 1!} + \dfrac{x^{3}}{3 \cdot 2!} + \cdots + \dfrac{x^{n + 1}}{(n + 1) \cdot n!} \\
&= 1 + \dfrac{x}{1!} + \dfrac{x^{2}}{2!} + \dfrac{x^{3}}{3!} + \cdots + \dfrac{x^{n + 1}}{(n + 1)!}
\end{align*}

Esto es,

$$y_{n + 1}(x) = 1 + \dfrac{x}{1!} + \dfrac{x^{2}}{2!} + \dfrac{x^{3}}{3!} + \cdots + \dfrac{x^{n + 1}}{(n + 1)!}$$

Con esto hemos probado por inducción que las iterantes de Picard corresponden a la serie

$$y_{n}(x) = \sum_{k = 0}^{n} \dfrac{x^{k}}{k!}$$

Para obtener la solución al PVI debemos ver a qué converge esta serie, para ello tomemos el limite $n \rightarrow \infty$ observando que para cada $x \in \mathbb{R}$ existe el límite.

\begin{align*}
y(x) = \lim_{n \to \infty} y_{n}(x) = \lim_{n \to \infty} \sum_{k = 0}^{n} \dfrac{x^{k}}{k!} = \sum_{k = 0}^{\infty}\dfrac{x^{k}}{k!} = e^{x}
\end{align*}

Por lo tanto, la solución del problema de valor inicial

$$\dfrac{dy}{dx} = y; \hspace{1cm} y(0) = 1$$

es

$$y(x) = e^{x}$$

Sólo para verificar el resultado apliquemos el método de separación de variables para resolver el PVI.

\begin{align*}
\dfrac{dy}{dx} &= y \\
\dfrac{1}{y}\dfrac{dy}{dx} &= 1 \\
\int{\dfrac{dy}{y}} &= \int{dx} \\
\ln y &= x + c \\
y &= Ce^{x}
\end{align*}

La solución general de la ecuación diferencial $\dfrac{dy}{dx} = y$ es $y(x) = Ce^{x}$.

Apliquemos la condición inicial $y(0) = 1$.

$$y(0) = Ce^{0} = C = 1$$

En efecto, la solución al PVI es $y(x) = e^{x}$, tal como lo obtuvimos con las iterantes de Picard.

Para garantizar que las iterantes de Picard convergen a la solución del PVI se deben satisfacer las condiciones del teorema de existencia y unicidad, pero las hemos pasado por alto ya que el propósito de este ejercicio es ver cómo calcular las iterantes de Picard, sin embargo cabe mencionar que este PVI si las cumple por lo que la solución obtenida si es única. Más adelante veremos un ejemplo en el que si verificaremos que se cumple el teorema de existencia y unicidad.

$\square$

Con esto concluimos con la teoría preliminar que necesitamos conocer para demostrar el teorema de existencia y unicidad de Picard – Lindelöf. Sin embargo, es necesario hacer algunas aclaraciones.

Anteriormente mencionamos que existe un resultado global y uno local y esto es porque existen dos situaciones. En el teorema de Picard – Lindelöf hemos considerado como hipótesis un conjunto de la forma $U = \delta \times \mathbb{R}$ con $\delta = [a, b]$, $a, b \in \mathbb{R}$ y $f: U \rightarrow \mathbb{R}$ continua en $U$, además de que $f$ sea lipschitziana respecto de la segunda variable en $U$, estas condiciones son suficientes para tener un resultado global en el que siempre tendremos una solución única del problema de valor inicial definida en $\delta$, sin embargo es posible y más común que el conjunto $U$ no sea una banda vertical o siéndolo que $f$ no sea lipschitziana respecto de la segunda variable en $U$ o ambas a la vez. En esta segunda situación, bajo determinadas hipótesis, tendremos un teorema de existencia y unicidad local.

A continuación presentamos el teorema de existencia y unicidad local, este teorema no lo demostraremos pero gran parte de lo que veremos en la demostración del resultado global puede ser adaptado a las condiciones de este teorema.

Teorema de existencia y unicidad local

Es usual encontrarnos con ecuaciones diferenciales donde no se cumplan las tres condiciones del teorema global, sin embargo es posible que se cumplan en un pequeño conjunto $R \subset \mathbb{R}^{2}$ que contenga el punto $(x_{0}, y_{0})$ del PVI, de ahí la localidad del teorema. El conjunto compacto y convexo que más se parece a una banda vertical es el producto cartesiano de dos intervalos compactos en $\mathbb{R}$, es decir, un rectángulo con lados paralelos a los ejes de coordenadas. Un conjunto apropiado sería un rectángulo centrado en el punto $(x_{0}, y_{0})$.

$$R = \{(x, y) \in \mathbb{R}^{2} \mid |x- x_{0}| < a, |y -y_{0}| < b, \hspace{0.2cm} a, b \in \mathbb{R} \} \label{21} \tag{21}$$

El teorema de existencia y unicidad local establece lo siguiente.

En este curso nos enfocamos en el resultado global porque es un resultado general, sin embargo el resultado local nos permite hallar una región cerca del punto $(x_{0}, y_{0})$ donde un problema de valor inicial puede cumplir con las hipótesis del teorema para garantizar la existencia y unicidad de una solución, de esta forma es que, en la práctica, el resultado local puede ser un resultado más útil.

La demostración a detalle de este teorema se puede encontrar en la sección de videos de este mismo curso.

Para concluir esta entrada realicemos un ejemplo de un problema de valor inicial en el que apliquemos el teorema local para garantizar la existencia y unicidad de la solución y resolvamos el PVI aplicando las iterantes de Picard.

Aplicación del teorema de existencia y unicidad

  • Verificar las hipótesis del teorema local para el siguiente problema de valor inicial.

$$\dfrac{dy}{dx} = 2x(y -1); \hspace{1cm} y(0) = 2 \label{23} \tag{23}$$

  • Resolver este problema usando las iterantes de Picard.
  • Hallar el intervalo de solución $\delta$.

Solución: El primer ejercicio consiste en verificar que el PVI satisface las hipótesis del teorema local.

En este caso la función $f$ está dada por

$$f(x, y) = 2x(y -1)$$

la cual está definida en todo $\mathbb{R}^{2}$. Buscamos la solución particular que pasa por el punto $(x_{0}, y_{0}) = (0, 2)$ y como la función es continua en $\mathbb{R}^{2}$, en particular lo es en todo rectángulo de la forma

$$R = \{(x, y) \in \mathbb{R}^{2} \mid |x| \leq a, |y -2| \leq b \}, \hspace{1cm} (a > 0, b > 0) \label{24} \tag{24}$$

Con esto hemos verificado las dos primeras hipótesis del teorema local, veamos ahora si la función es lipschitziana.

Para todo $(x, y_{1}), (x, y_{2})$ puntos de $R$, se tiene

\begin{align*}
|f(x, y_{1}) -f(x, y_{2})| &= |2x(y_{1} -1) -2x(y_{2} -1)| \\
&= 2|x||y_{1} -y_{2}| \\
&= 2|x||(y_{1} -2) + (2 -y_{2})| \\
&\leq 2|x|(|y_{1} -2| + |2 -y_{2}|) \\
\end{align*}

Como $|x| \leq a$ y $|y -2| \leq b$, en particular

$$|y_{1} -2| + |2 -y_{2}| \leq b + b = 2b$$

entonces podemos acotar el último resultado de la siguiente manera.

$$2|x|(|y_{1} -2| + |2 -y_{2}|) \leq 2(a)(2b) = 4ab$$

Si definimos la constante de Lipschitz $L = 4ab$, obtenemos finalmente que

$$|f(x, y_{1}) -f(x, y_{2})| \leq L = 4ab \label{25} \tag{25}$$

probando así que $f$ es Lipschitziana en $U$.

Con esto hemos verificado que se cumplen las hipótesis del teorema local de Picard, por lo tanto podemos concluir que existe una única solución $y = y(x)$ al problema de valor inicial dado. Ahora resolvamos el PVI usando las iterantes de Picard.

Recordemos que las iterantes de Picard $y_{n}(x)$ asociadas al problema de valor inicial son

$$y_{0}(x) = y_{0}, \hspace{1cm} y_{n}(x) = y_{0} + \int_{x_{0}}^{x} f(t, y_{n -1}(t)) dt$$

Ya sabemos que $y_{0} = 2$ y $x_{0} = 0$ y recordemos que la función $f$ es $f(x, y) = 2x(y-1)$, así para $n = 1$, tenemos

$$y_{1}(x) = 2 + \int_{0}^{x} f(t, 2) dt = 2 + \int_{0}^{x} 2t(2 -1) dt = 2 + x^{2}$$

$$\Rightarrow y_{1}(x) = 2 + x^{2}$$

Para $n = 2$, tenemos

$$y_{2}(x) = 2 + \int_{0}^{x} f(t, 2 + t^{2}) dt = 2 + \int_{0}^{x} 2t(1 + t^{2})dt = 2 +x^{2} + \dfrac{x^{4}}{2}$$

$$\Rightarrow y_{2}(x) = 2 +x^{2} + \dfrac{x^{4}}{2}$$

Para $n = 3$, se tiene

$$y_{3}(x) = 2 + \int_{0}^{x} f \left( t, 2 + t^{2} + \dfrac{t^{4}}{2} \right) dt = 2 + \int_{0}^{x} 2t \left( 1 + t^{2} + \dfrac{t^{4}}{2} \right) dt$$

$$\Rightarrow y_{3}(x) = 2 + x^{2} + \dfrac{x^{4}}{2} + \dfrac{x^{6}}{3!}$$

Uno más, para $n = 4$, tenemos

$$y_{4}(x) = 2 + \int_{0}^{x} f \left( t, 2 + t^{2} + \dfrac{t^{4}}{2} + \dfrac{t^{6}}{3!} \right) dt = 2 + \int_{0}^{x} 2t \left( 1 + t^{2} + \dfrac{t^{4}}{2} + \dfrac{t^{6}}{3!} \right) dt$$

$$\Rightarrow y_{4}(x) = 2 + x^{2} + \dfrac{x^{4}}{2} + \dfrac{x^{6}}{3!} + \dfrac{x^{8}}{4!}$$

Estas iteraciones sugieren la siguiente serie.

$$y_{n}(x) = 1 + 1 + x^{2} + \dfrac{x^{4}}{2!} + \dfrac{x^{6}}{3!} + \dfrac{x^{8}}{4!} + \cdots +\dfrac{x^{2n}}{n!}$$

Esta fórmula es cierta para $n = 1,2,3, 4$ y si es cierta para $n$, entonces podemos sustituirla en la formula general de las iterantes de Picard mostrando que es cierta para $n+1$.

\begin{align*}
y_{n + 1}(x) &= 2 + \int_{0}^{x} f(t, y_{n}(t))dt \\
&= 2 + \int_{0}^{x} 2t\left( 1 + t^{2} + \dfrac{t^{4}}{2} + \dfrac{t^{6}}{3!} + \dfrac{t^{8}}{4!} + \cdots + \dfrac{t^{2n}}{n!}\right) dt \\
&= 2 + x^{2} + \dfrac{x^{4}}{2} + \dfrac{x^{6}}{3!} + \dfrac{x^{8}}{4!} + \dfrac{x^{10}}{5!} + \cdots + \dfrac{x^{2(n + 1)}}{(n + 1)!}
\end{align*}

Por lo tanto,

$$y_{n}(x) = 1 + \sum_{k = 0}^{n}\dfrac{x^{2k}}{k!} \label{26} \tag{26}$$

Como el PVI cumple con las hipótesis del teorema de existencia y unicidad entonces el límite $n \rightarrow \infty$ de las iterantes de Picard será la solución al problema de valor inicial. Apliquemos el límite a la serie (\ref{26}).

\begin{align*}
y(x) &= \lim_{n \to \infty} y_{n}(x) \\
&= \lim_{n \to \infty} \left( 1 + \sum_{k = 0}^{n} \dfrac{(x^{2})^{k}}{k!} \right) \\
&= 1 + \lim_{n \to \infty} \left( \sum_{k = 0}^{n} \dfrac{(x^{2})^{k}}{k!} \right) \\
&= 1 +\sum_{k = 0}^{\infty} \dfrac{(x^{2})^{k}}{k!} \\
&= 1 + e^{x^{2}}
\end{align*}

Por lo tanto, la solución al PVI (\ref{23}) es

$$y(x) = 1 + e^{x^{2}} \label{27} \tag{27}$$

Inmediatamente se puede verificar que $y(0)=2$ y que para todo $x \in \mathbb{R}$

$$\dfrac{dy}{dx} = 2xe^{x^{2}} = 2x \left(e^{x^{2}} \right) = 2x (y -1)$$

lo cual implica que la solución es válida en $\delta = (-\infty, \infty)$.

Sólo para verificar el resultado resolvamos rápidamente este PVI aplicando el método de separación de variables.

\begin{align*}
\dfrac{dy}{dx} &= 2x(y -1) \\
\dfrac{1}{y -1} \dfrac{dy}{dx} &= 2x \\
\int {\dfrac{dy}{y -1}} &= \int {2x dx} \\
\ln{(y -1)} &= x^{2} + c \\
y -1 &= e^{x^{2} + c} \\
y &= 1 + Ce^{x^{2}}
\end{align*}

La solución general a la ecuación diferencial

$$\dfrac{dy}{dx} = 2x(y -1)$$

es

$$y(x) = 1 + Ce^{x^{2}}$$

Apliquemos la condición inicial $y(0) = 2$.

$$y(0) = 1 + Ce^{0} = 1 + C = 2$$

De donde $C = 2 -1 = 1$. Con este resultado concluimos que la solución particular es

$$y(x) = 1 + e^{x^{2}}$$

tal como lo obtuvimos con las iterantes de Picard.

$\square$

Ya sea el resultado global o el local, este teorema garantiza completamente la existencia y unicidad de la solución particular a un problema de valor inicial para el caso de una ecuación diferencial de primer orden.

En los métodos de resolución presentados a lo largo de esta unidad hemos pasado por alto las condiciones del teorema de Picard – Lindelöf y hemos tratado de justificar nuestros resultados con los teoremas de existencia y unicidad presentados para el caso de una ED de primer orden y para el caso de una ED de primer orden lineal, se hizo esto debido a la complejidad de la demostración del teorema de Picard – Lindelöf, pero ahora ya contamos con todo lo necesario para demostrarlo y así darle una completa justificación a lo que hemos hecho a lo largo de esta primer unidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Sea la sucesión de funciones $\{f_{n}\}$ donde, para cada $n \in \mathbb{N}$, $f_{n}: \mathbb{R} \rightarrow \mathbb{R}$ es la función dada por $$f_{n}(x) = \dfrac{x^{2n}}{1 + x^{2n}}$$ $\forall x\in \mathbb{R}$. Estudiar la convergencia puntual y uniforme de $\{f_{n}(x)\}$.
  1. Sea la sucesión de funciones $\{f_{n}\}$ donde, para cada $n \in \mathbb{N}$, $f_{n}: \mathbb{R} \rightarrow \mathbb{R}$ es la función dada por $$f_{n}(x) = \dfrac{x}{1 + nx^{2}}$$ $\forall x\in \mathbb{R}$. Estudiar la convergencia puntual y uniforme de $\{f_{n}(x)\}$.
  1. Resolver el siguiente problema de valor inicial usando las iterantes de Picard. $$\dfrac{dy}{dx} = x + y; \hspace{1cm} y(0) = 2$$ Verificar el resultado resolviendo el PVI usando algún método visto anteriormente.
  1. Resolver el siguiente problema de valor inicial usando las iterantes de Picard. $$\dfrac{dy}{dx} = 2(y + 1); \hspace{1cm} y(0) = 0$$ Verificar el resultado resolviendo la ecuación usando algún método visto anteriormente.

Más adelante…

Con esta entrada concluimos con la teoría preliminar necesaria para poder demostrar el resultado global del teorema de existencia y unicidad de Picard – Lindelöf. Hemos hecho un breve repaso sobre convergencia de series y sucesiones de funciones, definimos las iterantes de Picard y presentamos el resultado local del teorema de existencia y unicidad.

Usando lo visto en esta y la anterior entrada concluiremos la primera unidad del curso demostrando el resultado global del teorema de existencia y unicidad de Picard – Lindelöf.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»