El gran arquitecto parece ser un matemático; a aquellos que no saben matemáticas
les resulta realmente difícil sentir la profunda belleza de la naturaleza.
– Richard Feynman
Introducción
¡Hemos llegado al final de la unidad 3 del curso!.
Concluiremos presentando el teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden en el caso general.
En la primera entrada de esta unidad enunciamos el teorema de existencia y unicidad en el caso general, en esta entrada retomaremos dicho teorema con la diferencia de que lo adaptaremos a la notación vectorial que ya conocemos ya que esto tiene una enorme ventaja al momento de hacer la demostración.
La demostración de este teorema, al igual que el teorema de Picard – Lindelöf, requiere de una extensa teoría preliminar. En este caso no demostraremos dicha teoría preliminar, sólo la justificaremos ya que una enorme ventaja que tenemos es que mucho de los que vimos en la primer unidad se puede extender a los sistemas de ecuaciones diferenciales, así que lo que haremos será desarrollar esta extensión generalizando los resultados para así demostrar el teorema.
Se recomienda, si lo crees necesario, revisar las tres últimas entradas de la primera unidad para recordar la teoría previa a la demostración del teorema de Picard – Lindelöf, así como la demostración misma.
Comencemos por construir el enunciado del teorema.
Teorema de existencia y unicidad para sistemas de ecuaciones diferenciales
Como vimos en la primer entrada de esta unidad, un sistema de ecuaciones diferenciales de primer orden en su forma general es de la forma
\begin{align*}
y_{1}^{\prime}(t) & = F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
y_{2}^{\prime}(t) & = F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
& \vdots \\
y_{n}^{\prime}(t) &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{1} \tag{1}
\end{align*}
Donde las $F_{i}$, $i = 1, 2, 3, \cdots, n$ son funciones con valores reales que dependen de las $n + 1$ variables en un intervalo $\delta$. Sabemos que
$$\mathbf{Y}(t) = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{Y}^{\prime}(t) = \begin{pmatrix}
y^{\prime}_{1}(t) \\ y^{\prime}_{2}(t) \\ \vdots \\ y^{\prime}_{n}(t)
\end{pmatrix} \label{2} \tag{2}$$
Con ayuda de estos vectores podemos definir el vector
$$\mathbf{F}(t, \mathbf{Y}(t)) = \begin{pmatrix}
F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\ F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\ \vdots \\ F_{n}(t, y_{1}, y_{2}, \cdots, y_{n})
\end{pmatrix} \label{3} \tag{3}$$
De manera que el sistema de ecuaciones diferenciales (\ref{1}) se puede escribir en forma vectorial como
$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)) \label{4} \tag{4}$$
Si el sistema de ecuaciones diferenciales (\ref{4}) esta sujeto a valores iniciales
$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
y_{1}(t_{0}) \\ y_{2}(t_{0}) \\ \vdots \\ y_{n}(t_{0})
\end{pmatrix} = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0} \label{5} \tag{5}$$
con $b_{i}$, $i = 1, 2, \cdots, n$ constantes, entonces tenemos un problema de valores iniciales (PVI).
Definamos, por otro lado, una región $U$ como el producto cartesiano
$$\delta \times \delta_{1} \times \delta_{2} \times \delta_{3} \times \cdots \times \delta_{n} = U \in \mathbb{R}^{n + 1} \label{6} \tag{6}$$
en donde
$$t_{0} \in \delta, \hspace{0.5cm} b_{1} \in \delta_{1}, \hspace{0.5cm} b_{2} \in \delta_{2}, \hspace{0.5cm} \cdots, \hspace{0.5cm} b_{n} \in \delta_{n}$$
de tal forma que $(t_{0}, b_{1}, b_{2}, \cdots, b_{n}) \in U$, es decir, $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \in U$.
Con estos resultados, el teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden se puede enunciar de la siguiente forma.
$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)), \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{7} \tag{7}$$ Con $t_{0} \in \delta$. Supongamos que $\forall$ $i,j \in \{1, 2, 3, \cdots, n\}$, $F_{i}$ y $\dfrac{\partial F_{i}}{\partial y_{j}}$ existen y son continuas en $(t, \mathbf{Y}(t)) \in U$. Entonces existe un intervalo $|t -t_{0}| < h$, tal que existe una única solución $\mathbf{Y}(t)$ del problema de valores iniciales.
Este es el teorema que demostraremos.
Ecuación integral equivalente a un PVI
Como lo hicimos con el teorema de Picard – Lindelöf, es posible mostrar que el problema de valores iniciales (\ref{7}) es equivalente a una ecuación integral. El siguiente teorema establece este resultado.
$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds \label{8} \tag{8}$$
La demostración es bastante similar a la que realizamos para el caso de ecuaciones diferenciales de primer orden. Intenta hacer la demostración. A continuación presentaremos una justificación que te puede ser de ayuda en tu demostración formal.
Justificación: Consideremos el sistema
$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t))$$
Integremos de $t_{0}$ a $t$.
$$\int_{t_{0}}^{t} \mathbf{Y}^{\prime}(s) ds = \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds \label{9} \tag{9}$$
Apliquemos el teorema fundamental del cálculo.
$$\mathbf{Y}(t) -\mathbf{Y}(t_{0}) = \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s))ds \label{10} \tag{10}$$
Como $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$, del resultado anterior se obtiene la ecuación integral (\ref{8})
$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s))ds$$
$\square$
Este es nuestro primer resultado generalizado. Lo siguiente que haremos será generalizar las iteraciones (o iterantes) de Picard.
Iterantes de Picard
$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)), \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$$ con solución única en alguna región $U$, dicha solución se puede construir de forma iterativa de acuerdo a la expresión
$$\mathbf{Y}_{n}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{n -1}(s))ds, \hspace{1cm} n = 1, 2, 3, \cdots \label{11} \tag{11}$$ En donde se define $\mathbf{Y}_{0}(t) = \mathbf{Y}_{0}$. Estas iteraciones son las llamadas iterantes de Picard.
En su forma desglosada las iterantes de Picard se pueden escribir como
\begin{align*}
\mathbf{Y}_{0}(t) &= \mathbf{Y}_{0} \\
\mathbf{Y}_{1}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{0}(s))ds \\
\mathbf{Y}_{2}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{1}(s)) ds \\
\mathbf{Y}_{3}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{2}(s)) ds \\
\vdots \\
\mathbf{Y}_{n}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{n -1}(s))ds \label{12} \tag{12}
\end{align*}
Lo interesante de las iterantes de Picard es que, cumpliendo ciertas hipótesis, éstas convergen a la solución del PVI (\ref{7}). El siguiente teorema nos ayudará a mostrar este hecho.
$$\lim_{n \to \infty} \int_{a}^{b} \mathbf{F}(t, \mathbf{Y}_{n}(t)) dt = \int_{a}^{b} \lim_{n \to \infty} \mathbf{F}(t, \mathbf{Y}_{n}(t)) dt = \int_{a}^{b} \mathbf{F}(t, \mathbf{Y}(t)) dt \label{13} \tag{13}$$
La demostración para el caso de ecuaciones de primer orden la hicimos como parte de la demostración del teorema de Picard – Lindelöf. Intenta generalizar dicha demostración.
Consideremos cierto este teorema, notemos lo siguiente.
Sea $\{ \mathbf{Y}_{n}(t) \}$ una sucesión de iteraciones de Picard que convergen uniformemente a una función $\mathbf{Y}(t)$ en el intervalo $\delta$ y sea $\mathbf{F}(t, \mathbf{Y}(t))$ una función continua en $U \subseteq \mathbb{R}^{n + 1}$, tal que $\forall$ $t \in \delta$ y $\forall$ $n \in \mathbb{N}$, $(t,\mathbf{Y}_{n}(t)) \in U$, entonces
\begin{align*}
\mathbf{Y}(t) &= \lim_{n \to \infty} \mathbf{Y}_{n}(t) \\
&= \lim_{n \to \infty } \left( \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{n -1}(s)) ds \right ) \\
&= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \lim_{n \to \infty} \mathbf{F}(s, \mathbf{Y}_{n -1}(s)) ds
\end{align*}
Usando (\ref{13}) se obtiene la ecuación integral (\ref{8}).
$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds$$
Con este resultado mostramos que si se satisfacen las hipótesis del teorema anterior, entonces la función a la que convergen las iteraciones de Picard satisface la ecuación integral (\ref{8}), lo que es equivalente a que dicha función sea solución del PVI (\ref{7}).
Ahora bien, para que las iterantes de Picard converjan a la solución del PVI (\ref{7}) deben satisfacer las hipótesis del teorema anterior por lo que es necesario que exista un dominio $U$ en el que $(t,\mathbf{Y}_{n}(t)) \in U$ y en el que la sucesión de iteraciones $\{ \mathbf{Y}_{n}(t) \}$ converja. Debemos encontrar este dominio, para hacerlo generalicemos algunos resultados más.
Funciones Lipschitzianas
Un primer resultado que usaremos es el siguiente.
$$I = \{ t \in \mathbb{R} : |t -t_{0}|< h \} \label{14} \tag{14}$$ con $h \in \mathbb{R}$, entonces $\exists$ $M > 0$, tal que $\forall$ $n \in \mathbb{N}$ y $\forall$ $t \in \mathbf{I}$.
$$\left\| \mathbf{Y}_{n}(t) -\mathbf{Y}_{0} \right\| \leq M |t -t_{0}| \label{15} \tag{15}$$
En este teorema podemos describir a la región $R$ como
$$R = \{ (t, \mathbf{Y}(t)) \in \mathbb{R}^{n + 1} : |t -t_{0}| \leq a, \left\|\mathbf{Y}(t) -\mathbf{Y}_{0} \right\| \leq b \} \label{16} \tag{16}$$
En esta región garantizamos que las iterantes de Picard están todas contenidas.
Un resultado más que necesitaremos tiene que ver con que $\mathbf{F}(t, \mathbf{Y}(t))$ sea una función lipschitziana respecto a la segunda variable. Recordando la definición que dimos para el caso de ecuaciones de primer orden, podemos definir una función lipschitziana como sigue.
$$\left\| \mathbf{F}(t,\mathbf{Y}(t)) -\mathbf{F}(t, \mathbf{Y}_{0}(t)) \right\| \leq L \left\| \mathbf{Y}(t) -\mathbf{Y}_{0}(t) \right\| \label{17} \tag{17}$$ $L$ es la correspondiente constante de Lipschitz.
Un resultado sumamente útil para determinar si una función es lipschitziana es el siguiente.
Intenta generalizar la demostración.
Una herramienta más que necesitamos generalizar es el criterio mayorante de Weierstrass.
Entonces la serie $\sum_{k = 0}^{\infty} \mathbf{Y}_{k}(t)$ converge uniformemente en $\delta$ a una función $\mathbf{Y}(t)$.
Finalmente, recordemos el lema de Gronwall.
$$0 \leq g(t) \leq \alpha + \beta \int_{t_{0}}^{t} g(s) ds \label{18} \tag{18}$$ $\forall$ $t \in \delta$ con $\alpha, \beta \geq 0$ constantes, entonces $g(t) \leq \alpha e^{\beta (t -t_{0})}$.
Este resultado no requiere de generalización, lo usaremos de esta forma.
Todo lo anterior corresponde a la teoría preliminar que debemos conocer para lograr demostrar el teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden. Lo visto corresponde a una generalización de la teoría preliminar al teorema de Picard – Lindelöf, por lo que las demostraciones a los resultados de esta entrada serán prácticamente una generalización de las demostraciones vistas para el caso de ecuaciones de primer orden. De tarea moral intenta demostrar todos estos resultados para lograr convencerte del siguiente resultado.
Demostración del teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden
$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)), \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$$ Con $t_{0} \in \delta$. Supongamos que $\forall$ $i,j \in \{1, 2, 3, \cdots, n\}$, $F_{i}$ y $\dfrac{\partial F_{i}}{\partial y_{j}}$ existen y son continuas en $(t, \mathbf{Y}(t)) \in U$. Entonces existe un intervalo $|t -t_{0}| < h$, tal que existe una única solución $\mathbf{Y}(t)$ del problema de valores iniciales.
Demostración: Comenzaremos por mostrar la existencia de la solución.
Consideremos las hipótesis del teorema y las dos primeras iteraciones de Picard $\mathbf{Y}_{1}(t)$ y $\mathbf{Y}_{0}(t)$, sabemos que ambas son continuas en el intervalo $I$ definido en (\ref{14}), entonces existe $M > 0$, tal que
$$\left\| \mathbf{Y}_{1}(t) -\mathbf{Y}_{0}(t) \right\| \leq M \label{19} \tag{19}$$
Queremos demostrar que la norma de la diferencia entre iterantes de Picard esta acotada, es decir, que $\forall$ $n \in \mathbb{N}$ y $\forall$ $t \in \mathbf{I}$,
$$\left\| \mathbf{Y}_{n}(t) -\mathbf{Y}_{n -1}(t) \right\| \leq M \left ( \dfrac{(L |t -t_{0}|)^{n -1}}{(n -1)!} \right) \label{20} \tag{20}$$
La prueba la haremos por inducción. El caso $n = 1$ ya lo vimos en (\ref{19}). Supongamos que es cierto para $n = k$.
$$\left\| \mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t) \right\| \leq M \dfrac{(L |t -t_{0}|)^{k -1}}{(k -1)!} \label{21} \tag{21}$$
Esta es nuestra hipótesis de inducción. Queremos probar que
$$\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| \leq M \dfrac{(L |t -t_{0}|)^{k}}{k!} \label{22} \tag{22}$$
Usando la forma de la iteraciones de Picard (\ref{12}), notemos lo siguiente.
\begin{align*}
\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| &= \left\| \left( \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{k}(t)) ds \right) -\left( \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{k -1}(s)) ds \right) \right\| \\
&= \left\| \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{k}(t)) -\mathbf{F}(s, \mathbf{Y}_{k -1}(s)) ds \right\| \\
&\leq \int_{t_{0}}^{t} \left\| \mathbf{F}(s, \mathbf{Y}_{k}(s)) -\mathbf{F}(s, \mathbf{Y}_{k -1}(s)) \right\| ds
\end{align*}
Como $\mathbf{F}$ es lipschitziana con respecto de la segunda variable, entonces se satisface (\ref{17}), de manera que
$$ \int_{t_{0}}^{t} \left\| \mathbf{F}(s, \mathbf{Y}_{k}(s)) -\mathbf{F}(s, \mathbf{Y}_{k -1}(s)) \right\| ds \leq \int_{t_{0}}^{t} L \left\| \mathbf{Y}_{k}(s) -\mathbf{Y}_{k -1}(s) \right\| ds \label{23} \tag{23}$$
Así,
\begin{align*}
\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| &\leq \int_{t_{0}}^{t} L \left\| \mathbf{Y}_{k}(s) -\mathbf{Y}_{k -1}(s) \right\| ds \\
&= L \int_{t_{0}}^{t} \left\| \mathbf{Y}_{k}(s) -\mathbf{Y}_{k -1}(s) \right\| ds
\end{align*}
Usemos la hipótesis de inducción (\ref{21}).
\begin{align*}
\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| &\leq L \int_{t_{0}}^{t} M \dfrac{(L |s -t_{0}|)^{k -1}}{(k -1)!} ds \\
&= \dfrac{ML^{k}}{(k -1)!} \int_{t_{0}}^{t} |s -t_{0}|^{k -1} ds \\
&= \dfrac{ML^{k}}{(k -1)!} \dfrac{|t -t_{0}|^{k}}{k} \\
&= M \dfrac{(L |t -t_{0}|)^{k}}{k!}
\end{align*}
Esto es,
$$ \left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| \leq M \dfrac{(L |t -t_{0}|)^{k}}{k!}$$
Hemos obtenido (\ref{22}) que es lo que queríamos probar.
Como $|t -t_{0}| \leq h$, observemos que
$$M \dfrac{(L |t -t_{0}|)^{k}}{k!} \leq M \dfrac{(Lh)^{k}}{k!} \label{24} \tag{24}$$
y sabemos que
$$\sum_{k = 0}^{\infty} M \dfrac{(Lh)^{k}}{k!} = Me^{Lh} \label{25} \tag{25}$$
Como $M$, $L$ y $h$ son valores fijos, entonces $Me^{Lh}$ es una valor fijo lo que muestra que la serie
$$\sum_{k = 0}^{\infty} M \dfrac{(Lh)^{k}}{k!} < \infty \label{26} \tag{26}$$
Es decir, la serie es convergente. Consideremos la sucesión de diferencias de iterantes de Picard consecutivas $\{ \mathbf{Y}_{n}(t) -\mathbf{Y}_{n -1}(t) \}$, $n \in \mathbb{N}$. De los resultados anteriores sabemos que
$$\left\| \mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t) \right\| \leq M \dfrac{(Lh)^{k -1}}{(k -1)!} \label{27} \tag{27}$$
y como $\forall$ $t \in I$,
$$\sum_{k = 1}^{\infty} M \dfrac{(Lh)^{k -1}}{(k -1)!} = M e^{Lh}$$
entonces, por el criterio mayorante de Weierstrass, se tiene que
$$\sum_{k = 1}^{\infty}(\mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t)) < \infty \label{28} \tag{28}$$
es decir, converge uniformemente en $I$ a una función, digamos $\hat{\mathbf{Y}}(t)$. Así
$$\mathbf{Y}_{0} + \sum_{k = 1}^{\infty}(\mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t)) < \infty \label{29} \tag{29}$$
también converge uniformemente en $I$ a una función, digamos $\mathbf{Y}(t)$. La sucesión de sumas parciales converge uniformemente en $I$. Para $k = 1$ en (\ref{29}) se tiene la suma parcial $S_{1}$ como
$$S_{1} = \mathbf{Y}_{0} + [\mathbf{Y}_{1}(t) -\mathbf{Y}_{0}(t)] = \mathbf{Y}_{1}(t) \label{30} \tag{30}$$
Ya que $ \mathbf{Y}_{0}(t) = \mathbf{Y}_{0}$. Para $S_{2}$, se tiene
$$S_{2} = \mathbf{Y}_{0} + [\mathbf{Y}_{1}(t) -\mathbf{Y}_{0}(t)] + [\mathbf{Y}_{2}(t) -\mathbf{Y}_{1}(t)] = \mathbf{Y}_{2}(t) \label{31} \tag{31}$$
Así sucesivamente obtendremos que
$$S_{n} = \mathbf{Y}_{n}(t) \label{32} \tag{32}$$
Por lo tanto, la sucesión de iteraciones de Picard converge uniformemente en $I$ a una función $\mathbf{Y}(t)$, esto significa que $\mathbf{Y}(t)$ es solución de la ecuación integral
$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds$$
y por lo tanto, $\mathbf{Y}(t)$ es solución del problema de condición inicial.
Con esto queda demostrada la existencia de la solución del PVI. Concluyamos con la demostración de la unicidad.
Sea $\mathbf{Y}(t)$ la solución del PVI (\ref{7}) y supongamos que existe otra función $\mathbf{Z}(t)$ que también es solución del PVI, entonces
$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds$$
y
$$\mathbf{Z}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Z}(s)) ds \label{33} \tag{33}$$
Notemos lo siguiente.
\begin{align*}
\left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\| &= \left\| \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) -\mathbf{F}(s, \mathbf{Z}(s)) ds \right\|\\
&\leq \int_{t_{0}}^{t} \left\| \mathbf{F}(s, \mathbf{Y}(s)) -\mathbf{F}(s, \mathbf{Z}(s)) \right\| ds \\
&\leq L \int_{t_{0}}^{t} \left\| \mathbf{Y}(s) -\mathbf{Z}(s) \right\|ds
\end{align*}
En donde se ha aplicado nuevamente la propiedad de $\mathbf{F}$ de ser lipschitziana con respecto de la segunda variable.
Definamos la función escalar
$$g(t) = \left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\|$$
Entonces el resultado anterior se puede escribir como
$$g(t) \leq L \int_{t_{0}}^{t} g(s) ds \label{34} \tag{34}$$
Notemos que esta expresión se parece a la desigualdad (\ref{18}) del lema de Gronwall con $\alpha = 0$ y $\beta = L$. Usando este lema, se obtiene
$$0 < g(t) = \left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\| \leq 0 e^{L(t -t_{0})} = 0 \label{35} \tag{35}$$
De donde necesariamente debe ocurrir que
$$\left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\| = 0 \label{36} \tag{36}$$
Por lo tanto, ambas funciones tienen que ser iguales.
$$\mathbf{Y}(t) = \mathbf{Z}(t) \label{37} \tag{37}$$
Y es así como queda demostrada la unicidad de la solución. Y, por lo tanto, queda demostrado el teorema.
$\square$
Con esto concluimos la tercera unidad del curso.
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
- Demostrar formalmente los teoremas vistos en la teoría preliminar de esta entrada.
Puedes guiarte de las demostraciones hechas en la primera unidad generalizando los resultados.
Más adelante…
Hemos concluido con la unidad 3 del curso.
La siguiente y última unidad del curso será un complemento de esta unidad 3, ya que hemos estudiado a los sistemas de ecuaciones diferenciales de primer orden desde una perspectiva analítica y es posible construir toda una teoría geométrica y cualitativa de estos mismos sistemas.
En la siguiente unidad estudiaremos la teoría cualitativa de las ecuaciones diferenciales.
Entradas relacionadas
- Página principal del curso: Ecuaciones Diferenciales I
- Entrada anterior del curso: Teorema de existencia y unicidad para sistemas lineales
- Siguiente entrada del curso: Introducción a la teoría cualitativa de las ecuaciones diferenciales
- Video relacionado al tema: Teorema de existencia y unicidad para sistemas de ecuaciones de primer orden
Agradecimientos
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»