Archivo de la etiqueta: problema de valores iniciales

Ecuaciones Diferenciales I: Teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden

El gran arquitecto parece ser un matemático; a aquellos que no saben matemáticas
les resulta realmente difícil sentir la profunda belleza de la naturaleza.
– Richard Feynman

Introducción

¡Hemos llegado al final de la unidad 3 del curso!.

Concluiremos presentando el teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden en el caso general.

En la primera entrada de esta unidad enunciamos el teorema de existencia y unicidad en el caso general, en esta entrada retomaremos dicho teorema con la diferencia de que lo adaptaremos a la notación vectorial que ya conocemos ya que esto tiene una enorme ventaja al momento de hacer la demostración.

La demostración de este teorema, al igual que el teorema de Picard – Lindelöf, requiere de una extensa teoría preliminar. En este caso no demostraremos dicha teoría preliminar, sólo la justificaremos ya que una enorme ventaja que tenemos es que mucho de los que vimos en la primer unidad se puede extender a los sistemas de ecuaciones diferenciales, así que lo que haremos será desarrollar esta extensión generalizando los resultados para así demostrar el teorema.

Se recomienda, si lo crees necesario, revisar las tres últimas entradas de la primera unidad para recordar la teoría previa a la demostración del teorema de Picard – Lindelöf, así como la demostración misma.

Comencemos por construir el enunciado del teorema.

Teorema de existencia y unicidad para sistemas de ecuaciones diferenciales

Como vimos en la primer entrada de esta unidad, un sistema de ecuaciones diferenciales de primer orden en su forma general es de la forma

\begin{align*}
y_{1}^{\prime}(t) & = F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
y_{2}^{\prime}(t) & = F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
& \vdots \\
y_{n}^{\prime}(t) &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{1} \tag{1}
\end{align*}

Donde las $F_{i}$, $i = 1, 2, 3, \cdots, n$ son funciones con valores reales que dependen de las $n + 1$ variables en un intervalo $\delta$. Sabemos que

$$\mathbf{Y}(t) = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{Y}^{\prime}(t) = \begin{pmatrix}
y^{\prime}_{1}(t) \\ y^{\prime}_{2}(t) \\ \vdots \\ y^{\prime}_{n}(t)
\end{pmatrix} \label{2} \tag{2}$$

Con ayuda de estos vectores podemos definir el vector

$$\mathbf{F}(t, \mathbf{Y}(t)) = \begin{pmatrix}
F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\ F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\ \vdots \\ F_{n}(t, y_{1}, y_{2}, \cdots, y_{n})
\end{pmatrix} \label{3} \tag{3}$$

De manera que el sistema de ecuaciones diferenciales (\ref{1}) se puede escribir en forma vectorial como

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)) \label{4} \tag{4}$$

Si el sistema de ecuaciones diferenciales (\ref{4}) esta sujeto a valores iniciales

$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
y_{1}(t_{0}) \\ y_{2}(t_{0}) \\ \vdots \\ y_{n}(t_{0})
\end{pmatrix} = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0} \label{5} \tag{5}$$

con $b_{i}$, $i = 1, 2, \cdots, n$ constantes, entonces tenemos un problema de valores iniciales (PVI).

Definamos, por otro lado, una región $U$ como el producto cartesiano

$$\delta \times \delta_{1} \times \delta_{2} \times \delta_{3} \times \cdots \times \delta_{n} = U \in \mathbb{R}^{n + 1} \label{6} \tag{6}$$

en donde

$$t_{0} \in \delta, \hspace{0.5cm} b_{1} \in \delta_{1}, \hspace{0.5cm} b_{2} \in \delta_{2}, \hspace{0.5cm} \cdots, \hspace{0.5cm} b_{n} \in \delta_{n}$$

de tal forma que $(t_{0}, b_{1}, b_{2}, \cdots, b_{n}) \in U$, es decir, $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \in U$.

Con estos resultados, el teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden se puede enunciar de la siguiente forma.

Teorema: Sea el problema de valores iniciales

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)), \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{7} \tag{7}$$

Con $t_{0} \in \delta$. Supongamos que $\forall$ $i,j \in \{1, 2, 3, \cdots, n\}$, $F_{i}$ y $\dfrac{\partial F_{i}}{\partial y_{j}}$ existen y son continuas en $(t, \mathbf{Y}(t)) \in U$. Entonces existe un intervalo $|t -t_{0}| < h$, tal que existe una única solución $\mathbf{Y}(t)$ del problema de valores iniciales.

Este es el teorema que demostraremos.

Ecuación integral equivalente a un PVI

Como lo hicimos con el teorema de Picard – Lindelöf, es posible mostrar que el problema de valores iniciales (\ref{7}) es equivalente a una ecuación integral. El siguiente teorema establece este resultado.

Teorema: Sea $\mathbf{F}(t, \mathbf{Y}(t))$ continua en un dominio $R \subseteq \mathbb{R}^{n + 1}$ que contenga a $(t_{0}, \mathbf{Y}_{0})$, entonces $\mathbf{Y}(t)$ es solución del problema de valores iniciales (\ref{7}) si y sólo si es solución de la ecuación integral

$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds \label{8} \tag{8}$$

La demostración es bastante similar a la que realizamos para el caso de ecuaciones diferenciales de primer orden. Intenta hacer la demostración. A continuación presentaremos una justificación que te puede ser de ayuda en tu demostración formal.

Justificación: Consideremos el sistema

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t))$$

Integremos de $t_{0}$ a $t$.

$$\int_{t_{0}}^{t} \mathbf{Y}^{\prime}(s) ds = \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds \label{9} \tag{9}$$

Apliquemos el teorema fundamental del cálculo.

$$\mathbf{Y}(t) -\mathbf{Y}(t_{0}) = \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s))ds \label{10} \tag{10}$$

Como $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$, del resultado anterior se obtiene la ecuación integral (\ref{8})

$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s))ds$$

$\square$

Este es nuestro primer resultado generalizado. Lo siguiente que haremos será generalizar las iteraciones (o iterantes) de Picard.

Iterantes de Picard

Definición: Sea el problema de valores iniciales

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)), \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$$

con solución única en alguna región $U$, dicha solución se puede construir de forma iterativa de acuerdo a la expresión

$$\mathbf{Y}_{n}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{n -1}(s))ds, \hspace{1cm} n = 1, 2, 3, \cdots \label{11} \tag{11}$$

En donde se define $\mathbf{Y}_{0}(t) = \mathbf{Y}_{0}$. Estas iteraciones son las llamadas iterantes de Picard. En su forma desglosada se pueden escribir como

\begin{align*}
\mathbf{Y}_{0}(t) &= \mathbf{Y}_{0} \\
\mathbf{Y}_{1}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{0}(s))ds \\
\mathbf{Y}_{2}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{1}(s)) ds \\
\mathbf{Y}_{3}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{2}(s)) ds \\
\vdots \\
\mathbf{Y}_{n}(t) &= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{n -1}(s))ds \label{12} \tag{12}
\end{align*}

Lo interesante de las iterantes de Picard es que, cumpliendo ciertas hipótesis, éstas convergen a la solución del PVI (\ref{7}). El siguiente teorema nos ayudará a mostrar este hecho.

Teorema: Sea $\{ \mathbf{Y}_{n}(t) \}$ con $n \in \mathbb{N}$, una sucesión de funciones que converge uniformemente a una función $\mathbf{Y}(t)$ en el intervalo $\delta = [a, b]$ y sea $\mathbf{F}(t, \mathbf{Y}(t))$ una función continua en un dominio $U \subseteq \mathbb{R}^{n + 1}$, tal que $\forall$ $t \in \delta$, $\forall$ $n \in \mathbb{N}$, $(t,\mathbf{Y}_{n}(t)) \in U$, entonces

$$\lim_{n \to \infty} \int_{a}^{b} \mathbf{F}(t, \mathbf{Y}_{n}(t)) dt = \int_{a}^{b} \lim_{n \to \infty} \mathbf{F}(t, \mathbf{Y}_{n}(t)) dt = \int_{a}^{b} \mathbf{F}(t, \mathbf{Y}(t)) dt \label{13} \tag{13}$$

La demostración para el caso de ecuaciones de primer orden la hicimos como parte de la demostración del teorema de Picard – Lindelöf. Intenta generalizar dicha demostración.

Consideremos cierto este teorema, notemos lo siguiente.

Sea $\{ \mathbf{Y}_{n}(t) \}$ una sucesión de iteraciones de Picard que convergen uniformemente a una función $\mathbf{Y}(t)$ en el intervalo $\delta$ y sea $\mathbf{F}(t, \mathbf{Y}(t))$ una función continua en $U \subseteq \mathbb{R}^{n + 1}$, tal que $\forall$ $t \in \delta$ y $\forall$ $n \in \mathbb{N}$, $(t,\mathbf{Y}_{n}(t)) \in U$, entonces

\begin{align*}
\mathbf{Y}(t) &= \lim_{n \to \infty} \mathbf{Y}_{n}(t) \\
&= \lim_{n \to \infty } \left( \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{n -1}(s)) ds \right ) \\
&= \mathbf{Y}_{0} + \int_{t_{0}}^{t} \lim_{n \to \infty} \mathbf{F}(s, \mathbf{Y}_{n -1}(s)) ds
\end{align*}

Usando (\ref{13}) se obtiene la ecuación integral (\ref{8}).

$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds$$

Con este resultado mostramos que si se satisfacen las hipótesis del teorema anterior, entonces la función a la que convergen las iteraciones de Picard satisface la ecuación integral (\ref{8}), lo que es equivalente a que dicha función sea solución del PVI (\ref{7}).

Ahora bien, para que las iterantes de Picard converjan a la solución del PVI (\ref{7}) deben satisfacer las hipótesis del teorema anterior por lo que es necesario que exista un dominio $U$ en el que $(t,\mathbf{Y}_{n}(t)) \in U$ y en el que la sucesión de iteraciones $\{ \mathbf{Y}_{n}(t) \}$ converja. Debemos encontrar este dominio, para hacerlo generalicemos algunos resultados más.

Funciones Lipschitzianas

Un primer resultado que usaremos es el siguiente.

Teorema: Supongamos que $\mathbf{F}(t, \mathbf{Y}(t))$ es una función continua en una región $R \in \mathbb{R}^{n + 1}$, tal que $|t -t_{0}| \leq a$ y $\left\|\mathbf{Y}(t) -\mathbf{Y}_{0} \right\| \leq b$ y sea $I$ un intervalo en $\mathbb{R}$ definido como

$$I = \{ t \in \mathbb{R} : |t -t_{0}|< h \} \label{14} \tag{14}$$

con $h \in \mathbb{R}$, entonces $\exists$ $M > 0$, tal que $\forall$ $n \in \mathbb{N}$ y $\forall$ $t \in \mathbf{I}$.

$$\left\| \mathbf{Y}_{n}(t) -\mathbf{Y}_{0} \right\| \leq M |t -t_{0}| \label{15} \tag{15}$$

En este teorema podemos describir a la región $R$ como

$$R = \{ (t, \mathbf{Y}(t)) \in \mathbb{R}^{n + 1} : |t -t_{0}| \leq a, \left\|\mathbf{Y}(t) -\mathbf{Y}_{0} \right\| \leq b \} \label{16} \tag{16}$$

En esta región garantizamos que las iterantes de Picard están todas contenidas.

Un resultado más que necesitaremos tiene que ver con que $\mathbf{F}(t, \mathbf{Y}(t))$ sea una función lipschitziana respecto a la segunda variable. Recordando la definición que dimos para el caso de ecuaciones de primer orden, podemos definir una función lipschitziana como sigue.

Definición: Sean $U \in \mathbb{R}^{n + 1}$ y $\mathbf{F}: U \in \mathbb{R}^{n + 1} \rightarrow \mathbb{R}^{n}$. Se dice que $\mathbf{F} = \mathbf{F}(t, \mathbf{Y}(t))$ es una función lipschitziana en $U$ respecto de la segunda variable si existe una constante $L$, tal que

$$\left\| \mathbf{F}(t,\mathbf{Y}(t)) -\mathbf{F}(t, \mathbf{Y}_{0}(t)) \right\| \leq L \left\| \mathbf{Y}(t) -\mathbf{Y}_{0}(t) \right\| \label{17} \tag{17}$$

$L$ es la correspondiente constante de Lipschitz.

Un resultado sumamente útil para determinar si una función es lipschitziana es el siguiente.

Teorema: Sea $U$ un dominio convexo y $\mathbf{F}(t, \mathbf{Y}(t))$ una función tal que $\dfrac{\partial F}{\partial y_{i}}$, $i = 1, 2, \cdots ,n$ existe en $U$ y $\left\| \dfrac{\partial F}{\partial \mathbf{Y}} \right\| \leq L$, entonces $\mathbf{F}$ es una función lipschitziana respecto de la segunda variable en $U$.

Intenta generalizar la demostración.

Una herramienta más que necesitamos generalizar es el criterio mayorante de Weierstrass.

Criterio mayorante de Weierstrass: Sea $\{ \mathbf{Y}_{n}(t) \}$, $n \in \mathbb{N}$, una sucesión de funciones. Supongamos que para cada $\{ \mathbf{Y}_{n}(t) \}$ existe una constante positiva $M_{k}$, tal que:

  • $\left\| \mathbf{Y}_{k}(t) \right\| \leq M_{k}$, $\forall$ $k \geq 1$ y $\forall$ $t \in \delta$
  • La serie $\sum_{k = 0}^{\infty}M_{k}$ converge.

Entonces la serie $\sum_{k = 0}^{\infty} \mathbf{Y}_{k}(t)$ converge uniformemente en $\delta$ a una función $\mathbf{Y}(t)$.

Finalmente, recordemos el lema de Gronwall.

Lema de Gronwall: Sean $g: \delta \subseteq \mathbb{R} \rightarrow \mathbb{R}$ y $t_{0} \in \delta$, tales que

$$0 \leq g(t) \leq \alpha + \beta \int_{t_{0}}^{t} g(s) ds \label{18} \tag{18}$$

$\forall$ $t \in \delta$ con $\alpha, \beta \geq 0$ constantes, entonces $g(t) \leq \alpha e^{\beta (t -t_{0})}$.

Este resultado no requiere de generalización, lo usaremos de esta forma.

Todo lo anterior corresponde a la teoría preliminar que debemos conocer para lograr demostrar el teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden. Lo visto corresponde a una generalización de la teoría preliminar al teorema de Picard – Lindelöf, por lo que las demostraciones a los resultados de esta entrada serán prácticamente una generalización de las demostraciones vistas para el caso de ecuaciones de primer orden. De tarea moral intenta demostrar todos estos resultados para lograr convencerte del siguiente resultado.

Demostración del teorema de existencia y unicidad para sistemas de ecuaciones diferenciales de primer orden

Teorema: Sea el problema de valores iniciales

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)), \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$$

Con $t_{0} \in \delta$. Supongamos que $\forall$ $i,j \in \{1, 2, 3, \cdots, n\}$, $F_{i}$ y $\dfrac{\partial F_{i}}{\partial y_{j}}$ existen y son continuas en $(t, \mathbf{Y}(t)) \in U$. Entonces existe un intervalo $|t -t_{0}| < h$, tal que existe una única solución $\mathbf{Y}(t)$ del problema de valores iniciales.

Demostración: Comenzaremos por mostrar la existencia de la solución.

Consideremos las hipótesis del teorema y las dos primeras iteraciones de Picard $\mathbf{Y}_{1}(t)$ y $\mathbf{Y}_{0}(t)$, sabemos que ambas son continuas en el intervalo $I$ definido en (\ref{14}), entonces existe $M > 0$, tal que

$$\left\| \mathbf{Y}_{1}(t) -\mathbf{Y}_{0}(t) \right\| \leq M \label{19} \tag{19}$$

Queremos demostrar que la norma de la diferencia entre iterantes de Picard esta acotada, es decir, que $\forall$ $n \in \mathbb{N}$ y $\forall$ $t \in \mathbf{I}$,

$$\left\| \mathbf{Y}_{n}(t) -\mathbf{Y}_{n -1}(t) \right\| \leq M \left ( \dfrac{(L |t -t_{0}|)^{n -1}}{(n -1)!} \right) \label{20} \tag{20}$$

La prueba la haremos por inducción. El caso $n = 1$ ya lo vimos en (\ref{19}). Supongamos que es cierto para $n = k$.

$$\left\| \mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t) \right\| \leq M \dfrac{(L |t -t_{0}|)^{k -1}}{(k -1)!} \label{21} \tag{21}$$

Esta es nuestra hipótesis de inducción. Queremos probar que

$$\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| \leq M \dfrac{(L |t -t_{0}|)^{k}}{k!} \label{22} \tag{22}$$

Usando la forma de la iteraciones de Picard (\ref{12}), notemos lo siguiente.

\begin{align*}
\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| &= \left\| \left( \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{k}(t)) ds \right) -\left( \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{k -1}(s)) ds \right) \right\| \\
&= \left\| \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}_{k}(t)) -\mathbf{F}(s, \mathbf{Y}_{k -1}(s)) ds \right\| \\
&\leq \int_{t_{0}}^{t} \left\| \mathbf{F}(s, \mathbf{Y}_{k}(s)) -\mathbf{F}(s, \mathbf{Y}_{k -1}(s)) \right\| ds
\end{align*}

Como $\mathbf{F}$ es lipschitziana con respecto de la segunda variable, entonces se satisface (\ref{17}), de manera que

$$ \int_{t_{0}}^{t} \left\| \mathbf{F}(s, \mathbf{Y}_{k}(s)) -\mathbf{F}(s, \mathbf{Y}_{k -1}(s)) \right\| ds \leq \int_{t_{0}}^{t} L \left\| \mathbf{Y}_{k}(s) -\mathbf{Y}_{k -1}(s) \right\| ds \label{23} \tag{23}$$

Así,

\begin{align*}
\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| &\leq \int_{t_{0}}^{t} L \left\| \mathbf{Y}_{k}(s) -\mathbf{Y}_{k -1}(s) \right\| ds \\
&= L \int_{t_{0}}^{t} \left\| \mathbf{Y}_{k}(s) -\mathbf{Y}_{k -1}(s) \right\| ds
\end{align*}

Usemos la hipótesis de inducción (\ref{21}).

\begin{align*}
\left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| &\leq L \int_{t_{0}}^{t} M \dfrac{(L |s -t_{0}|)^{k -1}}{(k -1)!} ds \\
&= \dfrac{ML^{k}}{(k -1)!} \int_{t_{0}}^{t} |s -t_{0}|^{k -1} ds \\
&= \dfrac{ML^{k}}{(k -1)!} \dfrac{|t -t_{0}|^{k}}{k} \\
&= M \dfrac{(L |t -t_{0}|)^{k}}{k!}
\end{align*}

Esto es,

$$ \left\| \mathbf{Y}_{k + 1}(t) -\mathbf{Y}_{k}(t) \right\| \leq M \dfrac{(L |t -t_{0}|)^{k}}{k!}$$

Hemos obtenido (\ref{22}) que es lo que queríamos probar.

Como $|t -t_{0}| \leq h$, observemos que

$$M \dfrac{(L |t -t_{0}|)^{k}}{k!} \leq M \dfrac{(Lh)^{k}}{k!} \label{24} \tag{24}$$

y sabemos que

$$\sum_{k = 0}^{\infty} M \dfrac{(Lh)^{k}}{k!} = Me^{Lh} \label{25} \tag{25}$$

Como $M$, $L$ y $h$ son valores fijos, entonces $Me^{Lh}$ es una valor fijo lo que muestra que la serie

$$\sum_{k = 0}^{\infty} M \dfrac{(Lh)^{k}}{k!} < \infty \label{26} \tag{26}$$

Es decir, la serie es convergente. Consideremos la sucesión de diferencias de iterantes de Picard consecutivas $\{ \mathbf{Y}_{n}(t) -\mathbf{Y}_{n -1}(t) \}$, $n \in \mathbb{N}$. De los resultados anteriores sabemos que

$$\left\| \mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t) \right\| \leq M \dfrac{(Lh)^{k -1}}{(k -1)!} \label{27} \tag{27}$$

y como $\forall$ $t \in I$,

$$\sum_{k = 1}^{\infty} M \dfrac{(Lh)^{k -1}}{(k -1)!} = M e^{Lh}$$

entonces, por el criterio mayorante de Weierstrass, se tiene que

$$\sum_{k = 1}^{\infty}(\mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t)) < \infty \label{28} \tag{28}$$

es decir, converge uniformemente en $I$ a una función, digamos $\hat{\mathbf{Y}}(t)$. Así

$$\mathbf{Y}_{0} + \sum_{k = 1}^{\infty}(\mathbf{Y}_{k}(t) -\mathbf{Y}_{k -1}(t)) < \infty \label{29} \tag{29}$$

también converge uniformemente en $I$ a una función, digamos $\mathbf{Y}(t)$. La sucesión de sumas parciales converge uniformemente en $I$. Para $k = 1$ en (\ref{29}) se tiene la suma parcial $S_{1}$ como

$$S_{1} = \mathbf{Y}_{0} + [\mathbf{Y}_{1}(t) -\mathbf{Y}_{0}(t)] = \mathbf{Y}_{1}(t) \label{30} \tag{30}$$

Ya que $ \mathbf{Y}_{0}(t) = \mathbf{Y}_{0}$. Para $S_{2}$, se tiene

$$S_{2} = \mathbf{Y}_{0} + [\mathbf{Y}_{1}(t) -\mathbf{Y}_{0}(t)] + [\mathbf{Y}_{2}(t) -\mathbf{Y}_{1}(t)] = \mathbf{Y}_{2}(t) \label{31} \tag{31}$$

Así sucesivamente obtendremos que

$$S_{n} = \mathbf{Y}_{n}(t) \label{32} \tag{32}$$

Por lo tanto, la sucesión de iteraciones de Picard converge uniformemente en $I$ a una función $\mathbf{Y}(t)$, esto significa que $\mathbf{Y}(t)$ es solución de la ecuación integral

$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds$$

y por lo tanto, $\mathbf{Y}(t)$ es solución del problema de condición inicial.

Con esto queda demostrada la existencia de la solución del PVI. Concluyamos con la demostración de la unicidad.

Sea $\mathbf{Y}(t)$ la solución del PVI (\ref{7}) y supongamos que existe otra función $\mathbf{Z}(t)$ que también es solución del PVI, entonces

$$\mathbf{Y}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) ds$$

y

$$\mathbf{Z}(t) = \mathbf{Y}_{0} + \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Z}(s)) ds \label{33} \tag{33}$$

Notemos lo siguiente.

\begin{align*}
\left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\| &= \left\| \int_{t_{0}}^{t} \mathbf{F}(s, \mathbf{Y}(s)) -\mathbf{F}(s, \mathbf{Z}(s)) ds \right\|\\
&\leq \int_{t_{0}}^{t} \left\| \mathbf{F}(s, \mathbf{Y}(s)) -\mathbf{F}(s, \mathbf{Z}(s)) \right\| ds \\
&\leq L \int_{t_{0}}^{t} \left\| \mathbf{Y}(s) -\mathbf{Z}(s) \right\|ds
\end{align*}

En donde se ha aplicado nuevamente la propiedad de $\mathbf{F}$ de ser lipschitziana con respecto de la segunda variable.

Definamos la función escalar

$$g(t) = \left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\|$$

Entonces el resultado anterior se puede escribir como

$$g(t) \leq L \int_{t_{0}}^{t} g(s) ds \label{34} \tag{34}$$

Notemos que esta expresión se parece a la desigualdad (\ref{18}) del lema de Gronwall con $\alpha = 0$ y $\beta = L$. Usando este lema, se obtiene

$$0 < g(t) = \left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\| \leq 0 e^{L(t -t_{0})} = 0 \label{35} \tag{35}$$

De donde necesariamente debe ocurrir que

$$\left\| \mathbf{Y}(t) -\mathbf{Z}(t) \right\| = 0 \label{36} \tag{36}$$

Por lo tanto, ambas funciones tienen que ser iguales.

$$\mathbf{Y}(t) = \mathbf{Z}(t) \label{37} \tag{37}$$

Y es así como queda demostrada la unicidad de la solución. Y, por lo tanto, queda demostrado el teorema.

$\square$

Con esto concluimos la tercera unidad del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Demostrar formalmente los teoremas vistos en la teoría preliminar de esta entrada.
    Puedes guiarte de las demostraciones hechas en la primera unidad generalizando los resultados.

Más adelante…

Hemos concluido con la unidad 3 del curso.

La siguiente y última unidad del curso será un complemento de esta unidad 3, ya que hemos estudiado a los sistemas de ecuaciones diferenciales de primer orden desde una perspectiva analítica y es posible construir toda una teoría geométrica y cualitativa de estos mismos sistemas.

En la siguiente unidad estudiaremos la teoría cualitativa de las ecuaciones diferenciales.

Entradas relacionadas

Ecuaciones Diferenciales I: Sistemas de ecuaciones diferenciales

El conocimiento de las matemáticas añade vigor a la mente,
la libera del prejuicio, credulidad y superstición.
– John Arbuthnot

Introducción

¡Bienvenidos a la tercera unidad del curso de Ecuaciones Diferenciales I!.

En esta unidad estudiaremos los sistemas de ecuaciones diferenciales lineales de primer orden.

En la unidad 1 de este curso estudiamos el sistema Depredador-Presa, en nuestro análisis el modelo matemático determinado fue el siguiente sistema de ecuaciones diferenciales.

\begin{align*}
\dfrac{dC}{dt} &= aC(t) -bC(t)Z(t) \\
\dfrac{dZ}{dt} &= -cZ(t) + dC(t)Z(t)
\end{align*}

Puedes revisar la entrada correspondiente para recordar que representa cada una de las variables y constantes.

Este sistema fue nuestro primer ejemplo de un sistema de ecuaciones diferenciales y en esta unidad nuestro propósito será desarrollar distintos métodos que nos permitan resolver sistemas de hasta $n > 2$ ecuaciones diferenciales acopladas.

Es importante mencionar que a lo largo de esta unidad usaremos un enfoque matricial, por lo que es recomendable tener presente, al menos, la teoría básica sobre matrices y sus operaciones y propiedades vistas en el curso de Álgebra Lineal I.

En esta entrada comenzaremos por definir los que es un sistema de ecuaciones diferenciales, sus propiedades y veremos cómo es que la notación matricial nos puede ayudar.

¡Comencemos!

Sistemas de ecuaciones diferenciales lineales de primer orden

Definición: El sistema de $n$ ecuaciones diferenciales de primer orden

\begin{align*}
\dfrac{dy_{1}}{dt} &= F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
\dfrac{dy_{2}}{dt} &= F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
&\vdots \\
\dfrac{dy_{n}}{dt} &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{1} \tag{1}
\end{align*}

se llama sistema de primer orden.

En esta unidad, a menos que indiquemos lo contrario, la variable independiente se denotará por $t$, mientras que las variables dependientes de $t$ por

$$y_{1} = y_{1}(t), \hspace{0.5cm} y_{2} = y_{2}(t), \hspace{0.5cm} \cdots, \hspace{0.5cm} y_{n} = y_{n}(t)$$

y las funciones $F_{i}$, $i = 1, 2, 3, \cdots, n$ son funciones con valores reales que dependen de las $n + 1$ variables en un intervalo $\delta$.

Notación: Para mayor comodidad, en esta unidad usaremos la notación de prima para la derivada.

$$\dfrac{dy}{dt} = y^{\prime}(t) \label{2} \tag{2}$$

Con esta notación el sistema de ecuaciones (\ref{1}) se puede escribir de la siguiente manera.

\begin{align*}
y_{1}^{\prime}(t) &= F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
y_{2}^{\prime}(t) &= F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
&\vdots \\
y_{n}^{\prime}(t) &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{3} \tag{3}
\end{align*}

Definición: Una solución al sistema de primer orden en el intervalo $\delta$ es un conjunto de $n$ funciones

$$S_{0} = \{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\} \label{4} \tag{4}$$

definidas en $\delta$ y diferenciables en el mismo intervalo, tales que satisfacen simultáneamente las $n$ ecuaciones diferenciales del sistema (\ref{3}).

Definición: Si cada una de las funciones $F_{1}, F_{2}, \cdots, F_{n}$ del sistema (\ref{3}) es lineal en las variables dependientes $y_{1}, y_{2}, \cdots, y_{n}$, se define la forma normal de un sistema de ecuaciones lineales de primer orden como

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}(t)y_{1} + a_{12}(t)y_{2} + \cdots + a_{1n}(t)y_{n} + g_{1}(t) \\
y_{2}^{\prime}(t) &= a_{21}(t)y_{1} + a_{22}(t)y_{2} + \cdots + a_{2n}(t)y_{n} + g_{2}(t) \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}(t)y_{1} + a_{n2}(t)y_{2} + \cdots + a_{nn}(t)y_{n} + g_{n}(t) \label{5} \tag{5}
\end{align*}

Definición: Al sistema de ecuaciones diferenciales (\ref{5}) se le denomina sistema lineal de primer orden.

En el sistema lineal (\ref{5}) se supone que los coeficientes $a_{ij}(t)$, así como las funciones $g_{i}(t)$, $i, j = \{1, 2, 3, \cdots, n \}$ son continuas en un intervalo común $\delta$.

Definición: Si no es posible escribir al sistema de ecuaciones como (\ref{5}), es decir, si las funciones $F_{1}, F_{2}, \cdots, F_{n}$ del sistema (\ref{3}) no son lineales en las variables dependientes $y_{1}, y_{2}, \cdots, y_{n}$, diremos que el sistema es no lineal.

Ejemplo: El sistema de ecuaciones diferenciales

\begin{align*}
y_{1}^{\prime}(t) &= -3y_{1} + 4y_{2} -9y_{3} \\
y_{2}^{\prime}(t) &= 6y_{1} -y_{2} \\
y_{3}^{\prime}(t) &= 10y_{1} + 4y_{2} + 3y_{3}
\end{align*}

es un sistema lineal de primer orden compuesto por tres ecuaciones diferenciales lineales de primer orden cada una.

Notación: Si el sistema es de dos o tres ecuaciones diferenciales denotaremos por $x(t), y(t)$ o $x(t), y(t)$, $z(t)$ a las variables dependientes de $t$, respectivamente.

Considerando esta notación, el sistema del ejemplo anterior se puede escribir de la siguiente manera.

\begin{align*}
x^{\prime}(t) &= -3x + 4y -9z\\
y^{\prime}(t) &= 6x -y \\
z^{\prime}(t) &= 10x + 4y + 3z
\end{align*}

Definición: Si las funciones $g_{i}(t) = 0$, $i = 1, 2, 3, \cdots, n$ del sistema lineal (\ref{5}), es decir, si

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}(t)y_{1} + a_{12}(t)y_{2} + \cdots + a_{1n}(t)y_{n} \\
y_{2}^{\prime}(t) &= a_{21}(t)y_{1} + a_{22}(t)y_{2} + \cdots + a_{2n}(t)y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}(t)y_{1} + a_{n2}(t)y_{2} + \cdots + a_{nn}(t)y_{n} \label{6} \tag{6}
\end{align*}

se dice que dicho sistema es homogéneo, en caso contrario se dice que el sistema es no homogéneo.

Problema de valores iniciales

Definición: Un problema de valores iniciales (PVI) es un sistema de ecuaciones (\ref{3}) sujeto a las condiciones iniciales

\begin{align*}
y_{1}(t_{0}) &= b_{1} \\
y_{2}(t_{0}) &= b_{2} \\
&\vdots \\
y_{n}(t_{0}) &= b_{n} \label{7} \tag{7}
\end{align*}

con $b_{1}, b_{2}, \cdots, b_{n}$ valores fijos y $t_{0} \in \delta$.

Es posible demostrar la existencia y unicidad de soluciones de sistemas tanto lineales como no lineales (caso general) y de soluciones a sistemas lineales homogéneos y no homogéneos (casos particulares), sin embargo las demostraciones de estos teoremas suelen ser bastantes extensas y complejas para nosotros en estos momentos, ya que requieren de herramientas matemáticas que aún desconocemos. A continuación enunciamos el teorema de existencia y unicidad para el caso general y para el caso lineal homogéneo.

Teorema: (Caso general). Dado un PVI que para cada $i,j \in \{1, 2, 3, \cdots, n\}$, $F_{i}$ y $\dfrac{\partial F_{i}}{\partial y_{j}}$ existen y son continuas en una región

$$R = \delta \times \delta_{1} \times \delta_{2} \times \delta_{3} \times \cdots \times \delta_{n}$$

y sea $(t_{0}, b_{1}, b_{2}, \cdots, b_{n}) \in R$, entonces existe un intervalo $|t -t_{0}| < h$, tal que existe una única solución $\{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\}$ al PVI.

En este teorema la región $R$ se construye con el producto cartesiano de los intervalos abiertos en los que $t_{0} \in \delta$, $b_{1} \in \delta_{1}$, $b_{2} \in \delta_{2}$, $\cdots$, $b_{n} \in \delta_{n}$, así $(t_{0}, b_{1}, b_{2}, \cdots, b_{n}) \in R$.

Para el caso particular de sistemas lineales homogéneos, el teorema de existencia y unicidad se puede enunciar de la siguiente forma.

Teorema: Dado el sistema lineal homogéneo (\ref{6}) con las condiciones iniciales (\ref{7}), si cada $a_{ij}(t)$ es continua en $\delta$ $\forall i,j \in \{1, 2, 3, \cdots, n \}$, entonces existe una única solución $\{y_{1}, y_{2}(t), \cdots, y_{n}(t)\}$ en $\delta$ al PVI.

Como mencionamos antes, es complejo demostrar estos teoremas, sin embargo más adelante en esta unidad los retomaremos y los justificaremos. Por ahora hay que tener en cuenta que para el caso general se requiere de volver a algunos de los conceptos vistos para demostrar el teorema de existencia y unicidad de Picard – Lindelöf de la primera unidad y para los casos particulares ¡la definición de exponencial de una matriz nos ayudará a demostrarlos!.

Ahora veamos la utilidad de la notación matricial.

Sistemas lineales de primer orden en forma matricial

Daremos por hecho que se conocen las operaciones y propiedades básicas de las matrices, así como algunas propiedades de espacios vectoriales vistas en el curso de Álgebra Lineal I.

Definamos las siguientes matrices de funciones.

$$\mathbf{Y}(t) = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \hspace{1cm} \Rightarrow \hspace{1cm} \mathbf{Y^{\prime}}(t) = \begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} $$

y

$$\mathbf{A}(t) = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix}, \hspace{1cm}
\mathbf{G}(t) = \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix}$$

Usando estas matrices, el sistema de ecuaciones diferenciales lineales de primer orden (\ref{5}) se puede escribir de la siguiente manera.

$$\begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{8} \tag{8}$$

o bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} + \mathbf{G} \label{9} \tag{9}$$

Si el sistema es homogéneo, entonces escribimos

$$\mathbf{Y^{\prime}} = \mathbf{AY} \label{10} \tag{10}$$

La solución de un sistema lineal la podemos definir como sigue.

Definición: Un vector solución es cualquier matriz columna

$$\mathbf{Y}(t) = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \label{11} \tag{11}$$

cuyos elementos son funciones derivables que satisfacen el sistema (\ref{8}) en el intervalo $\delta$.

Usando la notación matricial, un PVI se puede escribir de la siguiente manera.

Definición: Sea un punto $t_{0} \in \delta$ y

$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
y_{1}(t_{0}) \\ y_{2}(t_{0}) \\ \vdots \\ y_{n}(t_{0})
\end{pmatrix} = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0} \label{12} \tag{12}$$

donde las $b_{i}$, $i = 1, 2, 3, \cdots, n$ son constantes. El problema de resolver

$$\mathbf{Y^{\prime}} = \mathbf{A}(t)\mathbf{Y} + \mathbf{G}(t)$$

sujeto a la condición inicial $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$ es un problema con valores iniciales en el intervalo $\delta$.

El teorema de existencia y unicidad para el caso lineal se puede enunciar de la siguiente forma.

Teorema: Sean los elementos de las matrices $\mathbf{A}(t)$ y $\mathbf{G}(t)$ funciones continuas en un intervalo común $\delta$ que contiene al punto $t_{0}$, entonces existe una solución única del problema con valores iniciales en el intervalo.

Verifica que el sistema de ecuaciones diferenciales usado como ejemplo al inicio de la entrada se puede escribir en notación matricial de la siguiente forma.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-3 & 4 & -9 \\ 6 & -1 & 0 \\ 10 & 4 & 3
\end{pmatrix} \mathbf{Y}$$

Veamos un ejemplo más.

Ejemplo: Escribir el siguiente sistema lineal en forma matricial.

\begin{align*}
x^{\prime}(t) &= x -y + z + t + 1 \\
y^{\prime}(t) &= 2x + y -z -3t^{2} \\
z^{\prime}(t) &= x + y + z + t^{2} -t + 2
\end{align*}

Solución: Primero escribamos cada lado de las ecuaciones en una matriz.

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
x -y + z + t -1 \\ 2x + y -z -3t^{2} \\ x + y + z + t^{2} -t + 2
\end{pmatrix}$$

La matriz derecha la separamos en dos, una que contenga a las variables dependientes y otra a la variable independiente.

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
x -y + z \\ 2x + y -z \\ x + y + z
\end{pmatrix} + \begin{pmatrix}
t -1 \\ -3t^{2} \\ t^{2} -t + 2
\end{pmatrix}$$

Finalmente podemos escribir

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
1 & -1 & 1 \\ 2 & 1 & -1 \\ 1 & 1 & 1
\end{pmatrix} \begin{pmatrix}
x \\ y \\ z
\end{pmatrix} + \begin{pmatrix}
t -1 \\ -3t^{2} \\ t^{2} -t + 2
\end{pmatrix}$$

O bien,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & -1 & 1 \\ 2 & 1 & -1 \\ 1 & 1 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
t -1 \\ -3t^{2} \\ t^{2} -t + 2
\end{pmatrix}$$

Donde,

$$\mathbf{A} = \begin{pmatrix} 1 & -1 & 1 \\ 2 & 1 & -1 \\ 1 & 1 & 1 \end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{G}(t) = \begin{pmatrix} t -1 \\ -3t^{2} \\ t^{2} -t + 2 \end{pmatrix}$$

$\square$

Usando la notación matricial verifiquemos que un vector solución en efecto es solución de un sistema lineal.

Ejemplo: Probar que el vector

$$\mathbf{Y} = \begin{pmatrix}
5 \cos(t) \\ 3 \cos(t) -\sin(t)
\end{pmatrix}e^{t}$$

es solución del sistema lineal

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
-2 & 5 \\ -2 & 4
\end{pmatrix} \begin{pmatrix}
x(t) \\ y(t)
\end{pmatrix}$$

Solución: El vector dado es

$$\mathbf{Y} = \begin{pmatrix}
x(t) \\ y(t)
\end{pmatrix} = \begin{pmatrix}
5e^{t} \cos(t) \\ 3e^{t} \cos(t) -e^{t} \sin(t)
\end{pmatrix}$$

Por una lado, derivemos el vector

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
5e^{t} \cos(t) -5e^{t} \sin(t) \\ 3e^{t} \cos(t) -3e^{t} \sin(t) -e^{t} \sin(t) -e^{t} \cos(t)
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
5 \cos(t) -5 \sin(t) \\ 2 \cos(t) -4 \sin(t)
\end{pmatrix} e^{t}$$

Por otro lado, sustituyamos los valores de $x(t)$ y $y(t)$ en el sistema y veamos si se obtiene el mismo resultado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-2 & 5 \\ -2 & 4
\end{pmatrix} \begin{pmatrix}
5e^{t} \cos(t) \\ 3e^{t} \cos(t) -e^{t} \sin(t)
\end{pmatrix} = \begin{pmatrix}
-10e^{t} \cos(t) + 15e^{t} \cos(t) -5e^{t} \sin(t) \\ -10e^{t} \cos(t) + 12e^{t} \cos(t) -4e^{t} \sin(t)
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
5 \cos(t) -5 \sin(t) \\ 2 \cos(t) -4 \sin(t)
\end{pmatrix} e^{t}$$

Como el resultado es el mismo concluimos que, en efecto, el vector $\mathbf{Y}$ es solución del sistema lineal dado.

$\square$

Para concluir con esta entrada veamos un resultado interesante que nos conecta con la unidad anterior.

¡Una ecuación diferencial de orden $n \geq 2$ lineal puede ser reescrita como un sistema lineal de $n$ ecuaciones de primer orden!.

Reducción de una ecuación de orden $n$ a un sistema de ecuaciones

Consideremos una ecuación diferencial lineal de orden $n$.

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{13} \tag{13}$$

Para adaptar este ejercicio a la notación que estamos usando en esta entrada tomemos a $x = x(t)$ como la variable dependiente de $t$ y dividamos toda la ecuación por $a_{n}(t) \neq 0$, tal que se obtenga la siguiente ecuación de orden $n$.

$$\dfrac{dx^{n}}{dt^{n}} + b_{1}(t) \dfrac{d^{n -1}x}{dt^{n -1}} + \cdots + b_{n -2}(t) \dfrac{d^{2}x}{dt^{2}} + b_{n -1}(t) \dfrac{dx}{dt} + b_{n}(t)x = g(t) \label{14} \tag{14}$$

Ahora realicemos las siguientes definiciones.

$$y_{1} = x, \hspace{1cm} y_{2} = \dfrac{dx}{dt}, \hspace{1cm} y_{3} = \dfrac{d^{2}x}{dt^{2}}, \hspace{1cm} \cdots, \hspace{1cm} y_{n} = \dfrac{d^{n -1}x}{dt^{n -1}} \label{15} \tag{15}$$

y notemos que

$$y^{\prime}_{1} = \dfrac{dx}{dt}, \hspace{1cm} y^{\prime}_{2} = \dfrac{d^{2}x}{dt^{2}}, \hspace{1cm} y^{\prime}_{3} = \dfrac{d^{3}x}{dt^{3}}, \hspace{1cm} \cdots, \hspace{1cm} y^{\prime}_{n -1} = \dfrac{d^{n -1}x}{dt^{n -1}} \label{16} \tag{16}$$

De los resultados (\ref{15}) y (\ref{16}) obtenemos que

$$y^{\prime}_{1} = y_{2}, \hspace{1cm} y^{\prime}_{2} = y_{3}, \hspace{1cm} y^{\prime}_{3} = y_{4}, \hspace{1cm} \cdots, \hspace{1cm} y^{\prime}_{n -1} = y_{n} \label{17} \tag{17}$$

Para obtener $y^{\prime}_{n}$ sólo despejamos de la ecuación diferencial (\ref{14}).

$$y^{\prime}_{n} = \dfrac{d^{n}x}{dt^{n}} = g(t) -b_{1}(t) \dfrac{d^{n -1}x}{dt^{n -1}} -\cdots -b_{n -2}(t) \dfrac{d^{2}x}{dt^{2}} -b_{n -1}(t) \dfrac{dx}{dt} -b_{n}(t)x$$

Si usamos (\ref{15}) podemos escribir

$$y^{\prime}_{n} = g(t) -b_{1}(t)y_{n} -\cdots -b_{n -2}(t)y_{3} -b_{n -1}(t)y_{2} -b_{n}(t)y_{1} \label{18} \tag{18}$$

Con estos resultados nos damos cuenta que hemos formado un sistema lineal de $n$ ecuaciones diferenciales.

\begin{align*}
y^{\prime}_{1} &= y_{2} \\
y^{\prime}_{2} &= y_{3} \\
y^{\prime}_{3} &= y_{4} \\
&\vdots \\
y^{\prime}_{n -1} &= y_{n} \\
y^{\prime}_{n} &= g(t) -b_{1}(t)y_{n} -\cdots -b_{n -2}(t)y_{3} -b_{n -1}(t)y_{2} -b_{n}(t)y_{1}
\end{align*}

Usando la notación matricial obtenemos finalmente que

$$\begin{pmatrix}
y^{\prime}_{1}(t) \\ y^{\prime}_{2}(t) \\ \vdots \\ y^{\prime}_{n -1}(t) \\ y^{\prime}_{n}(t)
\end{pmatrix} = \begin{pmatrix}
0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & 1 \\ -b_{n}(t) & -b_{n-1}(t) & -b_{n-2}(t) & \cdots & -b_{1}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n -1}(t) \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ \vdots \\ 0 \\ g(t)
\end{pmatrix}$$

Esto por supuesto trae muchas ventajas, ya que en ocasiones será mucho más sencillo resolver un sistema de $n$ ecuaciones con los métodos que veremos más adelante que intentar resolver la ecuación de orden $n$ con los métodos desarrollados en la unidad anterior.

Para que quede más claro el procedimiento anterior realicemos un ejemplo.

Ejemplo: Escribir la ecuación diferencial de orden $n = 4$

$$\dfrac{d^{4}x}{dt^{4}} + 12 \dfrac{d^{3}x}{dt^{3}} -5 \dfrac{d^{2}x}{dt^{2}} + 8x = 2 \cos(t)$$

en un sistema lineal usando notación matricial.

Solución: Aplicamos las definiciones de (\ref{15}) y (\ref{16}).

$$y_{1} = x, \hspace{1cm} y_{2} = \dfrac{dx}{dt} = y^{\prime}_{1}, \hspace{1cm} y_{3} = \dfrac{d^{2}x}{dt^{2}} = y^{\prime}_{2} \hspace{1cm} y \hspace{1cm} y_{4} = \dfrac{d^{3}x}{dt^{3}} = y^{\prime}_{3}$$

Y de la ecuación diferencial obtenemos que

$$\dfrac{d^{4}x}{dt^{4}} = 2 \cos(t) -12y_{4} + 5y_{3} -8y_{1} = y^{\prime}_{4}$$

El sistema que se forma, es

\begin{align*}
y^{\prime}_{1} &= y_{2} \\
y^{\prime}_{2} &= y_{3} \\
y^{\prime}_{3} &= y_{4} \\
y^{\prime}_{4} &= 2 \cos(t) -12y_{4} + 5y_{3} -8y_{1}
\end{align*}

Por lo tanto, la ecuación diferencial de orden $4$ es equivalente al sistema lineal de $4$ ecuaciones diferenciales

$$\begin{pmatrix}
y^{\prime}_{1}(t) \\ y^{\prime}_{2}(t) \\ y^{\prime}_{3}(t) \\ y^{\prime}_{4}(t)
\end{pmatrix} = \begin{pmatrix}
0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ -8 & 0 & 5 & -12
\end{pmatrix} \begin{pmatrix}
y_{1} \\ y_{2} \\ y_{3} \\ y_{4}
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ 0 \\ 2 \cos (t)
\end{pmatrix}$$

$\square$

Hemos concluido con esta entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Escribir los siguientes sistemas lineales en forma matricial.
  • $\begin{align*}
    x^{\prime}(t) &= 3x -5y \\
    y^{\prime}(t) &= 4x + 8y
    \end{align*}$
  • $\begin{align*}
    x^{\prime}(t) &= -3x + 4y + e^{-t} \sin(2t) \\
    y^{\prime}(t) &= 5x + 9z + 4e^{-t} \cos(2t) \\
    z^{\prime}(t) &= y + 6z -e^{-t}
    \end{align*}$
  1. Reescribir los siguientes sistemas lineales sin el uso de matrices.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    7 & 5 & -9 \\ 4 & 1 & 1 \\ 0 & -2 & 3 \\
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    0 \\ 2 \\ 1
    \end{pmatrix} e^{5t} -\begin{pmatrix}
    8 \\ 0 \\ 3
    \end{pmatrix} e^{-2t}$
  • $\begin{pmatrix}
    x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
    \end{pmatrix} = \begin{pmatrix}
    1 & -1 & 2 \\ 3 & -4 & 1 \\ -2 & 5 & 6
    \end{pmatrix} \begin{pmatrix}
    x \\ y \\ z
    \end{pmatrix} + \begin{pmatrix}
    1 \\ 2 \\ 2
    \end{pmatrix} e^{-t} -\begin{pmatrix}
    3 \\ -1 \\ 1
    \end{pmatrix} t$
  1. Probar que el vector dado $\mathbf{Y}$ es solución del sistema lineal correspondiente.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 1 \\ -1 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
    1 \\ 3
    \end{pmatrix} e^{t} + \begin{pmatrix}
    4 \\ -4
    \end{pmatrix} te^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 0 & 1 \\ 1 & 1 & 0 \\ -2 & 0 & -1
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
    \sin(t) \\ -\dfrac{1}{2} \sin(t) -\dfrac{1}{2} \cos(t) \\ -\sin(t) + \cos(t)
    \end{pmatrix}$
  1. Escribir las siguientes ecuaciones diferenciales de orden superior en un sistema lineal usando notación matricial.
  • $\dfrac{d^{4}x}{dt^{4}} -10 \dfrac{d^{3}x}{dt^{3}} + 35 \dfrac{d^{2}x}{dt^{2}} -50 \dfrac{dx}{dt} + 24x = 0$
  • $\dfrac{d^{4}x}{dt^{4}} -4 \dfrac{d^{3}x}{dt^{3}} + 8 \dfrac{d^{2}x}{dt^{2}} -8 \dfrac{dx}{dt} + 4x = 8 \sin (2t)$

Más adelante…

Nos hemos introducido en los sistemas lineales de primer orden, en la siguiente entrada estudiaremos las propiedades de las soluciones de estos sistemas de manera muy similar que en el caso de las ecuaciones diferenciales de orden superior.

Veremos que mucho de lo visto en la unidad anterior aparecerá nuevamente, pues conceptos como dependencia e independencia lineal, conjunto fundamental de soluciones, Wronskiano, principio de superposición, entre otros, volverán a aparecer, sólo habrá que adaptarlos a los sistemas lineales.

Entradas relacionadas