Los errores y dificultades no resueltos en el pasado de las matemáticas
siempre han sido las oportunidades de su futuro.
– E. T. Bell
Introducción
En la entrada anterior vimos lo que es un sistema de ecuaciones diferenciales, en particular un sistema lineal de primer orden. Vimos también lo que es un problema de valores iniciales y establecimos la notación matricial.
Así mismo, vimos cómo es que una ecuación diferencial lineal de orden $n$ se puede transformar en un sistema lineal de primer orden, esto tiene bastante ventaja ya que, una vez que veamos cómo resolver sistemas de ecuaciones diferenciales, muchas veces será más sencillo resolver el sistema que resolver la ecuación de orden $n$ aplicando los métodos que ya conocemos.
En esta entrada estudiaremos las propiedades de las soluciones de los sistemas lineales de primer orden.
Cabe mencionar que mucho de lo que desarrollaremos en esta entrada es bastante similar a la teoría vista con las ecuaciones diferenciales de orden $n$, comenzando por la validez del principio de superposición.
A partir de ahora sólo usaremos la notación matricial y toda la teoría básica del álgebra lineal que éstas conllevan.
Soluciones de sistemas lineales de primer orden
Comencemos por estudiar el caso homogéneo. El sistema lineal de primer orden homogéneo es
$$\begin{pmatrix}
y_{1}^{\prime} \\ y_{2}^{\prime} \\ \vdots \\ y_{n}^{\prime}
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1} \\ y_{2} \\ \vdots \\ y_{n}
\end{pmatrix} \label{1} \tag{1}$$
O bien,
$$\mathbf{Y^{\prime}} = \mathbf{AY} \label{2} \tag{2}$$
En la entrada anterior definimos la solución de un sistema de ecuaciones diferenciales en el intervalo $\delta$ como el conjunto de $n$ funciones
$$S_{0} = \{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\} \label{3} \tag{3}$$
definidas en $\delta$ y diferenciables en el mismo intervalo, tales que satisfacen simultáneamente las $n$ ecuaciones diferenciables de un sistema lineal.
Las soluciones pueden ser escritas como el vector
$$\mathbf{Y} = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \label{4} \tag{4}$$
cuyos elementos son funciones derivables que satisfacen un sistema lineal en el intervalo $\delta$.
En las siguientes definiciones y teoremas se supondrá que los coeficientes $a_{ij}(t)$, $i, j \in \{1, 2, 3, \cdots, n\}$ y ,para el caso no homogéneo, las funciones $g_{i}(t)$, son continuas en algún intervalo común $\delta$.
Comencemos por mostrar que el principio de superposición también es valido para sistemas lineales.
$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m} \label{5} \tag{5}$$ donde las $c_{i}$, $i = 1, 2, \cdots, m$ son constantes arbitrarias, es también una solución en el intervalo $\delta$.
Demostración: Consideremos la combinación lineal
$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$
con
$$\mathbf{Y}_{i} = \begin{pmatrix}
y_{1i} \\ y_{2i} \\ \vdots \\ y_{ni}
\end{pmatrix}$$
para $i = 1, 2, \cdots, m$. La derivada de $\mathbf{Y}_{i}$ esta dada por
$$\mathbf{Y}_{i}^{\prime} = \begin{pmatrix}
y_{1i}^{\prime} \\ y_{2i}^{\prime} \\ \vdots \\ y_{ni}^{\prime}
\end{pmatrix}$$
Entonces la derivada de la combinación lineal es
\begin{align*}
\mathbf{Y}^{\prime} &= \begin{pmatrix}
c_{1}y_{11}^{\prime} + c_{2}y_{12}^{\prime} + \cdots + c_{m}y_{1m}^{\prime} \\
c_{1}y_{21}^{\prime} + c_{2}y_{22}^{\prime} + \cdots + c_{m}y_{2m}^{\prime} \\
\vdots \\
c_{1}y_{n1}^{\prime} + c_{2}y_{n2}^{\prime} + \cdots + c_{m}y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \begin{pmatrix}
y_{11}^{\prime} \\ y_{21}^{\prime} \\ \vdots \\ y_{n1}^{\prime}
\end{pmatrix} + c_{2} \begin{pmatrix}
y_{12}^{\prime} \\ y_{22}^{\prime} \\ \vdots \\ y_{n2}^{\prime}
\end{pmatrix} + \cdots + c_{m} \begin{pmatrix}
y_{1m}^{\prime} \\ y_{2m}^{\prime} \\ \vdots \\ y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \mathbf{Y}_{1}^{\prime} + c_{2} \mathbf{Y}_{2}^{\prime} + \cdots + c_{m} \mathbf{Y}_{m}^{\prime}
\end{align*}
Como cada $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, m$, es solución del sistema homogéneo (\ref{2}) en $\delta$, entonces
$$\mathbf{Y}_{i}^{\prime} = \mathbf{A} \mathbf{Y}_{i}$$
así
\begin{align*}
\mathbf{Y}^{\prime} &= c_{1} (\mathbf{AY}_{1}) + c_{2} (\mathbf{AY}_{2}) + \cdots + c_{m} (\mathbf{AY}_{m}) \\
&= \mathbf{A}(c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}) \\
&= \mathbf{AY}
\end{align*}
En donde se ha hecho uso de la propiedad distributiva de la matriz $\mathbf{A}$ y de la hipótesis (\ref{5}). Por lo tanto, la combinación lineal
$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$
también es solución y los es en el mismo intervalo común $\delta$ ya que esta compuesta de soluciones definidas en dicho intervalo.
$\square$
Intenta hacer la demostración.
$$S = \{\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{m}\} \label{6} \tag{6}$$
Realicemos un ejemplo.
Ejemplo: Probar que la combinación lineal
$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$
es solución del sistema lineal
$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$
Solución: Probemos que cada uno de los vectores de la combinación lineal es solución y usemos el principio de superposición.
Los vectores son
$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$
Por un lado, derivemos estos vectores.
$$\mathbf{Y}^{\prime}_{1} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{2} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{3} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix}$$
Por otro lado, sustituyamos cada uno de los vectores en el sistema lineal y usemos los resultados anteriores.
$$\mathbf{AY}_{1} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
1 -1 \\ 1 -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{1}$$
$$\mathbf{AY}_{2} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
e^{2t} + e^{2t} \\ e^{2t} + e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{2}$$
y
$$\mathbf{AY}_{3} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix} = \mathbf{Y}^{\prime}_{3}$$
De esta manera queda mostrado que los tres vectores son solución, ya que satisfacen el sistema. Por el principio de superposición concluimos que la combinación lineal
$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$
también es solución del sistema lineal.
$\square$
El principio de superposición nos indica que un sistema lineal puede tener más de una solución, sin embargo, similar al caso de ecuaciones diferenciales de orden $n$, buscamos soluciones que sean linealmente independientes entre sí. A continuación definimos la dependencia e independencia lineal de las soluciones en este contexto.
$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m} = 0 \label{7} \tag{7}$$ para toda $t \in \delta$. Si el conjunto de vectores no es linealmente dependiente en $\delta$, es decir, si ocurre (\ref{7}) implicando que $c_{1} = c_{2} = \cdots = c_{m} = 0$, entonces se dice que el conjunto es linealmente independiente.
En la unidad anterior definimos una herramienta muy útil que, además de ayudarnos a resolver ecuaciones diferenciales de orden superior en algunos métodos, nos ayuda a determinar si un conjunto de soluciones es linealmente independiente, dicha herramienta es el Wronskiano, la definición en el caso de los sistemas lineales de primer orden, es la siguiente.
$$\mathbf{Y}_{1}(t) = \begin{pmatrix}
y_{11} \\ y_{21} \\ \vdots \\ y_{n1}
\end{pmatrix}, \hspace{0.8cm} \mathbf{Y}_{2}(t) = \begin{pmatrix}
y_{12} \\ y_{22} \\ \vdots \\ y_{n2}
\end{pmatrix}, \hspace{0.8cm} \cdots, \hspace{0.8cm} \mathbf{Y}_{n}(t) = \begin{pmatrix}
y_{1n} \\ y_{2n} \\ \vdots \\ y_{nn}
\end{pmatrix}$$ $n$ soluciones del sistema lineal homogéneo (\ref{2}) en un intervalo $\delta$, se define el Wronskiano como el siguiente determinante.
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = \begin{vmatrix}
y_{11} & y_{12} & \cdots & y_{1n} \\
y_{21} & y_{22} & \cdots & y_{2n} \\
\vdots & & & \vdots \\
y_{n1} & y_{n2} & \cdots & y_{nn}
\end{vmatrix} \label{8} \tag{8}$$
Se puede demostrar que si el Wronskiano es distinto de cero, entonces las soluciones son linealmente independientes, igual que antes, esto es conocido como el criterio para soluciones linealmente independientes. Para demostrar este hecho es conveniente recordar algunos resultados de álgebra que podremos usar en la demostración.
Recordemos que un sistema lineal de $n$ ecuaciones con $n$ incógnitas es un conjunto de ecuaciones
$$\begin{matrix}
b_{11}u_{1} + b_{12}u_{2} + \cdots + b_{1n}u_{n} = d_{1} \\
b_{21}u_{1} + b_{22}u_{2} + \cdots + b_{2n}u_{n} = d_{2}\\
\vdots\\
b_{n1}u_{1} + b_{n2}u_{2} + \cdots + b_{nn}u_{n} = d_{n}
\end{matrix} \label{9} \tag{9}$$
Con $b_{i, j}$ y $d_{i}$, $i, j \in \{1,2, 3, \cdots, n\}$ números reales dados y $u_{i}$, $i = 1, 2, \cdots, n$ las incógnitas. Usando la notación matricial podemos escribir el sistema (\ref{9}) como
$$\mathbf{BU} = \mathbf{D} \label{10} \tag{10}$$
con
$$\mathbf{B} = \begin{pmatrix}
b_{11} & b_{12} & \cdots & b_{1n} \\
b_{21} & b_{22} & \cdots & b_{2n} \\
\vdots & & & \vdots \\
b_{n1} & b_{n2} & \cdots & b_{nn}
\end{pmatrix}, \hspace{1cm} \mathbf{U} = \begin{pmatrix}
u_{1} \\ u_{2} \\ \vdots \\ u_{n}
\end{pmatrix}, \hspace{1cm} \mathbf{D} = \begin{pmatrix}
d_{1} \\ d_{2} \\ \vdots \\ d_{n}
\end{pmatrix}$$
Los resultados que nos interesan son los siguientes.
Si $\mathbf{D} = \mathbf{0}$, el sistema (\ref{10}) también recibe el nombre de sistema homogéneo.
Con estos resultados podemos demostrar el criterio para soluciones linealmente independientes que se enuncia a continuación.
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$
Demostración:
$\Rightarrow$) Por demostrar: $W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$.
Sea $t_{0} \in \delta$ en el que $W(t_{0}) = 0$, en donde $W(t_{0})$ denota al Wronskiano con cada vector solución evaluado en el punto $t_{0}$.
$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0})) $$
En una combinación de ambos teoremas de los resultados de álgebra podemos deducir que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$, no todos cero, tal que
$$\mathbf{Y}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = 0 \label{11} \tag{11}$$
Lo que tenemos es un sistema lineal de $n$ ecuaciones homogéneo con $n$ incógnitas (sistema lineal en el contexto algebraico (\ref{10}) con $\mathbf{D} = \mathbf{0}$, no sistema lineal de ecuaciones diferenciales), dichas incógnitas son las constantes $c_{i}$, $i = 1, 2, \cdots, n$. La relación (\ref{11}) se cumple debido a que si el Wronskiano es igual a cero, entonces es posible que el sistema no tenga solución trivial y mucho menos una solución única, esto lo deducimos de los teoremas de álgebra que establecimos.
Por otro lado, sabemos por hipótesis que los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son solución del sistema homogéneo (\ref{2}) en el intervalo $\delta$, por el principio de superposición sabemos también que la combinación lineal
$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n}$$
es solución de (\ref{2}) en $\delta$. Del resultado (\ref{11}) y de la unicidad de la solución se deduce que $\mathbf{Y}(t) = 0$ para algún punto $t = t_{0} \in \delta$, es decir,
$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$
Pero por hipótesis los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes en $\delta$, lo que implica que
$$c_{1} = c_{2} = \cdots = c_{n} = 0$$
lo cual es una contradicción con lo que establecimos en (\ref{11}). Por lo tanto, el Wronskiano tiene que ser distinto de cero, es decir
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$
$\Leftarrow$) Por demostrar: $S$ es linealmente independiente.
Este caso también lo demostraremos por contradicción. Supongamos que los vectores solución $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente dependientes en $\delta$, esto implica que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$ no todos cero, tal que
$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$
Este sistema lo podemos escribir en la forma (\ref{9}) como
$$\begin{matrix}
c_{1}y_{11} + c_{2}y_{12} + \cdots + c_{n}y_{1n} = 0 \\
c_{1}y_{21} + c_{2}y_{22} + \cdots + c_{n}y_{2n} = 0 \\
\vdots\\
c_{1}y_{n1} + c_{2}y_{n2} + \cdots + c_{n}y_{nn} = 0
\end{matrix}$$
En donde las funciones $y_{ij}$, $i, j \in \{1, 2, 3, \cdots, n\}$ son los coeficientes y las constantes $c_{i}$, $i = 1, 2, \cdots, n$ son las incógnitas. Debido a que las $c_{i}$ no son todas cero implica que el sistema no tiene solución trivial y por el segundo teorema de los resultados de álgebra concluimos que
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = 0$$
Pero, por hipótesis
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$
lo cual es una contradicción y todo nace de considerar a $S$ como un conjunto linealmente dependiente. Por lo tanto, el conjunto de soluciones
$$S = \{\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}\}$$
es linealmente independiente en $\delta$.
$\square$
Un resultado interesante se enuncia a continuación.
Este resultado nos garantiza que si $W \neq 0$ para algún punto $t_{0} \in \delta$, entonces $W \neq 0$ para toda $t \in \delta$ y por el criterio anterior las soluciones serán linealmente independientes en ese intervalo.
El conjunto de soluciones linealmente independientes del sistema lineal (\ref{2}) recibe un nombre especial.
El siguiente teorema nos garantiza la existencia de este conjunto.
El conjunto fundamental de soluciones está constituido por vectores que son linealmente independientes entre sí, con estos vectores es posible formar una matriz cuyas columnas están formadas con las entradas de dichos vectores, esta matriz tiene un nombre especial.
$$\mathbf{M}(t) = \begin{pmatrix}
y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{12} \tag{12}$$
Un hecho interesante es que el determinante de la matriz fundamental de soluciones corresponde al Wronskiano.
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = |\mathbf{M}(t)| \label{13} \tag{13}$$
Realicemos un ejemplo, para ello consideremos el sistema lineal del ejemplo anterior.
Ejemplo: Mostrar que las soluciones
$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$
del sistema lineal
$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$
son linealmente independientes.
Solución: En el ejemplo anterior ya comprobamos que efectivamente son solución del sistema lineal dado. Para determinar si son linealmente independientes veamos si el Wronskiano es distinto de cero.
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \mathbf{Y}_{3}) = \begin{vmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{vmatrix} = e^{5t} + 0 + 0 -0 -0 -(-e^{5t}) = 2e^{5t} \neq 0$$
Como $W \neq 0$, $\forall$ $t \in \mathbb{R}$, entonces los vectores dados son linealmente independientes y por lo tanto forman un conjunto fundamental de soluciones en $\mathbb{R}$.
$$S = \left\{ \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} \right\}$$
La matriz fundamental de soluciones es
$$\mathbf{M}(t) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$
$\square$
Un buen ejercicio sería mostrar que un conjunto de soluciones del sistema lineal homogéneo (\ref{2}) forma un espacio vectorial, es relativamente sencillo probar cada una de las propiedades o axiomas que definen a un espacio vectorial. El resultado a demostrar de tarea moral es el siguiente.
Soluciones generales a sistemas lineales
Ahora que conocemos algunas propiedades de las soluciones de sistemas lineales, es momento de conocer la forma general de las soluciones de los sistemas lineales tanto homogéneos como no homogéneos.
Comencemos por enunciar el teorema que establece la forma de la solución general de un sistema lineal homogéneo (\ref{2}).
$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} \label{14} \tag{14}$$ donde las $c_{i}$, $i = 1, 2, \cdots, n$ son constantes arbitrarias.
Demostración: Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema lineal homogéneo en el intervalo $\delta$, sea $t_{0} \in \delta$ y supongamos que
$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0}$$
Es decir, la función $\mathbf{Y}(t)$ satisface el problema de valores iniciales $\mathbf{Y}^{\prime} = \mathbf{AY}; \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$.
Por otro lado, por el principio de superposición sabemos que la combinación lineal
$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$
también es solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Donde $c_{i}$, $i = 1, 2, \cdots, n$ son constantes arbitrarias y las $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, n$ son las soluciones del conjunto fundamental de soluciones del sistema lineal. Supongamos que
$$\hat{\mathbf{Y}}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$
Lo que tenemos es el siguiente sistema de $n$ ecuaciones.
$$\begin{matrix}
c_{1}y_{11}(t_{0}) + c_{2}y_{12}(t_{0}) + \cdots + c_{n}y_{1n}(t_{0}) = b_{1} \\
c_{1}y_{21}(t_{0}) + c_{2}y_{22}(t_{0}) + \cdots + c_{n}y_{2n}(t_{0}) = b_{2} \\
\vdots \\
c_{1}y_{n1}(t_{0}) + c_{2}y_{n2}(t_{0}) + \cdots + c_{n}y_{nn}(t_{0}) = b_{n}
\end{matrix}$$
En donde las incógnitas son las contantes $c_{i}$, $i = 1, 2, \cdots, n$. Como las funciones $y_{ij}$, $i,j \in \{1, 2, 3, \cdots, n \}$ pertenecen a vectores del conjunto de soluciones, entonces sabemos que $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes y por el criterio para soluciones linealmente independientes inferimos que $W(t_{0}) \neq 0$, donde
$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0}))$$
De los resultados de álgebra deducimos que el sistema de $n$ ecuaciones tiene solución única, esto significa que existen constantes únicas $c_{1}, c_{2}, \cdots, c_{n}$, tal que
$$c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$
Esto nos indica que
$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$
es solución del problema de valores iniciales. Por el teorema de existencia y unicidad para sistemas lineales homogéneas concluimos que $\mathbf{Y}(t) = \hat{\mathbf{Y}}(t)$, es decir,
$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$
Como $\mathbf{Y}(t)$ es una solución arbitraria, entonces debe ser la solución general del sistema lineal homogéneo en $\delta$.
$\square$
Para concluir la entrada estudiemos el caso no homogéneo.
Sistemas no homogéneos
El sistema lineal de primer orden no homogéneo es
$$\begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{15} \tag{15}$$
O bien,
$$\mathbf{Y^{\prime}} = \mathbf{AY} + \mathbf{G} \label{16} \tag{16}$$
El vector de funciones que satisface el sistema (\ref{16}) es una solución y recibe un nombre.
A continuación se enuncia el teorema que nos muestra la forma general de la solución de un sistema lineal no homogéneo.
$$\mathbf{Y}_{c} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} \label{17} \tag{17}$$ la solución general en el mismo intervalo $\delta$ del sistema homogéneo asociado $\mathbf{Y^{\prime}} = \mathbf{AY}$. Entonces la solución general del sistema no homogéneo en el intervalo $\delta$, es
$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t) \label{18} \tag{18}$$
Demostración: Sea
$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
y_{1p} \\ y_{2p} \\ \vdots \\ y_{np}
\end{pmatrix}$$
una solución particular de (\ref{16}) y sean $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$, $n$ soluciones linealmente independientes del sistema homogéneo asociado $\mathbf{Y^{\prime}} = \mathbf{AY}$.
Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema no homogéneo, notemos lo siguiente.
\begin{align*}
(\mathbf{Y}(t) -\mathbf{Y}_{p}(t))^{\prime} &= \mathbf{Y}^{\prime}(t) -\mathbf{Y}_{p}^{\prime}(t) \\
&= (\mathbf{AY}(t) + \mathbf{G}) -(\mathbf{AY}_{p}(t) + \mathbf{G}) \\
&= \mathbf{A} (\mathbf{Y}(t) -\mathbf{Y}_{p}(t))
\end{align*}
Este resultado nos indica que $\mathbf{Y}(t) -\mathbf{Y}_{p}(t)$ es solución del sistema homogéneo, eso significa que se puede escribir como
$$\mathbf{Y}(t) -\mathbf{Y}_{p}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t)$$
entonces, la solución $\mathbf{Y}$ tiene la forma
$$\mathbf{Y}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) \label{19} \tag{19}$$
La solución $\mathbf{Y}(t)$, al ser cualquier solución del sistema lineal no homogéneo, podemos deducir que la solución general debe tener la forma (\ref{19}), por lo que concluimos que $\mathbf{Y}(t)$ se trata de la solución general de (\ref{16}).
Considerando la hipótesis (\ref{17}) concluimos que la solución general del sistema lineal no homogéneo es
$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$
$\square$
Cuando estamos trabajando con un sistema lineal no homogéneo, la solución general del sistema lineal homogéneo asociado (\ref{17}) recibe un nombre particular.
Concluyamos con un ejemplo.
Ejemplo: Probar que el vector
$$\mathbf{Y}_{p} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$
es una solución particular del siguiente sistema lineal no homogéneo.
$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$
Solución: Por un lado, derivemos el vector dado.
$$\mathbf{Y}^{\prime}_{p} = \begin{pmatrix}
-\dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ -e^{t} + \dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$
Por otro lado, sustituyamos directamente en el sistema al vector dado.
$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$
Operando obtenemos lo siguiente.
$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} + e^{t} \\ -\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t}+e^{2t} \\ \dfrac{3}{2}t^{2}e^{3t} + te^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$
Los resultados obtenidos son los mismos, por lo tanto el vector $\mathbf{Y}_{p}$ es solución del sistema.
En los ejemplos anteriores de esta entrada probamos que el conjunto fundamental de soluciones del sistema lineal homogéneo asociado
$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$
esta constituido por los vectores linealmente independientes
$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$
de manera que la función complementaria es
$$\mathbf{Y}_{c} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$
Como la solución general es
$$\mathbf{Y} = \mathbf{Y}_{c} + \mathbf{Y}_{p}$$
Entonces la solución general del sistema lineal no homogéneo es
$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} + \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$
$\square$
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
- Los siguientes vectores son soluciones de un sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$. Determinar si forman un conjunto fundamental de soluciones en $\mathbb{R}$.
- $\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1
\end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
2 \\ 6
\end{pmatrix}e^{t} + \begin{pmatrix}
8 \\ -8
\end{pmatrix}te^{t}$
- $\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ 6 \\ -13
\end{pmatrix},\hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
1 \\ -2 \\ -1
\end{pmatrix}e^{-4t}, \hspace{1cm} \mathbf{Y}_{3}= \begin{pmatrix}
2 \\ 3 \\ -2
\end{pmatrix}e^{3t}$
- Probar que el vector $\mathbf{Y}_{p}$ es una solución particular del sistema lineal dado.
- $\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 1 \\ 3 & 4
\end{pmatrix} \mathbf{Y} -\begin{pmatrix}
1 \\ 7
\end{pmatrix}e^{t}, \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{t} + \begin{pmatrix}
1 \\ -1
\end{pmatrix}te^{t}$
- $\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 2 & 3 \\
-4 & 2 & 0 \\
-6 & 1 & 0
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
-1 \\ 4 \\ 3
\end{pmatrix} \sin(3t), \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
\sin(3t) \\ 0 \\ \cos (3t)
\end{pmatrix}$
- Mostrar que la solución general de
$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 6 & 0 \\ 1 & 0 & 1 \\ 1 & 1 & 0
\end{pmatrix} \mathbf{Y}$
en el intervalo $(-\infty, \infty)$ es
$\mathbf{Y} = c_{1} \begin{pmatrix}
6 \\ -1 \\ -5
\end{pmatrix}e^{-t} + c_{2} \begin{pmatrix}
-3 \\ 1 \\ 1
\end{pmatrix}e^{-2t} + c_{3} \begin{pmatrix}
2 \\ 1 \\ 1
\end{pmatrix}e^{3t}$
- Mostrar que la solución general de
$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -1 \\ -1 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
1 \\ 1
\end{pmatrix}t^{2} + \begin{pmatrix}
4 \\ -6
\end{pmatrix}t + \begin{pmatrix}
-1 \\ 5
\end{pmatrix}$
en el intervalo $(-\infty, \infty)$ es
$\mathbf{Y} = c_{1} \begin{pmatrix}
1 \\ -1 -\sqrt{2}
\end{pmatrix}e^{\sqrt{2t}} + c_{2} \begin{pmatrix}
1 \\ -1 + \sqrt{2}
\end{pmatrix}e^{-\sqrt{2t}} + \begin{pmatrix}
1 \\ 0 \end{pmatrix}t^{2} + \begin{pmatrix}
-2 \\ 4
\end{pmatrix}t + \begin{pmatrix}
1 \\ 0
\end{pmatrix}$
- Demostrar que el conjunto de soluciones del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$ forma un espacio vectorial con la suma y el producto por escalares usuales de matrices.
Más adelante…
Ahora que conocemos lo que son los sistemas lineales de ecuaciones diferenciales y las propiedades de sus soluciones estamos casi listos para comenzar a desarrollar los distintos métodos de resolución, sin embargo, antes de ello es necesario definir una herramienta matemática que será de suma utilidad en el desarrollo posterior de esta unidad. Dicha herramienta es la exponencial de una matriz.
En la siguiente entrada definiremos lo que significa $e^{\mathbf{A} t}$, donde $\mathbf{A}$ es una matriz de $n \times n$ con componentes constantes y veremos como se relaciona con un sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Así mismo, profundizaremos en el concepto de matriz fundamental de soluciones.
Entradas relacionadas
- Página principal del curso: Ecuaciones Diferenciales I
- Entrada anterior del curso: Sistemas de ecuaciones diferenciales
- Siguiente entrada del curso: Exponencial de una matriz y matriz fundamental de soluciones
- Video relacionado al tema: Propiedades del conjunto de soluciones a un sistema lineal de ecuaciones de primer orden
Agradecimientos
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»