Archivo de la etiqueta: Sistemas lineales de primer orden

Ecuaciones Diferenciales I – Videos: Plano fase para sistemas lineales con valores propios reales distintos no nulos

Introducción

En las dos entradas anteriores revisamos los conceptos esenciales para poder estudiar el plano fase del sistema de ecuaciones de primer orden homogéneas con coeficientes constantes $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Revisamos el campo vectorial asociado al sistema, que para los sistemas que estamos considerando se reduce al campo $\textbf{F}(x,y)=(ax+by, cx+dy)$. A cada $(x,y)$, el campo asocia un vector anclado en dicho punto, que además será tangente a las curvas solución. Si observamos el campo vectorial en el plano, entonces podemos darnos una idea aproximada de cómo se verían las curvas solución, y por tanto, el plano fase completo. Por otra parte estudiamos la estabilidad de los puntos de equilibrio, que son aquellos donde el campo vectorial se anula, es decir, cuando $\textbf{F}(x,y)=(0,0)$. De ellos depende el comportamiento del resto de las soluciones en el plano fase.

Con estos ingredientes, estamos listos para poder dibujar los planos fase de casi cualquier sistema de dos ecuaciones con coeficientes constantes. Como sabemos, la solución general a estos sistemas depende de los valores propios de la matriz asociada. Analizaremos el comportamiento de dichas soluciones, comenzando en esta entrada con el caso cuando los valores propios del sistema son reales distintos y no nulos. Después de cada análisis podremos hacer un dibujo esquemático de cómo se ven las soluciones en el plano fase.

¡Vamos a comenzar!

Plano fase para sistemas con valores propios reales distintos no nulos

En el primer video analizamos de manera general el comportamiento de las soluciones a sistemas de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuando estos tienen valores propios reales distintos y no nulos. Dependiendo del signo de los valores propios será la forma del plano fase.

En el segundo video resolvemos un ejemplo por cada caso analizado en el video anterior.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Los campos vectoriales de las imágenes fueron realizados en el siguiente enlace.

  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Prueba que si el determinante de la matriz asociada es cero, entonces el sistema tiene al menos un valor propio $\lambda=0$.
  • Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 1 & 1 \\ 4 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Encuentra la solución general al sistema y dibuja su plano fase: $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 5 & -1 \\ 3 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Posteriormente grafica la curva correspondiente a la condición inicial $$\textbf{X}(0)=\begin{pmatrix} 2 \\ 1 \end{pmatrix}.$$
  • Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 1 & 1 \\ 2 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Relaciona cada sistema de ecuaciones con la imagen correspondiente a su plano fase:
  1. $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 3 & -2 \\ 2 & -2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  2. $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 2 & 1 \\ 0 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  3. $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} -1 & 1 \\ 0 & -2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
Campo vectorial valores propios reales uno
Campo vectorial. Elaboración propia
Campo vectorial valores propios reales dos
Campo vectorial. Elaboración propia
Campo vectorial valores propios reales tres
Campo vectorial. Elaboración propia

Más adelante

En esta entrada logramos dibujar el plano fase para sistemas cuyos valores propios son reales distintos y no nulos. El siguiente paso será considerar aquellos sistemas que tienen valores propios complejos. Nuevamente dividiremos el análisis en tres casos, dependiendo del signo de la parte real de los valores propios. Eso lo haremos en la siguiente entrada.

¡No te la pierdas!

Entradas relacionadas

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios complejos

Un matemático que no es también algo de poeta
nunca será un matemático completo.
– Karl Weierstrass

Introducción

Ya vimos cómo obtener la solución general de sistemas lineales homogéneos con coeficientes constantes en el caso en el que los valores propios son todos reales y distintos. En esta entrada desarrollaremos el caso en el que los valores propios son complejos.

Valores propios complejos

Vimos que para un sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{1} \tag{1}$$

con $\mathbf{A}$ una matriz de $n \times n$ con componentes reales

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

siempre se puede encontrar una solución de la forma

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t} \label{3} \tag{3}$$

Ahora sabemos que $\lambda$ y $\mathbf{K}$ corresponden a un valor y vector propio respectivamente. Como los valores propios se obtienen de encontrar las raíces del polinomio característico, entonces es posible que los valores propios sean números complejos, digamos de la forma

$$\lambda = \alpha + i \beta \label{4} \tag{4}$$

Con $\alpha$ y $\beta$ reales. Veremos más adelante que este tipo de valores propios generarán también vectores propios con componentes complejos que podremos escribir como

$$\mathbf{K} = \mathbf{U} + i \mathbf{V} \label{5} \tag{5}$$

Con estos resultados la solución (\ref{3}) se puede escribir como

$$\mathbf{Y}(t) = \begin{pmatrix}
u_{1} + i v_{1} \\ u_{2} + i v_{2} \\ \vdots \\ u_{n} + i v_{n}
\end{pmatrix}e^{(\alpha + i \beta)t} = (\mathbf{U} + i \mathbf{V}) e^{(\alpha + i \beta)t} \label{6} \tag{6}$$

Un resultado interesante es que los valores y vectores propios conjugados de (\ref{4}) y (\ref{5}) también son valores y vectores propios de la misma matriz $\mathbf{A}$. Demostremos este hecho.

Recordemos que estamos denotando con $M_{n \times n}$ al conjunto de todas las matrices cuadradas de $n \times n$ con componentes reales y constantes.

Demostración: Por hipótesis $\lambda$ es un valor propio de $\mathbf{A}$, lo que significa que se cumple la relación

$$\mathbf{AK} = \lambda \mathbf{K} \label{7} \tag{7}$$

Con $\mathbf{K}$ el vector propio asociado a $\lambda$. Si tomamos el conjugado de la ecuación anterior, tenemos

$$\overline{\mathbf{AK}} = \overline{\lambda \mathbf{K}}$$

o bien,

$$\mathbf{\bar{A}} \mathbf{\bar{K}} = \bar{\lambda} \mathbf{\bar{K}} \label{8} \tag{8}$$

Pero como $\mathbf{A} \in M_{n \times n}$, es decir, $\mathbf{A}$ es una matriz con componentes reales constantes, entonces $\mathbf{\overline{A}} = \mathbf{A}$. La ecuación (\ref{8}) queda como

$$\mathbf{A} \mathbf{\overline{K}} = \bar{\lambda} \mathbf{\overline{K}} \label{9} \tag{9}$$

Lo que muestra que $\overline{\lambda}$ es también un valor propio de $\mathbf{A}$ y el vector propio asociado es $\mathbf{\overline{K}}$.

$\square$

Como $\lambda$ y $\overline{\lambda}$ son valores propios, con vectores propios asociados $\mathbf{{K}}$ y $\mathbf{\overline{K}}$ respectivamente, de la misma matriz $\mathbf{A}$, por el último teorema de la entrada correspondiente podemos deducir que la solución conjugada de (\ref{6})

$$\mathbf{\overline{Y}}(t) = \begin{pmatrix}
u_{1} -i v_{1} \\ u_{2} -i v_{2} \\ \vdots \\ u_{n} -i v_{n}
\end{pmatrix}e^{(\alpha -i \beta)t} = (\mathbf{U} -i \mathbf{V}) e^{(\alpha -i \beta)t} \label{10} \tag{10}$$

es también una solución del sistema lineal (\ref{1}) y además las soluciones (\ref{6}) y (\ref{10}) son linealmente independientes por el mismo teorema.

A continuación enunciamos un teorema que establece que una solución como (\ref{6}) da lugar a dos soluciones con valores reales.

Demostración: Supongamos que la solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$ es de la forma

$$\mathbf{Y} = \mathbf{W}_{1} + i \mathbf{W}_{2} \label{11} \tag{11}$$

Donde $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son vectores con componentes reales.

Queremos probar que

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

también son soluciones del sistema lineal.

Por una lado, como $\mathbf{Y}$ es solución, entonces

$$\mathbf{Y}^{\prime} = \mathbf{AY} = \mathbf{A} (\mathbf{W}_{1} + i \mathbf{W}_{2}) = \mathbf{AW}_{1} + i \mathbf{AW}_{2} \label{12} \tag{12}$$

Por otro lado, notemos que

$$\mathbf{Y}^{\prime} = (\mathbf{W}_{1} + i \mathbf{W}_{2})^{\prime} = \mathbf{W}_{1}^{\prime} + i \mathbf{W}_{2}^{\prime} \label{13} \tag{13}$$

De (\ref{12}) y (\ref{13}), se tiene que

$$\mathbf{W}_{1}^{\prime} + i \mathbf{W}_{2}^{\prime} = \mathbf{AW}_{1} + i \mathbf{AW}_{2} \label{14} \tag{14}$$

Igualando las partes reales e imaginarias de (\ref{14}), se obtiene

$$\mathbf{W}_{1}^{\prime} = \mathbf{AW}_{1} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}^{\prime} = \mathbf{AW}_{2}$$

Lo que muestra que las funciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son soluciones con valores reales del sistema lineal (\ref{1}).

$\square$

Ahora que conocemos este resultado veamos que forma tienen las funciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$.

Demostración: Sabemos que una solución del sistema lineal (\ref{1}), en el caso en el que el valor y el vector propio son complejos, es

$$\mathbf{Y}(t) = e^{(\alpha + i \beta)t} (\mathbf{U} + i \mathbf{V})$$

Esta función la podemos escribir como

$$\mathbf{Y}(t) = e^{\alpha t} e^{i \beta t} \mathbf{U} + i e^{\alpha t} e^{i \beta t} \mathbf{V} \label{17} \tag{17}$$

Usando la identidad de Euler

$$e^{i \beta t} = \cos(\beta t) + i \sin(\beta t) \label{18} \tag{18}$$

podemos escribir la función (\ref{17}) como

\begin{align*}
\mathbf{Y} &= e^{\alpha t} [\cos(\beta t) + i \sin(\beta t)] \mathbf{U} + i e^{\alpha t}[\cos(\beta t) + i \sin(\beta t)] \mathbf{V} \\
&= e^{\alpha t} [\mathbf{U} \cos(\beta t) + i \mathbf{U} \sin(\beta t)] + i e^{\alpha t}[\mathbf{V} \cos(\beta t) + i \mathbf{V} \sin(\beta t)]
\end{align*}

Si reescribimos este resultado en una parte real y una imaginaria se tiene lo siguiente.

$$\mathbf{Y} = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] + i e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{19} \tag{19}$$

En esta forma podemos definir

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

entonces,

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)]$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)]$$

Por el teorema anterior concluimos que ambas son soluciones del sistema lineal (\ref{1}). Para mostrar que son soluciones linealmente independientes probemos que se cumple

$$c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) = 0 \label{20} \tag{20}$$

sólo si $c_{1} = c_{2} = 0$. Para ello consideremos la solución

$$\mathbf{Y} = \mathbf{W}_{1} + i \mathbf{W}_{2}$$

Por el primer teorema visto sabemos que el conjugado de la función anterior es también una solución del sistema.

$$\mathbf{\overline{Y}} = \mathbf{W}_{1} -i \mathbf{W}_{2} \label{21} \tag{21}$$

Y además ambas soluciones son linealmente independientes, lo que significa que si se satisface la ecuación

$$C_{1} \mathbf{Y} + C_{2} \mathbf{\overline{Y}} = 0 \label{22} \tag{22}$$

es porque $C_{1} = C_{2} = 0$.

Sustituyamos $\mathbf{Y}$ y $\mathbf{\overline{Y}}$ en (\ref{22}).

$$C_{1} [\mathbf{W}_{1} + i \mathbf{W}_{2}] + C_{2} [\mathbf{W}_{1} -i \mathbf{W}_{2}] = 0$$

Factorizando $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$, se tiene

$$(C_{1} + C_{2}) \mathbf{W}_{1} + i(C_{1} -C_{2}) \mathbf{W}_{2} = 0 \label{23} \tag{23}$$

Si definimos

$$c_{1} = C_{1} + C_{2} \hspace{1cm} y \hspace{1cm} c_{2} = i(C_{1} -C_{2})$$

podemos escribir

$$c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) = 0$$

Pero como $C_{1} = C_{2} = 0$, entonces

$$C_{1} + C_{2} = 0 \hspace{1cm} y \hspace{1cm} C_{1} -C_{2} = 0$$

es decir, $c_{1} = c_{2} = 0$, lo que muestra que las soluciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son linealmente independientes.

$\square$

Solución general de un sistema lineal con valores propios complejos

Nosotros ya sabemos que todos los vectores propios de una matriz $\mathbf{A}$, reales o complejos, son linealmente independientes, entonces un conjunto fundamental de soluciones de (\ref{1}) consiste de soluciones de la forma (\ref{15}) y (\ref{16}) en el caso en el que se obtienen valores propios complejos y soluciones de la forma (\ref{3}) cuando los valores propios son reales.

Por ejemplo, supongamos que $\lambda_{1} = \alpha + i \beta$, $\lambda_{2} = \alpha -i \beta$ son valores propios complejos de un sistema lineal y que $\lambda_{3}, \lambda_{4}, \cdots, \lambda_{n}$ son valores propios reales distintos del mismo sistema lineal. Los correspondientes vectores propios serían $\mathbf{K}_{1} = \mathbf{U} + i \mathbf{V}$, $\mathbf{K}_{2} = \mathbf{U} -i \mathbf{V}$, $\mathbf{K}_{3}, \mathbf{K}_{4}, \cdots, \mathbf{K}_{n}$. Entonces la solución general del sistema lineal será

$$\mathbf{Y}(t) = c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) + c_{3} e^{\lambda_{3} t} \mathbf{K}_{3} + c_{4} e^{\lambda_{4} t} \mathbf{K}_{4} + \cdots + c_{n} e^{\lambda_{n} t} \mathbf{K}_{n} \label{24} \tag{24}$$

Donde $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ son los vectores dados en (\ref{15}) y (\ref{16}), respectivamente.

Es importante mencionar que esta teoría se aplica sólo para el caso en que la matriz (\ref{2}) es una matriz con componentes reales.

Para concluir con esta entrada realicemos un ejemplo.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 1 & 1
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 1 \\ 1
\end{pmatrix}$$

Solución: En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 1 & 1
\end{pmatrix}$$

La ecuación característica la obtenemos de calcular el determinante

$$\begin{vmatrix}
1 -\lambda & 0 & 0 \\ 0 & 1- \lambda & -1 \\ 0 & 1 & 1 -\lambda
\end{vmatrix} = 0$$

De donde se obtiene que

$$(1 -\lambda)^{3} + (1 -\lambda) = (1 -\lambda)(\lambda^{2} -2 \lambda + 2) = 0$$

Al resolver para $\lambda$ se obtienen las siguientes tres raíces.

$$\lambda_{1} = 1, \hspace{1cm} \lambda_{2} = 1 + i \hspace{1cm} y \hspace{1cm} \lambda_{3} = 1 -i$$

Estos valores corresponden a los valores propios de la matriz del sistema. Determinemos los vectores correspondientes.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K}_{1} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -1 \mathbf{I}) \mathbf{K}_{1} = \mathbf{0}$$

$$\begin{pmatrix}
1 -1 & 0 & 0 \\ 0 & 1 -1 & -1 \\ 0 & 1 & 1 -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & -1 \\ 0 & 1 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

Es claro que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser libre lo elegimos como $k_{1} = 1$, entonces el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + i$.

Buscamos un vector $\mathbf{K}_{2}$ no nulo, tal que

$$(\mathbf{A} -(1 + i) \mathbf{I}) \mathbf{K}_{2} = \mathbf{0}$$

$$\begin{pmatrix}
1 -(1 + i) & 0 & 0 \\ 0 & 1 -(1 + i) & -1 \\ 0 & 1 & 1 -(1 + i)
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
-i & 0 & 0 \\ 0 & -i & -1 \\ 0 & 1 & -i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-i k_{1} &= 0 \\
-i k_{2} -k_{3} &= 0 \\
k_{2} -i k_{3} &= 0
\end{align*}

De la primera ecuación se obtiene que $k_{1} = 0$, y de la segunda o tercera se obtiene que $k_{2} = i k_{3}$. Elegimos $k_{3} = 1$, así $k_{2} = i$, entonces el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix}$$

Este vector al ser complejo lo podemos escribir como

$$\mathbf{K}_{2} = \mathbf{U} + i \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \label{25} \tag{25}$$

Caso 3: $\lambda_{3} = 1 -i$.

Este caso, como ya vimos en la teoría, corresponde al conjugado del caso anterior, así que el vector propio para este caso es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ -i \\ 1
\end{pmatrix}$$

que también se puede escribir como

$$\mathbf{K}_{3} = \mathbf{U} -i \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} -i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \label{26} \tag{26}$$

Por lo tanto, una forma de la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix} + c_{3} e^{(1 -i)t} \begin{pmatrix}
0 \\ -i \\ 1
\end{pmatrix} \label{27} \tag{27}$$

Sin embargo, es conveniente tener la solución real dada en (\ref{24}). De los resultados (\ref{25}) y (\ref{26}) sabemos que

$$\mathbf{U} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

Si sustituimos en (\ref{15}) y (\ref{16}) con $\alpha = \beta = 1$, obtenemos lo siguiente.

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} \label{28} \tag{28}$$

Por su puesto, lo ideal es no memorizar las ecuaciones (\ref{15}) y (\ref{16}). Lo que se debe de hacer es tomar el caso en el que el vector propio es complejo, en este caso $\lambda_{2} = 1 + i$ y el vector propio correspondiente $\mathbf{K}_{2} = \begin{pmatrix} 0 \\ i \\ 1 \end{pmatrix}$, tal que una solución del sistema es

$$\mathbf{Y}_{2}(t) = e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix}$$

y usamos la identidad de Euler (\ref{18}).

\begin{align*}
e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix} &= e^{t} [\cos(t) + i \sin(t)] \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} -\sin(t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \sin(t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \cos(t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + i e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix}
\end{align*}

De donde podemos definir las funciones anteriores (\ref{28}).

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix}$$

Por lo tanto, de acuerdo a (\ref{24}), la solución general $\mathbf{Y}(t)$ del sistema lineal homogéneo dado debe tener la forma

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} \label{29} \tag{29}$$

Apliquemos los valores iniciales. Tomando $t = 0$, se ve que

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 1 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{3} \\ c_{2}
\end{pmatrix}$$

De modo que, $c_{1} = c_{2} = c_{3} = 1$. Por lo tanto, la solución particular del problema de valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} = e^{t} \begin{pmatrix}
1 \\ \cos(t) -\sin(t) \\ \cos(t) + \sin(t)
\end{pmatrix} \label{30} \tag{30}$$

$\square$

Hemos concluido esta entrada. En la siguiente revisaremos el último caso que corresponde a la situación en la que tenemos valores propios que se repiten, es decir, que tienen multiplicidad $r > 1$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 2 \\ -1 & -1
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 0 & 1 \\ 0 & 1 & -1 \\ -2 & 0 & -1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -7 & 6 & -6 \\ -9 & 5 & -9 \\ 0 & -1 & -1
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 0 & 2 \\ 1 & -1 & 0 \\ -2 & -1 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ -1 \\ -2
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 2 & 0 & 0 \\ -2 & 0 & 0 & 0 \\ 0 & 0 & 0 & -3 \\ 0 & 0 & 3 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1 \\ 0
    \end{pmatrix}$

Más adelante…

Ya conocemos la forma de las soluciones generales de sistemas lineales homogéneos en los que los valores propios de la matriz del sistema son reales y distintos y en los que son números complejos. El caso en el que son repetidos se presentará en la siguiente entrada.

Cuando los valores propios son repetidos el método se puede complicar un poco, sin embargo existe una alternativa bastante ingeniosa que nos permite obtener $n$ soluciones linealmente independientes de un sistema lineal de $n$ ecuaciones. ¡Dicha alternativa involucra la utilidad de la exponencial de una matriz $e^{\mathbf{A} t}$!.

Entradas relacionadas

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios distintos

No debería haber algo como matemáticas aburridas.
– Edsger Dijkstra

Introducción

En la entrada anterior presentamos un breve repaso sobre valores y vectores propios de matrices y vimos cómo es que estas herramientas nos pueden ayudar a resolver sistemas de ecuaciones diferenciales de primer orden homogéneas con coeficientes constantes.

En dicha entrada vimos que para obtener los valores propios es necesario determinar la ecuación característica de la matriz, ésta ecuación resulta ser un polinomio de grado igual al número de ecuaciones que conformen al sistema lineal, así que si se trata de un sistema de $n$ ecuaciones, entonces el polinomio característico sera un polinomio de grado $n$, lo que significa que al resolver para la incógnita obtendremos $n$ raíces, es decir, $n$ valores propios. Ahora bien, sabemos que existen al menos tres casos que pueden ocurrir con dichas raíces y es que pueden ser reales y todas diferentes, pueden ser algunas repetidas o pueden ser incluso números complejos, para cada caso tendremos una forma particular de la solución general a tal sistema lineal.

Lo que desarrollaremos en las siguientes entradas será justamente estos tres casos. En esta entrada comenzaremos con el caso en el que los valores propios del sistema lineal son todos reales y distintos.

Recordemos que estamos intentando resolver un sistema lineal homogéneo con coeficientes constantes.

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}y_{1} + a_{12}y_{2} + \cdots + a_{1n}y_{n} \\
y_{2}^{\prime}(t) &= a_{21}y_{1} + a_{22}y_{2} + \cdots + a_{2n}y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}y_{1} + a_{n2}y_{2} + \cdots + a_{nn}y_{n} \label{1} \tag{1}
\end{align*}

Si $\mathbf{A}$ es la matriz de $n \times n$ con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Entonces el sistema lineal a resolver es

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

Valores propios reales distintos

Con lo visto en la entrada anterior sabemos que si una matriz $\mathbf{A}$ de $n \times n$ tiene $n$ valores propios reales y distintos $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$, entonces siempre se puede encontrar un conjunto de $n$ vectores propios linealmente independientes $\mathbf{v}_{1}, \mathbf{v}_{2}, \cdots, \mathbf{v}_{n}$.

Por otro lado, con el último teorema visto en la entrada anterior sabemos que si

$$\mathbf{Y}_{1} = \mathbf{K}_{1}e^{\lambda_{1}t}, \hspace{1cm} \mathbf{Y}_{2} = \mathbf{K}_{2}e^{\lambda_{2}t}, \hspace{1cm} \cdots, \hspace{1cm} \mathbf{Y}_{n} = \mathbf{K}_{n}e^{\lambda_{n}t}$$

es un conjunto fundamental de soluciones de (\ref{3}) en el intervalo $(-\infty, \infty)$, entonces la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1} e^{\lambda_{1}t} + c_{2} \mathbf{K}_{2} e^{\lambda_{2}t} + \cdots + c_{n} \mathbf{K}_{n} e^{\lambda_{n}t} \label{4} \tag{4}$$

Donde $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$ son los valores propios y $\mathbf{K}_{1}, \mathbf{K}_{2}, \cdots, \mathbf{K}_{n}$ son los vectores propios asociados a cada valor propio. Notemos que en este teorema no se incluye la hipótesis de que los valores propios sean distintos. En esta entrada estamos interesados en resolver sistemas lineales en donde las raíces del polinomio característico sean todos reales y distintos, es decir, el caso en el que los valores propios del sistemas son distintos entre sí.

El siguiente resultado muestra cómo debe ser la solución general de un sistema lineal (\ref{3}) en el caso en el que los valores propios son reales y distintos.

La demostración es inmediata aplicando los resultados antes mencionados que son parte de dos teoremas vistos en la entrada anterior. De tarea moral Intenta escribir la demostración formalmente.

La diferencia entre (\ref{4}) y (\ref{5}) es que en ésta última solución ocurre que $\lambda_{i} \neq \lambda_{j}$ para $i \neq j$.

Este primer caso en realidad es muy sencillo así que concluiremos la entrada con tres ejemplos.

En la entrada en la que desarrollamos el método de eliminación de variables vimos que la solución general del sistema

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
t +1 \\ t + 1
\end{pmatrix} \label{6} \tag{6}$$

es

$$\mathbf{Y} = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t} -\begin{pmatrix}
\dfrac{1}{3} \\ \dfrac{1}{3}
\end{pmatrix}t + \begin{pmatrix}
\dfrac{1}{9} \\ \dfrac{16}{9}
\end{pmatrix} \label{7} \tag{7}$$

Lo que significa que la solución del caso homogéneo de (\ref{6})

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y} \label{8} \tag{8}$$

es

$$\mathbf{Y} = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t} \label{9} \tag{9}$$

Veamos si aplicando este método obtenemos el mismo resultado.

Recordemos que el polinomio característico se obtiene de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{10} \tag{10}$$

Una vez obtenido el polinomio se buscan las raíces para determinar los valores propios. Para cada valor propio se busca un vector $\mathbf{K} \neq \mathbf{0}$, tal que satisfaga la relación

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Los vectores obtenidos corresponderán a los vectores propios del sistema.

Finalmente se sustituyen estos resultados en la solución (\ref{5}), siempre y cuando los valores propios sean reales y distintos.

Ejemplo: Resolver el sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y}$$

Solución: En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix}$$

Determinemos la ecuación característica de acuerdo a (\ref{10}).

$$\begin{vmatrix}
4 -\lambda & -1 \\ 2 & 1 -2
\end{vmatrix} = (4 -\lambda)(1 -\lambda) + 2 = 0$$

El polinomio característico es

$$\lambda^{2} -5 \lambda + 6 = 0$$

Resolviendo para $\lambda$ se obtiene que las raíces son $\lambda_{1} = 2$ y $\lambda_{2} = 3$, son reales y distintas. Para cada valor propio determinemos los vectores propios de acuerdo a (\ref{11}).

Caso 1: $\lambda_{1} = 2$.

$$\begin{pmatrix}
4 -2 & -1 \\ 2 & 1 -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
2 & -1 \\ 2 & -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
2k_{1} -k_{2} &= 0 \\
2k_{1} &= k_{2}
\end{align*}

Elegimos $k_{1} = 1$, entonces $k_{2} = 2$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 3$.

$$\begin{pmatrix}
4 -3 & -1 \\ 2 & 1 -3
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
1 & -1 \\ 2 & -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
k_{1} -k_{2} &= 0 \\
k_{1} &= k_{2}
\end{align*}

Elegimos $k_{1} = 1$, entonces $k_{2} = 1$, así el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{5}), la solución general es

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1}e^{\lambda_{1}t} + c_{2} \mathbf{K}_{2}e^{\lambda_{2}t} $$

Sustituyendo los valores obtenidos tenemos que la solución general del sistema lineal homogéneo es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t}$$

Vemos que efectivamente corresponde a la solución (\ref{9}) obtenida con el método de eliminación de variables.

$\square$

Resolvamos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 12 \\ 3 & 1
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

Solución: La matriz $\mathbf{A}$ está dada por

$$\mathbf{A} = \begin{pmatrix}
1 & 12 \\ 3 & 1
\end{pmatrix}$$

La ecuación característica es

$$\begin{vmatrix}
1 -\lambda & 12 \\ 3 & 1 -\lambda
\end{vmatrix} = (1 -\lambda)^{2} -36 = 0$$

El polinomio característico es

\begin{align*}
\lambda^{2} -2 \lambda -35 &= 0 \\
(\lambda -7) (\lambda + 5) &= 0
\end{align*}

De donde es claro que $\lambda_{1} = 7$ y $\lambda_{2} = -5$. Determinemos los vectores propios.

Caso 1: $\lambda_{1} = 7$.

$$\begin{pmatrix}
1 -7 & 12 \\ 3 & 1 -7
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
-6 & 12 \\ 3 & -6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
-6 k_{1} + 12 k_{2} &= 0 \\
3 k_{1} -6 k_{2} &= 0
\end{align*}

De donde $k_{1} = 2k_{2}$. Elegimos $k_{2} = 1$, de manera que $k_{1} = 2$. Así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -5$.

$$\begin{pmatrix}
1 + 5 & 12 \\ 3 & 1 + 5
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
6 & 12 \\ 3 & 6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
6 k_{1} + 12 k_{2} &= 0 \\
3 k_{1} + 6 k_{2} &= 0
\end{align*}

De donde $k_{1} = -2k_{2}$. Elegimos $k_{2} = 1$, de manera que $k_{1} = -2$. Así el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
-2 \\ 1
\end{pmatrix}$$

Sustituyendo estos resultados en la solución general (\ref{5}), se obtiene

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{7t} + c_{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{-5t}$$

Apliquemos los valores iniciales para determinar el valor de las constantes $c_{1}$ y $c_{2}$.

$$\mathbf{Y}(0) = c_{1} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{0} + c_{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{0}$$

Reescribiendo.

$$\begin{pmatrix}
0 \\ 1
\end{pmatrix} = \begin{pmatrix}
2c_{1} \\ c_{1}
\end{pmatrix} + \begin{pmatrix}
-2c_{2} \\ c_{2}
\end{pmatrix} = \begin{pmatrix}
2c_{1} -2c_{2} \\ c_{1} + c_{2}
\end{pmatrix} $$

Las ecuaciones que se obtienen son

\begin{align*}
2c_{1} -2c_{2} &= 0 \\
c_{1} + c_{2} &= 1
\end{align*}

Resolviendo el sistema se obtiene que $c_{1} = \dfrac{1}{2}$ y $c_{2} = \dfrac{1}{2}$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = \dfrac{1}{2} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{7t} + \dfrac{1}{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{-5t} = \begin{pmatrix}
e^{7t} -e^{-5t} \\ \dfrac{1}{2}e^{7t} + \dfrac{1}{2}e^{-5t}
\end{pmatrix}$$

$\square$

Para concluir con esta entrada, resolvamos un sistema lineal en el que la matriz $\mathbf{A}$ es de $4 \times 4$.

Ejemplo: Determinar la solución general del siguiente sistema lineal homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -1 & 1 & 1 \\
-3 & -4 & -3 & 6 \\
0 & -3 & -2 & 3 \\
-3 & -5 & -3 & 7
\end{pmatrix} \mathbf{Y}$$

Solución: La ecuación característica se obtiene de hacer el siguiente determinante.

$$\begin{vmatrix}
-1 -\lambda & -1 & 1 & 1 \\
-3 & -4 -\lambda & -3 & 6 \\
0 & -3 & -2 -\lambda & 3 \\
-3 & -5 & -3 & 7 -\lambda
\end{vmatrix} = 0$$

No es de nuestro interés mostrar todos los pasos del determinante, incluso es conveniente hacer uso de algún método computacional para resolverlo. El resultado que se obtiene de calcular el determinante es

$$\lambda^{4} -5 \lambda^{2} + 4 = 0$$

Muestra que el polinomio característico se puede descomponer de la siguiente forma.

$$(\lambda + 2)(\lambda + 1)(\lambda -1)(\lambda -2) = 0$$

En esta forma es claro que los valores propios del sistema son

$$\lambda_{1} = -2, \hspace{1cm} \lambda_{2} = -1, \hspace{1cm} \lambda_{3} = 1, \hspace{1cm} y \hspace{1cm} \lambda_{4} = 2$$

Todos reales y distintos. Determinemos los vectores propios para cada valor propio.

Caso 1: $\lambda_{1} = -2$.

Buscamos un vector $\mathbf{K}_{1} \neq \mathbf{0}$, tal que

$$(\mathbf{A} + 2 \mathbf{I}) \mathbf{K}_{1} = \mathbf{0}$$

Sustituimos.

$$\begin{pmatrix}
-1 + 2 & -1 & 1 & 1 \\
-3 & -4 + 2 & -3 & 6 \\
0 & -3 & -2 + 2 & 3 \\
-3 & -5 & -3 & 7 + 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
1 & -1 & 1 & 1 \\
-3 & -2 & -3 & 6 \\
0 & -3 & 0 & 3 \\
-3 & -5 & -3 & 9
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

Nuevamente es conveniente resolver el sistema usando algún método computacional, al hacerlo obtendremos que los valores correspondientes de las incógnitas son

$$k_{1} = 1, \hspace{1cm} k_{2} = 0, \hspace{1cm} k_{3} = -1, \hspace{1cm} y \hspace{1cm} k_{4} = 0$$

De manera que el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -1$

Sustituimos en la ecuación vectorial

$$(\mathbf{A} + 1 \mathbf{I}) \mathbf{K}_{2} = \mathbf{0}$$

$$\begin{pmatrix}
-1 + 1 & -1 & 1 & 1 \\
-3 & -4 + 1 & -3 & 6 \\
0 & -3 & -2 + 1 & 3 \\
-3 & -5 & -3 & 7 + 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 & -1 & 1 & 1 \\
-3 & -3 & -3 & 6 \\
0 & -3 & -1 & 3 \\
-3 & -5 & -3 & 8
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

Resolviendo el sistema obtenemos que el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix}$$

Caso 3: $\lambda_{3} = 1$

Sustituimos en la ecuación

$$(\mathbf{A} -1 \mathbf{I}) \mathbf{K}_{3} = \mathbf{0}$$

$$\begin{pmatrix}
-1 -1 & -1 & 1 & 1 \\
-3 & -4 -1 & -3 & 6 \\
0 & -3 & -2 -1 & 3 \\
-3 & -5 & -3 & 7 -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
-2 & -1 & 1 & 1 \\
-3 & -5 & -3 & 6 \\
0 & -3 & -3 & 3 \\
-3 & -5 & -3 & 6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

El resultado de resolver el sistema corresponde al tercer vector propio

$$\mathbf{K}_{3} = \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix}$$

Caso 4: $\lambda_{4} = 2$

Para concluir sustituimos en la ecuación

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K}_{4} = \mathbf{0}$$

$$\begin{pmatrix}
-1 -2 & -1 & 1 & 1 \\
-3 & -4 -2 & -3 & 6 \\
0 & -3 & -2 -2 & 3 \\
-3 & -5 & -3 & 7 -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
-3 & -1 & 1 & 1 \\
-3 & -6 & -3 & 6 \\
0 & -3 & -4 & 3 \\
-3 & -5 & -3 & 5
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

El cuarto y último vector propio es

$$\mathbf{K}_{4} = \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix}$$

Con estos resultados obtenemos que el conjunto fundamental de soluciones esta conformado por los siguientes vectores linealmente independientes.

$$S = \left\{ e^{-2t} \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix}, e^{-t} \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix}, e^{t} \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix}, 2^{2t} \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix} \right\}$$

Y por lo tanto, la solución general del sistema lineal es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix} e^{-2t} + c_{2} \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix} e^{-t} + c_{3} \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix} e^{t} + c_{4} \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix}e^{2t}$$

$\square$

Con esto hemos concluido esta entrada. Nos falta ver el caso en el que los valores propios son números complejos y el caso en el que hay valores propios repetidos, ambos casos resultan ser un poco más complicados e interesantes que este.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Demostrar formalmente el Teorema enunciado en esta entrada.
  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & -3 \\ 2 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & 2 & 4 \\ 2 & 0 & 2 \\ 4 & 2 & 3
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -3 \\ -2 & 2
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 5
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & 1 & -2 \\ -1 & 2 & 1 \\ 4 & 1 & -3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 4 \\ -7
    \end{pmatrix}$
  1. Considerar el siguiente sistema lineal homogéneo.

    $\mathbf{Y}^{\prime} = \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \mathbf{Y} = \mathbf{AY}$
  • Demostrar que la solución general del sistema lineal es

    $\mathbf{Y}(t) = c_{1} e^{2t} \begin{pmatrix} 1 \\ 1 \end{pmatrix} + c_{2} \begin{pmatrix} 1 \\ -1 \end{pmatrix}$
  • Determinar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$ del sistema lineal.
  • Una vez obtenida la matriz fundamental de soluciones determinar la exponencial de la matriz $\mathbf{A} t$ usando la expresión

    $e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0)$

    Comparar el resultado con el obtenido usando la definición. ¿Notas alguna diferencia?.

Más adelante…

En esta entrada desarrollamos el método de valores y vectores propios para resolver sistemas lineales homogéneos en el caso en el que los valores propios son todos reales y distintos.

En la siguiente entrada continuaremos con la segunda situación correspondiente al caso en el que los valores propios del sistema son números complejos. En este caso la forma de las soluciones serán distintas.

Entradas relacionadas

Ecuaciones Diferenciales I: Soluciones a sistemas de ecuaciones diferenciales

Los errores y dificultades no resueltos en el pasado de las matemáticas
siempre han sido las oportunidades de su futuro.
– E. T. Bell

Introducción

En la entrada anterior vimos lo que es un sistema de ecuaciones diferenciales, en particular un sistema lineal de primer orden. Vimos también lo que es un problema de valores iniciales y establecimos la notación matricial.

Así mismo, vimos cómo es que una ecuación diferencial lineal de orden $n$ se puede transformar en un sistema lineal de primer orden, esto tiene bastante ventaja ya que, una vez que veamos cómo resolver sistemas de ecuaciones diferenciales, muchas veces será más sencillo resolver el sistema que resolver la ecuación de orden $n$ aplicando los métodos que ya conocemos.

En esta entrada estudiaremos las propiedades de las soluciones de los sistemas lineales de primer orden.

Cabe mencionar que mucho de lo que desarrollaremos en esta entrada es bastante similar a la teoría vista con las ecuaciones diferenciales de orden $n$, comenzando por la validez del principio de superposición.

A partir de ahora sólo usaremos la notación matricial y toda la teoría básica del álgebra lineal que éstas conllevan.

Soluciones de sistemas lineales de primer orden

Comencemos por estudiar el caso homogéneo. El sistema lineal de primer orden homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime} \\ y_{2}^{\prime} \\ \vdots \\ y_{n}^{\prime}
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1} \\ y_{2} \\ \vdots \\ y_{n}
\end{pmatrix} \label{1} \tag{1}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} \label{2} \tag{2}$$

En la entrada anterior definimos la solución de un sistema de ecuaciones diferenciales en el intervalo $\delta$ como el conjunto de $n$ funciones

$$S_{0} = \{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\} \label{3} \tag{3}$$

definidas en $\delta$ y diferenciables en el mismo intervalo, tales que satisfacen simultáneamente las $n$ ecuaciones diferenciables de un sistema lineal.

Las soluciones pueden ser escritas como el vector

$$\mathbf{Y} = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \label{4} \tag{4}$$

cuyos elementos son funciones derivables que satisfacen un sistema lineal en el intervalo $\delta$.

En las siguientes definiciones y teoremas se supondrá que los coeficientes $a_{ij}(t)$, $i, j \in \{1, 2, 3, \cdots, n\}$ y ,para el caso no homogéneo, las funciones $g_{i}(t)$, son continuas en algún intervalo común $\delta$.

Comencemos por mostrar que el principio de superposición también es valido para sistemas lineales.

Demostración: Consideremos la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

con

$$\mathbf{Y}_{i} = \begin{pmatrix}
y_{1i} \\ y_{2i} \\ \vdots \\ y_{ni}
\end{pmatrix}$$

para $i = 1, 2, \cdots, m$. La derivada de $\mathbf{Y}_{i}$ esta dada por

$$\mathbf{Y}_{i}^{\prime} = \begin{pmatrix}
y_{1i}^{\prime} \\ y_{2i}^{\prime} \\ \vdots \\ y_{ni}^{\prime}
\end{pmatrix}$$

Entonces la derivada de la combinación lineal es

\begin{align*}
\mathbf{Y}^{\prime} &= \begin{pmatrix}
c_{1}y_{11}^{\prime} + c_{2}y_{12}^{\prime} + \cdots + c_{m}y_{1m}^{\prime} \\
c_{1}y_{21}^{\prime} + c_{2}y_{22}^{\prime} + \cdots + c_{m}y_{2m}^{\prime} \\
\vdots \\
c_{1}y_{n1}^{\prime} + c_{2}y_{n2}^{\prime} + \cdots + c_{m}y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \begin{pmatrix}
y_{11}^{\prime} \\ y_{21}^{\prime} \\ \vdots \\ y_{n1}^{\prime}
\end{pmatrix} + c_{2} \begin{pmatrix}
y_{12}^{\prime} \\ y_{22}^{\prime} \\ \vdots \\ y_{n2}^{\prime}
\end{pmatrix} + \cdots + c_{m} \begin{pmatrix}
y_{1m}^{\prime} \\ y_{2m}^{\prime} \\ \vdots \\ y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \mathbf{Y}_{1}^{\prime} + c_{2} \mathbf{Y}_{2}^{\prime} + \cdots + c_{m} \mathbf{Y}_{m}^{\prime}
\end{align*}

Como cada $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, m$, es solución del sistema homogéneo (\ref{2}) en $\delta$, entonces

$$\mathbf{Y}_{i}^{\prime} = \mathbf{A} \mathbf{Y}_{i}$$

así

\begin{align*}
\mathbf{Y}^{\prime} &= c_{1} (\mathbf{AY}_{1}) + c_{2} (\mathbf{AY}_{2}) + \cdots + c_{m} (\mathbf{AY}_{m}) \\
&= \mathbf{A}(c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}) \\
&= \mathbf{AY}
\end{align*}

En donde se ha hecho uso de la propiedad distributiva de la matriz $\mathbf{A}$ y de la hipótesis (\ref{5}). Por lo tanto, la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

también es solución y los es en el mismo intervalo común $\delta$ ya que esta compuesta de soluciones definidas en dicho intervalo.

$\square$

Intenta hacer la demostración.

Realicemos un ejemplo.

Ejemplo: Probar que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

es solución del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

Solución: Probemos que cada uno de los vectores de la combinación lineal es solución y usemos el principio de superposición.

Los vectores son

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Por un lado, derivemos estos vectores.

$$\mathbf{Y}^{\prime}_{1} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{2} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{3} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos cada uno de los vectores en el sistema lineal y usemos los resultados anteriores.

$$\mathbf{AY}_{1} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
1 -1 \\ 1 -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{1}$$

$$\mathbf{AY}_{2} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
e^{2t} + e^{2t} \\ e^{2t} + e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{2}$$

y

$$\mathbf{AY}_{3} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix} = \mathbf{Y}^{\prime}_{3}$$

De esta manera queda mostrado que los tres vectores son solución, ya que satisfacen el sistema. Por el principio de superposición concluimos que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

también es solución del sistema lineal.

$\square$

El principio de superposición nos indica que un sistema lineal puede tener más de una solución, sin embargo, similar al caso de ecuaciones diferenciales de orden $n$, buscamos soluciones que sean linealmente independientes entre sí. A continuación definimos la dependencia e independencia lineal de las soluciones en este contexto.

En la unidad anterior definimos una herramienta muy útil que, además de ayudarnos a resolver ecuaciones diferenciales de orden superior en algunos métodos, nos ayuda a determinar si un conjunto de soluciones es linealmente independiente, dicha herramienta es el Wronskiano, la definición en el caso de los sistemas lineales de primer orden, es la siguiente.

Se puede demostrar que si el Wronskiano es distinto de cero, entonces las soluciones son linealmente independientes, igual que antes, esto es conocido como el criterio para soluciones linealmente independientes. Para demostrar este hecho es conveniente recordar algunos resultados de álgebra que podremos usar en la demostración.

Recordemos que un sistema lineal de $n$ ecuaciones con $n$ incógnitas es un conjunto de ecuaciones

$$\begin{matrix}
b_{11}u_{1} + b_{12}u_{2} + \cdots + b_{1n}u_{n} = d_{1} \\
b_{21}u_{1} + b_{22}u_{2} + \cdots + b_{2n}u_{n} = d_{2}\\
\vdots\\
b_{n1}u_{1} + b_{n2}u_{2} + \cdots + b_{nn}u_{n} = d_{n}
\end{matrix} \label{9} \tag{9}$$

Con $b_{i, j}$ y $d_{i}$, $i, j \in \{1,2, 3, \cdots, n\}$ números reales dados y $u_{i}$, $i = 1, 2, \cdots, n$ las incógnitas. Usando la notación matricial podemos escribir el sistema (\ref{9}) como

$$\mathbf{BU} = \mathbf{D} \label{10} \tag{10}$$

con

$$\mathbf{B} = \begin{pmatrix}
b_{11} & b_{12} & \cdots & b_{1n} \\
b_{21} & b_{22} & \cdots & b_{2n} \\
\vdots & & & \vdots \\
b_{n1} & b_{n2} & \cdots & b_{nn}
\end{pmatrix}, \hspace{1cm} \mathbf{U} = \begin{pmatrix}
u_{1} \\ u_{2} \\ \vdots \\ u_{n}
\end{pmatrix}, \hspace{1cm} \mathbf{D} = \begin{pmatrix}
d_{1} \\ d_{2} \\ \vdots \\ d_{n}
\end{pmatrix}$$

Los resultados que nos interesan son los siguientes.

Si $\mathbf{D} = \mathbf{0}$, el sistema (\ref{10}) también recibe el nombre de sistema homogéneo.

Con estos resultados podemos demostrar el criterio para soluciones linealmente independientes que se enuncia a continuación.

Demostración:

$\Rightarrow$) Por demostrar: $W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$.

Sea $t_{0} \in \delta$ en el que $W(t_{0}) = 0$, en donde $W(t_{0})$ denota al Wronskiano con cada vector solución evaluado en el punto $t_{0}$.

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0})) $$

En una combinación de ambos teoremas de los resultados de álgebra podemos deducir que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$, no todos cero, tal que

$$\mathbf{Y}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = 0 \label{11} \tag{11}$$

Lo que tenemos es un sistema lineal de $n$ ecuaciones homogéneo con $n$ incógnitas (sistema lineal en el contexto algebraico (\ref{10}) con $\mathbf{D} = \mathbf{0}$, no sistema lineal de ecuaciones diferenciales), dichas incógnitas son las constantes $c_{i}$, $i = 1, 2, \cdots, n$. La relación (\ref{11}) se cumple debido a que si el Wronskiano es igual a cero, entonces es posible que el sistema no tenga solución trivial y mucho menos una solución única, esto lo deducimos de los teoremas de álgebra que establecimos.

Por otro lado, sabemos por hipótesis que los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son solución del sistema homogéneo (\ref{2}) en el intervalo $\delta$, por el principio de superposición sabemos también que la combinación lineal

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n}$$

es solución de (\ref{2}) en $\delta$. Del resultado (\ref{11}) y de la unicidad de la solución se deduce que $\mathbf{Y}(t) = 0$ para algún punto $t = t_{0} \in \delta$, es decir,

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Pero por hipótesis los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes en $\delta$, lo que implica que

$$c_{1} = c_{2} = \cdots = c_{n} = 0$$

lo cual es una contradicción con lo que establecimos en (\ref{11}). Por lo tanto, el Wronskiano tiene que ser distinto de cero, es decir

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

$\Leftarrow$) Por demostrar: $S$ es linealmente independiente.

Este caso también lo demostraremos por contradicción. Supongamos que los vectores solución $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente dependientes en $\delta$, esto implica que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$ no todos cero, tal que

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Este sistema lo podemos escribir en la forma (\ref{9}) como

$$\begin{matrix}
c_{1}y_{11} + c_{2}y_{12} + \cdots + c_{n}y_{1n} = 0 \\
c_{1}y_{21} + c_{2}y_{22} + \cdots + c_{n}y_{2n} = 0 \\
\vdots\\
c_{1}y_{n1} + c_{2}y_{n2} + \cdots + c_{n}y_{nn} = 0
\end{matrix}$$

En donde las funciones $y_{ij}$, $i, j \in \{1, 2, 3, \cdots, n\}$ son los coeficientes y las constantes $c_{i}$, $i = 1, 2, \cdots, n$ son las incógnitas. Debido a que las $c_{i}$ no son todas cero implica que el sistema no tiene solución trivial y por el segundo teorema de los resultados de álgebra concluimos que

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = 0$$

Pero, por hipótesis

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

lo cual es una contradicción y todo nace de considerar a $S$ como un conjunto linealmente dependiente. Por lo tanto, el conjunto de soluciones

$$S = \{\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}\}$$

es linealmente independiente en $\delta$.

$\square$

Un resultado interesante se enuncia a continuación.

Este resultado nos garantiza que si $W \neq 0$ para algún punto $t_{0} \in \delta$, entonces $W \neq 0$ para toda $t \in \delta$ y por el criterio anterior las soluciones serán linealmente independientes en ese intervalo.

El conjunto de soluciones linealmente independientes del sistema lineal (\ref{2}) recibe un nombre especial.

El siguiente teorema nos garantiza la existencia de este conjunto.

El conjunto fundamental de soluciones está constituido por vectores que son linealmente independientes entre sí, con estos vectores es posible formar una matriz cuyas columnas están formadas con las entradas de dichos vectores, esta matriz tiene un nombre especial.

Un hecho interesante es que el determinante de la matriz fundamental de soluciones corresponde al Wronskiano.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = |\mathbf{M}(t)| \label{13} \tag{13}$$

Realicemos un ejemplo, para ello consideremos el sistema lineal del ejemplo anterior.

Ejemplo: Mostrar que las soluciones

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

son linealmente independientes.

Solución: En el ejemplo anterior ya comprobamos que efectivamente son solución del sistema lineal dado. Para determinar si son linealmente independientes veamos si el Wronskiano es distinto de cero.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \mathbf{Y}_{3}) = \begin{vmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{vmatrix} = e^{5t} + 0 + 0 -0 -0 -(-e^{5t}) = 2e^{5t} \neq 0$$

Como $W \neq 0$, $\forall$ $t \in \mathbb{R}$, entonces los vectores dados son linealmente independientes y por lo tanto forman un conjunto fundamental de soluciones en $\mathbb{R}$.

$$S = \left\{ \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} \right\}$$

La matriz fundamental de soluciones es

$$\mathbf{M}(t) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$

$\square$

Un buen ejercicio sería mostrar que un conjunto de soluciones del sistema lineal homogéneo (\ref{2}) forma un espacio vectorial, es relativamente sencillo probar cada una de las propiedades o axiomas que definen a un espacio vectorial. El resultado a demostrar de tarea moral es el siguiente.

Soluciones generales a sistemas lineales

Ahora que conocemos algunas propiedades de las soluciones de sistemas lineales, es momento de conocer la forma general de las soluciones de los sistemas lineales tanto homogéneos como no homogéneos.

Comencemos por enunciar el teorema que establece la forma de la solución general de un sistema lineal homogéneo (\ref{2}).

Demostración: Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema lineal homogéneo en el intervalo $\delta$, sea $t_{0} \in \delta$ y supongamos que

$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0}$$

Es decir, la función $\mathbf{Y}(t)$ satisface el problema de valores iniciales $\mathbf{Y}^{\prime} = \mathbf{AY}; \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$.

Por otro lado, por el principio de superposición sabemos que la combinación lineal

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

también es solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Donde $c_{i}$, $i = 1, 2, \cdots, n$ son constantes arbitrarias y las $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, n$ son las soluciones del conjunto fundamental de soluciones del sistema lineal. Supongamos que

$$\hat{\mathbf{Y}}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Lo que tenemos es el siguiente sistema de $n$ ecuaciones.

$$\begin{matrix}
c_{1}y_{11}(t_{0}) + c_{2}y_{12}(t_{0}) + \cdots + c_{n}y_{1n}(t_{0}) = b_{1} \\
c_{1}y_{21}(t_{0}) + c_{2}y_{22}(t_{0}) + \cdots + c_{n}y_{2n}(t_{0}) = b_{2} \\
\vdots \\
c_{1}y_{n1}(t_{0}) + c_{2}y_{n2}(t_{0}) + \cdots + c_{n}y_{nn}(t_{0}) = b_{n}
\end{matrix}$$

En donde las incógnitas son las contantes $c_{i}$, $i = 1, 2, \cdots, n$. Como las funciones $y_{ij}$, $i,j \in \{1, 2, 3, \cdots, n \}$ pertenecen a vectores del conjunto de soluciones, entonces sabemos que $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes y por el criterio para soluciones linealmente independientes inferimos que $W(t_{0}) \neq 0$, donde

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0}))$$

De los resultados de álgebra deducimos que el sistema de $n$ ecuaciones tiene solución única, esto significa que existen constantes únicas $c_{1}, c_{2}, \cdots, c_{n}$, tal que

$$c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Esto nos indica que

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

es solución del problema de valores iniciales. Por el teorema de existencia y unicidad para sistemas lineales homogéneas concluimos que $\mathbf{Y}(t) = \hat{\mathbf{Y}}(t)$, es decir,

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

Como $\mathbf{Y}(t)$ es una solución arbitraria, entonces debe ser la solución general del sistema lineal homogéneo en $\delta$.

$\square$

Para concluir la entrada estudiemos el caso no homogéneo.

Sistemas no homogéneos

El sistema lineal de primer orden no homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{15} \tag{15}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} + \mathbf{G} \label{16} \tag{16}$$

El vector de funciones que satisface el sistema (\ref{16}) es una solución y recibe un nombre.

A continuación se enuncia el teorema que nos muestra la forma general de la solución de un sistema lineal no homogéneo.

Demostración: Sea

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
y_{1p} \\ y_{2p} \\ \vdots \\ y_{np}
\end{pmatrix}$$

una solución particular de (\ref{16}) y sean $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$, $n$ soluciones linealmente independientes del sistema homogéneo asociado $\mathbf{Y^{\prime}} = \mathbf{AY}$.

Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema no homogéneo, notemos lo siguiente.

\begin{align*}
(\mathbf{Y}(t) -\mathbf{Y}_{p}(t))^{\prime} &= \mathbf{Y}^{\prime}(t) -\mathbf{Y}_{p}^{\prime}(t) \\
&= (\mathbf{AY}(t) + \mathbf{G}) -(\mathbf{AY}_{p}(t) + \mathbf{G}) \\
&= \mathbf{A} (\mathbf{Y}(t) -\mathbf{Y}_{p}(t))
\end{align*}

Este resultado nos indica que $\mathbf{Y}(t) -\mathbf{Y}_{p}(t)$ es solución del sistema homogéneo, eso significa que se puede escribir como

$$\mathbf{Y}(t) -\mathbf{Y}_{p}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t)$$

entonces, la solución $\mathbf{Y}$ tiene la forma

$$\mathbf{Y}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) \label{19} \tag{19}$$

La solución $\mathbf{Y}(t)$, al ser cualquier solución del sistema lineal no homogéneo, podemos deducir que la solución general debe tener la forma (\ref{19}), por lo que concluimos que $\mathbf{Y}(t)$ se trata de la solución general de (\ref{16}).

Considerando la hipótesis (\ref{17}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

$\square$

Cuando estamos trabajando con un sistema lineal no homogéneo, la solución general del sistema lineal homogéneo asociado (\ref{17}) recibe un nombre particular.

Concluyamos con un ejemplo.

Ejemplo: Probar que el vector

$$\mathbf{Y}_{p} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

es una solución particular del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Solución: Por un lado, derivemos el vector dado.

$$\mathbf{Y}^{\prime}_{p} = \begin{pmatrix}
-\dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ -e^{t} + \dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos directamente en el sistema al vector dado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Operando obtenemos lo siguiente.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} + e^{t} \\ -\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t}+e^{2t} \\ \dfrac{3}{2}t^{2}e^{3t} + te^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Los resultados obtenidos son los mismos, por lo tanto el vector $\mathbf{Y}_{p}$ es solución del sistema.

En los ejemplos anteriores de esta entrada probamos que el conjunto fundamental de soluciones del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

esta constituido por los vectores linealmente independientes

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

de manera que la función complementaria es

$$\mathbf{Y}_{c} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Como la solución general es

$$\mathbf{Y} = \mathbf{Y}_{c} + \mathbf{Y}_{p}$$

Entonces la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} + \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

$\square$

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Los siguientes vectores son soluciones de un sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$. Determinar si forman un conjunto fundamental de soluciones en $\mathbb{R}$.
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ -1
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    2 \\ 6
    \end{pmatrix}e^{t} + \begin{pmatrix}
    8 \\ -8
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ 6 \\ -13
    \end{pmatrix},\hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    1 \\ -2 \\ -1
    \end{pmatrix}e^{-4t}, \hspace{1cm} \mathbf{Y}_{3}= \begin{pmatrix}
    2 \\ 3 \\ -2
    \end{pmatrix}e^{3t}$
  1. Probar que el vector $\mathbf{Y}_{p}$ es una solución particular del sistema lineal dado.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 1 \\ 3 & 4
    \end{pmatrix} \mathbf{Y} -\begin{pmatrix}
    1 \\ 7
    \end{pmatrix}e^{t}, \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}e^{t} + \begin{pmatrix}
    1 \\ -1
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 & 3 \\
    -4 & 2 & 0 \\
    -6 & 1 & 0
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    -1 \\ 4 \\ 3
    \end{pmatrix} \sin(3t), \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    \sin(3t) \\ 0 \\ \cos (3t)
    \end{pmatrix}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 6 & 0 \\ 1 & 0 & 1 \\ 1 & 1 & 0
    \end{pmatrix} \mathbf{Y}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    6 \\ -1 \\ -5
    \end{pmatrix}e^{-t} + c_{2} \begin{pmatrix}
    -3 \\ 1 \\ 1
    \end{pmatrix}e^{-2t} + c_{3} \begin{pmatrix}
    2 \\ 1 \\ 1
    \end{pmatrix}e^{3t}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 \\ -1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}t^{2} + \begin{pmatrix}
    4 \\ -6
    \end{pmatrix}t + \begin{pmatrix}
    -1 \\ 5
    \end{pmatrix}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    1 \\ -1 -\sqrt{2}
    \end{pmatrix}e^{\sqrt{2t}} + c_{2} \begin{pmatrix}
    1 \\ -1 + \sqrt{2}
    \end{pmatrix}e^{-\sqrt{2t}} + \begin{pmatrix}
    1 \\ 0 \end{pmatrix}t^{2} + \begin{pmatrix}
    -2 \\ 4
    \end{pmatrix}t + \begin{pmatrix}
    1 \\ 0
    \end{pmatrix}$
  1. Demostrar que el conjunto de soluciones del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$ forma un espacio vectorial con la suma y el producto por escalares usuales de matrices.

Más adelante…

Ahora que conocemos lo que son los sistemas lineales de ecuaciones diferenciales y las propiedades de sus soluciones estamos casi listos para comenzar a desarrollar los distintos métodos de resolución, sin embargo, antes de ello es necesario definir una herramienta matemática que será de suma utilidad en el desarrollo posterior de esta unidad. Dicha herramienta es la exponencial de una matriz.

En la siguiente entrada definiremos lo que significa $e^{\mathbf{A} t}$, donde $\mathbf{A}$ es una matriz de $n \times n$ con componentes constantes y veremos como se relaciona con un sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Así mismo, profundizaremos en el concepto de matriz fundamental de soluciones.

Entradas relacionadas

Ecuaciones Diferenciales I: Sistemas de ecuaciones diferenciales

El conocimiento de las matemáticas añade vigor a la mente,
la libera del prejuicio, credulidad y superstición.
– John Arbuthnot

Introducción

¡Bienvenidos a la tercera unidad del curso de Ecuaciones Diferenciales I!.

En esta unidad estudiaremos los sistemas de ecuaciones diferenciales lineales de primer orden.

En la unidad 1 de este curso estudiamos el sistema Depredador – Presa, en nuestro análisis el modelo matemático determinado fue el siguiente sistema de ecuaciones diferenciales.

\begin{align*}
\dfrac{dC}{dt} &= aC(t) -bC(t)Z(t) \\
\dfrac{dZ}{dt} &= -cZ(t) + dC(t)Z(t)
\end{align*}

Puedes revisar la entrada correspondiente para recordar que representa cada una de las variables y constantes.

Este sistema fue nuestro primer ejemplo de un sistema de ecuaciones diferenciales y en esta unidad nuestro propósito será desarrollar distintos métodos que nos permitan resolver sistemas de hasta $n > 2$ ecuaciones diferenciales acopladas.

Es importante mencionar que a lo largo de esta unidad usaremos un enfoque matricial, por lo que es recomendable tener presente, al menos, la teoría básica sobre matrices y sus operaciones y propiedades vistas en el curso de Álgebra Lineal I.

En esta entrada comenzaremos por definir los que es un sistema de ecuaciones diferenciales, sus propiedades y veremos cómo es que la notación matricial nos puede ayudar.

¡Comencemos!

Sistemas de ecuaciones diferenciales lineales de primer orden

En esta unidad, a menos que indiquemos lo contrario, la variable independiente se denotará por $t$, mientras que las variables dependientes de $t$ por

$$y_{1} = y_{1}(t), \hspace{0.5cm} y_{2} = y_{2}(t), \hspace{0.5cm} \cdots, \hspace{0.5cm} y_{n} = y_{n}(t)$$

y las funciones $F_{i}$, $i = 1, 2, 3, \cdots, n$ son funciones con valores reales que dependen de las $n + 1$ variables en un intervalo $\delta$.

Notación: Para mayor comodidad, en esta unidad usaremos la notación de prima para la derivada.

$$\dfrac{dy}{dt} = y^{\prime}(t) \label{2} \tag{2}$$

Con esta notación el sistema de ecuaciones (\ref{1}) se puede escribir de la siguiente manera.

\begin{align*}
y_{1}^{\prime}(t) &= F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
y_{2}^{\prime}(t) &= F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
&\vdots \\
y_{n}^{\prime}(t) &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{3} \tag{3}
\end{align*}

En el sistema lineal (\ref{5}) se supone que los coeficientes $a_{ij}(t)$, así como las funciones $g_{i}(t)$, $i, j = \{1, 2, 3, \cdots, n \}$ son continuas en un intervalo común $\delta$.

Ejemplo: El sistema de ecuaciones diferenciales

\begin{align*}
y_{1}^{\prime}(t) &= -3y_{1} + 4y_{2} -9y_{3} \\
y_{2}^{\prime}(t) &= 6y_{1} -y_{2} \\
y_{3}^{\prime}(t) &= 10y_{1} + 4y_{2} + 3y_{3}
\end{align*}

es un sistema lineal de primer orden compuesto por tres ecuaciones diferenciales lineales de primer orden cada una.

Notación: Si el sistema es de dos o tres ecuaciones diferenciales denotaremos por $x(t), y(t)$ o $x(t), y(t)$, $z(t)$ a las variables dependientes de $t$, respectivamente.

Considerando esta notación, el sistema del ejemplo anterior se puede escribir de la siguiente manera.

\begin{align*}
x^{\prime}(t) &= -3x + 4y -9z\\
y^{\prime}(t) &= 6x -y \\
z^{\prime}(t) &= 10x + 4y + 3z
\end{align*}

Problema de valores iniciales

Es posible demostrar la existencia y unicidad de soluciones de sistemas tanto lineales como no lineales (caso general) y de soluciones a sistemas lineales homogéneos y no homogéneos (casos particulares), sin embargo las demostraciones de estos teoremas suelen ser bastantes extensas y complejas para nosotros en estos momentos, ya que requieren de herramientas matemáticas que aún desconocemos. A continuación enunciamos el teorema de existencia y unicidad para el caso general y para el caso lineal homogéneo.

En este teorema la región $R$ se construye con el producto cartesiano de los intervalos abiertos en los que $t_{0} \in \delta$, $b_{1} \in \delta_{1}$, $b_{2} \in \delta_{2}$, $\cdots$, $b_{n} \in \delta_{n}$, así $(t_{0}, b_{1}, b_{2}, \cdots, b_{n}) \in R$.

Para el caso particular de sistemas lineales homogéneos, el teorema de existencia y unicidad se puede enunciar de la siguiente forma.

Como mencionamos antes, es complejo demostrar estos teoremas, sin embargo más adelante en esta unidad los retomaremos y los justificaremos. Por ahora hay que tener en cuenta que para el caso general se requiere de volver a algunos de los conceptos vistos para demostrar el teorema de existencia y unicidad de Picard – Lindelöf de la primera unidad y para los casos particulares ¡la definición de exponencial de una matriz nos ayudará a demostrarlos!.

Ahora veamos la utilidad de la notación matricial.

Sistemas lineales de primer orden en forma matricial

Daremos por hecho que se conocen las operaciones y propiedades básicas de las matrices, así como algunas propiedades de espacios vectoriales vistas en el curso de Álgebra Lineal I.

Definamos las siguientes matrices de funciones.

$$\mathbf{Y}(t) = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \hspace{1cm} \Rightarrow \hspace{1cm} \mathbf{Y^{\prime}}(t) = \begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} $$

y

$$\mathbf{A}(t) = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix}, \hspace{1cm}
\mathbf{G}(t) = \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix}$$

Usando estas matrices, el sistema de ecuaciones diferenciales lineales de primer orden (\ref{5}) se puede escribir de la siguiente manera.

$$\begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{8} \tag{8}$$

o bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} + \mathbf{G} \label{9} \tag{9}$$

Si el sistema es homogéneo, entonces escribimos

$$\mathbf{Y^{\prime}} = \mathbf{AY} \label{10} \tag{10}$$

La solución de un sistema lineal la podemos definir como sigue.

Usando la notación matricial, un PVI se puede escribir de la siguiente manera.

El teorema de existencia y unicidad para el caso lineal se puede enunciar de la siguiente forma.

Verifica que el sistema de ecuaciones diferenciales usado como ejemplo al inicio de la entrada se puede escribir en notación matricial de la siguiente forma.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-3 & 4 & -9 \\ 6 & -1 & 0 \\ 10 & 4 & 3
\end{pmatrix} \mathbf{Y}$$

Veamos un ejemplo más.

Ejemplo: Escribir el siguiente sistema lineal en forma matricial.

\begin{align*}
x^{\prime}(t) &= x -y + z + t + 1 \\
y^{\prime}(t) &= 2x + y -z -3t^{2} \\
z^{\prime}(t) &= x + y + z + t^{2} -t + 2
\end{align*}

Solución: Primero escribamos cada lado de las ecuaciones en una matriz.

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
x -y + z + t -1 \\ 2x + y -z -3t^{2} \\ x + y + z + t^{2} -t + 2
\end{pmatrix}$$

La matriz derecha la separamos en dos, una que contenga a las variables dependientes y otra a la variable independiente.

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
x -y + z \\ 2x + y -z \\ x + y + z
\end{pmatrix} + \begin{pmatrix}
t -1 \\ -3t^{2} \\ t^{2} -t + 2
\end{pmatrix}$$

Finalmente podemos escribir

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
1 & -1 & 1 \\ 2 & 1 & -1 \\ 1 & 1 & 1
\end{pmatrix} \begin{pmatrix}
x \\ y \\ z
\end{pmatrix} + \begin{pmatrix}
t -1 \\ -3t^{2} \\ t^{2} -t + 2
\end{pmatrix}$$

O bien,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & -1 & 1 \\ 2 & 1 & -1 \\ 1 & 1 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
t -1 \\ -3t^{2} \\ t^{2} -t + 2
\end{pmatrix}$$

Donde,

$$\mathbf{A} = \begin{pmatrix} 1 & -1 & 1 \\ 2 & 1 & -1 \\ 1 & 1 & 1 \end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{G}(t) = \begin{pmatrix} t -1 \\ -3t^{2} \\ t^{2} -t + 2 \end{pmatrix}$$

$\square$

Usando la notación matricial verifiquemos que un vector solución en efecto es solución de un sistema lineal.

Ejemplo: Probar que el vector

$$\mathbf{Y} = \begin{pmatrix}
5 \cos(t) \\ 3 \cos(t) -\sin(t)
\end{pmatrix}e^{t}$$

es solución del sistema lineal

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
-2 & 5 \\ -2 & 4
\end{pmatrix} \begin{pmatrix}
x(t) \\ y(t)
\end{pmatrix}$$

Solución: El vector dado es

$$\mathbf{Y} = \begin{pmatrix}
x(t) \\ y(t)
\end{pmatrix} = \begin{pmatrix}
5e^{t} \cos(t) \\ 3e^{t} \cos(t) -e^{t} \sin(t)
\end{pmatrix}$$

Por una lado, derivemos el vector

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
5e^{t} \cos(t) -5e^{t} \sin(t) \\ 3e^{t} \cos(t) -3e^{t} \sin(t) -e^{t} \sin(t) -e^{t} \cos(t)
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
5 \cos(t) -5 \sin(t) \\ 2 \cos(t) -4 \sin(t)
\end{pmatrix} e^{t}$$

Por otro lado, sustituyamos los valores de $x(t)$ y $y(t)$ en el sistema y veamos si se obtiene el mismo resultado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-2 & 5 \\ -2 & 4
\end{pmatrix} \begin{pmatrix}
5e^{t} \cos(t) \\ 3e^{t} \cos(t) -e^{t} \sin(t)
\end{pmatrix} = \begin{pmatrix}
-10e^{t} \cos(t) + 15e^{t} \cos(t) -5e^{t} \sin(t) \\ -10e^{t} \cos(t) + 12e^{t} \cos(t) -4e^{t} \sin(t)
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
5 \cos(t) -5 \sin(t) \\ 2 \cos(t) -4 \sin(t)
\end{pmatrix} e^{t}$$

Como el resultado es el mismo concluimos que, en efecto, el vector $\mathbf{Y}$ es solución del sistema lineal dado.

$\square$

Para concluir con esta entrada veamos un resultado interesante que nos conecta con la unidad anterior.

¡Una ecuación diferencial de orden $n \geq 2$ lineal puede ser reescrita como un sistema lineal de $n$ ecuaciones de primer orden!.

Reducción de una ecuación de orden $n$ a un sistema de ecuaciones

Consideremos una ecuación diferencial lineal de orden $n$.

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{13} \tag{13}$$

Para adaptar este ejercicio a la notación que estamos usando en esta entrada tomemos a $x = x(t)$ como la variable dependiente de $t$ y dividamos toda la ecuación por $a_{n}(t) \neq 0$, tal que se obtenga la siguiente ecuación de orden $n$.

$$\dfrac{dx^{n}}{dt^{n}} + b_{1}(t) \dfrac{d^{n -1}x}{dt^{n -1}} + \cdots + b_{n -2}(t) \dfrac{d^{2}x}{dt^{2}} + b_{n -1}(t) \dfrac{dx}{dt} + b_{n}(t)x = g(t) \label{14} \tag{14}$$

Ahora realicemos las siguientes definiciones.

$$y_{1} = x, \hspace{1cm} y_{2} = \dfrac{dx}{dt}, \hspace{1cm} y_{3} = \dfrac{d^{2}x}{dt^{2}}, \hspace{1cm} \cdots, \hspace{1cm} y_{n} = \dfrac{d^{n -1}x}{dt^{n -1}} \label{15} \tag{15}$$

y notemos que

$$y^{\prime}_{1} = \dfrac{dx}{dt}, \hspace{1cm} y^{\prime}_{2} = \dfrac{d^{2}x}{dt^{2}}, \hspace{1cm} y^{\prime}_{3} = \dfrac{d^{3}x}{dt^{3}}, \hspace{1cm} \cdots, \hspace{1cm} y^{\prime}_{n -1} = \dfrac{d^{n -1}x}{dt^{n -1}} \label{16} \tag{16}$$

De los resultados (\ref{15}) y (\ref{16}) obtenemos que

$$y^{\prime}_{1} = y_{2}, \hspace{1cm} y^{\prime}_{2} = y_{3}, \hspace{1cm} y^{\prime}_{3} = y_{4}, \hspace{1cm} \cdots, \hspace{1cm} y^{\prime}_{n -1} = y_{n} \label{17} \tag{17}$$

Para obtener $y^{\prime}_{n}$ sólo despejamos de la ecuación diferencial (\ref{14}).

$$y^{\prime}_{n} = \dfrac{d^{n}x}{dt^{n}} = g(t) -b_{1}(t) \dfrac{d^{n -1}x}{dt^{n -1}} -\cdots -b_{n -2}(t) \dfrac{d^{2}x}{dt^{2}} -b_{n -1}(t) \dfrac{dx}{dt} -b_{n}(t)x$$

Si usamos (\ref{15}) podemos escribir

$$y^{\prime}_{n} = g(t) -b_{1}(t)y_{n} -\cdots -b_{n -2}(t)y_{3} -b_{n -1}(t)y_{2} -b_{n}(t)y_{1} \label{18} \tag{18}$$

Con estos resultados nos damos cuenta que hemos formado un sistema lineal de $n$ ecuaciones diferenciales.

\begin{align*}
y^{\prime}_{1} &= y_{2} \\
y^{\prime}_{2} &= y_{3} \\
y^{\prime}_{3} &= y_{4} \\
&\vdots \\
y^{\prime}_{n -1} &= y_{n} \\
y^{\prime}_{n} &= g(t) -b_{1}(t)y_{n} -\cdots -b_{n -2}(t)y_{3} -b_{n -1}(t)y_{2} -b_{n}(t)y_{1}
\end{align*}

Usando la notación matricial obtenemos finalmente que

$$\begin{pmatrix}
y^{\prime}_{1}(t) \\ y^{\prime}_{2}(t) \\ \vdots \\ y^{\prime}_{n -1}(t) \\ y^{\prime}_{n}(t)
\end{pmatrix} = \begin{pmatrix}
0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & 1 \\ -b_{n}(t) & -b_{n-1}(t) & -b_{n-2}(t) & \cdots & -b_{1}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n -1}(t) \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ \vdots \\ 0 \\ g(t)
\end{pmatrix}$$

Esto por supuesto trae muchas ventajas, ya que en ocasiones será mucho más sencillo resolver un sistema de $n$ ecuaciones con los métodos que veremos más adelante que intentar resolver la ecuación de orden $n$ con los métodos desarrollados en la unidad anterior.

Para que quede más claro el procedimiento anterior realicemos un ejemplo.

Ejemplo: Escribir la ecuación diferencial de orden $n = 4$

$$\dfrac{d^{4}x}{dt^{4}} + 12 \dfrac{d^{3}x}{dt^{3}} -5 \dfrac{d^{2}x}{dt^{2}} + 8x = 2 \cos(t)$$

en un sistema lineal usando notación matricial.

Solución: Aplicamos las definiciones de (\ref{15}) y (\ref{16}).

$$y_{1} = x, \hspace{1cm} y_{2} = \dfrac{dx}{dt} = y^{\prime}_{1}, \hspace{1cm} y_{3} = \dfrac{d^{2}x}{dt^{2}} = y^{\prime}_{2} \hspace{1cm} y \hspace{1cm} y_{4} = \dfrac{d^{3}x}{dt^{3}} = y^{\prime}_{3}$$

Y de la ecuación diferencial obtenemos que

$$\dfrac{d^{4}x}{dt^{4}} = 2 \cos(t) -12y_{4} + 5y_{3} -8y_{1} = y^{\prime}_{4}$$

El sistema que se forma, es

\begin{align*}
y^{\prime}_{1} &= y_{2} \\
y^{\prime}_{2} &= y_{3} \\
y^{\prime}_{3} &= y_{4} \\
y^{\prime}_{4} &= 2 \cos(t) -12y_{4} + 5y_{3} -8y_{1}
\end{align*}

Por lo tanto, la ecuación diferencial de orden $4$ es equivalente al sistema lineal de $4$ ecuaciones diferenciales

$$\begin{pmatrix}
y^{\prime}_{1}(t) \\ y^{\prime}_{2}(t) \\ y^{\prime}_{3}(t) \\ y^{\prime}_{4}(t)
\end{pmatrix} = \begin{pmatrix}
0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ -8 & 0 & 5 & -12
\end{pmatrix} \begin{pmatrix}
y_{1} \\ y_{2} \\ y_{3} \\ y_{4}
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ 0 \\ 2 \cos (t)
\end{pmatrix}$$

$\square$

Hemos concluido con esta entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Escribir los siguientes sistemas lineales en forma matricial.
  • $\begin{align*}
    x^{\prime}(t) &= 3x -5y \\
    y^{\prime}(t) &= 4x + 8y
    \end{align*}$
  • $\begin{align*}
    x^{\prime}(t) &= -3x + 4y + e^{-t} \sin(2t) \\
    y^{\prime}(t) &= 5x + 9z + 4e^{-t} \cos(2t) \\
    z^{\prime}(t) &= y + 6z -e^{-t}
    \end{align*}$
  1. Reescribir los siguientes sistemas lineales sin el uso de matrices.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    7 & 5 & -9 \\ 4 & 1 & 1 \\ 0 & -2 & 3 \\
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    0 \\ 2 \\ 1
    \end{pmatrix} e^{5t} -\begin{pmatrix}
    8 \\ 0 \\ 3
    \end{pmatrix} e^{-2t}$
  • $\begin{pmatrix}
    x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
    \end{pmatrix} = \begin{pmatrix}
    1 & -1 & 2 \\ 3 & -4 & 1 \\ -2 & 5 & 6
    \end{pmatrix} \begin{pmatrix}
    x \\ y \\ z
    \end{pmatrix} + \begin{pmatrix}
    1 \\ 2 \\ 2
    \end{pmatrix} e^{-t} -\begin{pmatrix}
    3 \\ -1 \\ 1
    \end{pmatrix} t$
  1. Probar que el vector dado $\mathbf{Y}$ es solución del sistema lineal correspondiente.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 1 \\ -1 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
    1 \\ 3
    \end{pmatrix} e^{t} + \begin{pmatrix}
    4 \\ -4
    \end{pmatrix} te^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 0 & 1 \\ 1 & 1 & 0 \\ -2 & 0 & -1
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
    \sin(t) \\ -\dfrac{1}{2} \sin(t) -\dfrac{1}{2} \cos(t) \\ -\sin(t) + \cos(t)
    \end{pmatrix}$
  1. Escribir las siguientes ecuaciones diferenciales de orden superior en un sistema lineal usando notación matricial.
  • $\dfrac{d^{4}x}{dt^{4}} -10 \dfrac{d^{3}x}{dt^{3}} + 35 \dfrac{d^{2}x}{dt^{2}} -50 \dfrac{dx}{dt} + 24x = 0$
  • $\dfrac{d^{4}x}{dt^{4}} -4 \dfrac{d^{3}x}{dt^{3}} + 8 \dfrac{d^{2}x}{dt^{2}} -8 \dfrac{dx}{dt} + 4x = 8 \sin (2t)$

Más adelante…

Nos hemos introducido en los sistemas lineales de primer orden, en la siguiente entrada estudiaremos las propiedades de las soluciones de estos sistemas de manera muy similar que en el caso de las ecuaciones diferenciales de orden superior.

Veremos que mucho de lo visto en la unidad anterior aparecerá nuevamente, pues conceptos como dependencia e independencia lineal, conjunto fundamental de soluciones, Wronskiano, principio de superposición, entre otros, volverán a aparecer, sólo habrá que adaptarlos a los sistemas lineales.

Entradas relacionadas