Archivo de la etiqueta: sistemas lineales homogéneos

Ecuaciones Diferenciales I: Teoría cualitativa de los sistemas lineales homogéneos – Valores propios nulos

Por Omar González Franco

Un matemático es un hombre ciego en un cuarto oscuro
tratando de buscar a un gato negro que no está allí.
– Charles Darwin

Introducción

En esta entrada concluiremos con el estudio cualitativo de los sistemas lineales homogéneos compuestos por dos ecuaciones diferenciales.

Hasta ahora somos capaces de clasificar y esbozar el comportamiento de las soluciones para los casos en los que los valores propios son reales, complejos y repetidos. Es momento de estudiar el último caso en donde uno o ambos de los valores propios son cero. Este caso es importante ya que divide los sistemas lineales con valores propios estrictamente positivos (repulsores) y valores propios estrictamente negativos (atractores) de aquellos que poseen un valor propio positivo y uno negativo (puntos silla).

Los casos posibles son

  • $\lambda_{1} = 0$ y $\lambda_{2} < 0$.
  • $\lambda_{1} = 0$ y $\lambda_{2} > 0$.
  • $\lambda_{1} = \lambda_{2} = 0$.

Recordemos que el sistema que estamos estudiando es de la forma

\begin{align*}
x^{\prime} &= ax + by \\
y^{\prime} &= cx + dy \label{1} \tag{1}
\end{align*}

Este sistema lo podemos escribir como

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

en donde,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime} \\ y^{\prime}
\end{pmatrix}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
x \\ y
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix}$$

Sean $\lambda_{1}$ y $\lambda_{2}$ los valores propios de $\mathbf{A}$ y sean $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ los vectores propios de $\mathbf{A}$ asociados a cada valor propio, respectivamente.

Comencemos por revisar el caso en el que un valor propio es nulo y el otro negativo.

Un valor propio nulo y otro negativo

Caso 1: $\lambda_{1} = 0$ y $\lambda_{2} < 0$.

Supongamos que $\lambda_{1} = 0$ y $\lambda_{2} < 0$ son los valores propios de $\mathbf{A}$. Debido a que $\lambda_{1} = 0$ y $\lambda_{2} \neq 0$, es decir, los valores propios son reales y distintos, entonces la solución general de (\ref{1}) debe ser de la forma

$$\mathbf{Y}(t) = c_{1} e^{\lambda_{1} t} \mathbf{K}_{1} + c_{2} e^{\lambda_{2} t} \mathbf{K}_{2} \label{3} \tag{3}$$

Pero $\lambda_{1} = 0$, por consiguiente la solución general es

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1} + c_{2} e^{\lambda_{2} t} \mathbf{K}_{2} \label{4} \tag{4}$$

Observemos que esta solución depende de $t$ sólo a través del segundo término, de manera que si $c_{2} = 0$, entonces la solución será el vector constante

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1} \label{5} \tag{5}$$

En este caso, todos los puntos $c_{1} \mathbf{K}_{1}$, para cualquier $c_{1}$, son puntos de equilibrio y todo aquel que esté situado en la línea de vectores propios para el valor propio $\lambda_{1} = 0$ es un punto de equilibrio.

Si $\lambda_{2} < 0$, entonces el segundo término en la solución general (\ref{4}) tiende a cero cuando $t$ crece, por lo que dicha solución tiende al punto de equilibrio $c_{1} \mathbf{K}_{1}$ a lo largo de una línea paralela a $\mathbf{K}_{2}$.

El plano fase indicando estas características es el siguiente.

Plano fase para un valor propio nulo y otro negativo.

Veamos que ocurre si $\lambda_{2} > 0$.

Un valor propio nulo y otro positivo

Caso 2: $\lambda_{1} = 0$ y $\lambda_{2} > 0$.

La solución general del sistema (\ref{1}) sigue siendo

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1} + c_{2} e^{\lambda_{2} t} \mathbf{K}_{2}$$

Pero en este caso $\lambda_{2} > 0$, lo que implica que la solución se aleja de la línea de puntos de equilibrio cuando $t$ crece.

El plano fase es el siguiente.

Plano fase para un valor propio nulo y otro positivo.

Finalmente veamos que ocurre si $\lambda_{1} = \lambda_{2} = 0$.

Ambos valores propios nulos

Caso 3: $\lambda_{1} = \lambda_{2} = 0$.

En este caso ambos valores propios son repetidos, lo que significa que podemos aplicar la teoría vista en la entrada anterior. Sea $\mathbf{K}_{1}$ el único vector propio de la matriz $\mathbf{A}$ y sea $\mathbf{K}_{2}$ un vector propio generalizado de $\mathbf{A}$. Sabemos que la solución general del sistema (\ref{1}) en el caso de valores propios repetidos es

$$\mathbf{Y}(t) = c_{1} e^{\lambda t} \mathbf{K}_{1} + c_{2} e^{\lambda t} \left[ \mathbf{K}_{2} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K}_{2} \right] \label{6} \tag{6}$$

Sin embargo $\lambda = 0$, entonces la solución anterior se reduce a

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1} + c_{2} \left[ \mathbf{K}_{2} + t \mathbf{A} \mathbf{K}_{2} \right] \label{7} \tag{7}$$

El hecho de que los valores propios sean nulos un vector propio podrá ser algún vector canónico

$$\mathbf{K} = \begin{pmatrix}
1 \\ 0
\end{pmatrix} \hspace{1cm} o \hspace{1cm} \mathbf{K} = \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

Las consecuencias de esto es que terminaremos con una solución en la que sólo una función $x(t)$ o $y(t)$ dependerá de $t$, mientras que la otra será una constante.

Supongamos que sólo $x$ depende de $t$, es decir, $x = x(t)$ y $y(t) = c$, con $c$ una constante, entonces para todo $t$ la función $y(t)$ tendrá el mismo valor, mientras que $x(t)$ dependerá de $t$ linealmente, esto en el plano fase se traduce en rectas paralelas al eje $X$ (ya que $y$ no cambia). La dirección de las trayectorias dependerá del signo de la constante que acompaña a la función $y(x)$.

El plano fase para el caso en el $x$ depende de $t$ es

Plano fase para ambos valores propios nulos.

Si se presenta el caso en el que $x(t)$ es una constante y $y(t)$ depende de $t$, entonces las trayectorias serán rectas verticales paralelas al eje $Y$.

En este caso los puntos de equilibrio del sistema serán el eje $X$ o el eje $Y$ dependiendo de que función sea la que dependa de $t$.

Concluyamos esta entrada con un ejemplo por cada caso visto.

Caso 1: $\lambda_{1} = 0$ y $\lambda_{2} < 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-3 & 1 \\ 3 & -1
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
-3 -\lambda & 1 \\ 3 & -1 -\lambda
\end{vmatrix} = \lambda (\lambda -4) = 0$$

Las raíces son $\lambda_{1} = 0$ y $\lambda_{2} = -4$. El vector propio asociado a $\lambda_{1} = 0$ lo obtenemos del siguiente sistema.

$$(\mathbf{A} -0 \mathbf{I}) \mathbf{K} = \mathbf{AK} = \begin{pmatrix}
-3 & 1 \\ 3 & -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Vemos que $3k_{1} = k_{2}$. Elegimos $k_{1} = 1$, tal que $k_{2} = 3$. El primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 3
\end{pmatrix}$$

Determinemos el segundo vector propio asociado a $\lambda_{2} = -4$.

$$(\mathbf{A} + 4 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
1 & 1 \\ 3 & 3
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

En este caso $k_{1} = -k_{2}$. Sea $k_{1} = -3$, tal que $k_{2} = 3$. El segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
-3 \\ 3
\end{pmatrix}$$

Por lo tanto, la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 3
\end{pmatrix} + c_{2} e^{-4t} \begin{pmatrix}
-3 \\ 3
\end{pmatrix}$$

O bien,

\begin{align*}
x(t) &= c_{1} -3c_{2}e^{-4t} \\
y(t) &= 3c_{1} + 3c_{2}e^{-4t}
\end{align*}

De acuerdo a la teoría vista, los puntos de equilibrio corresponden a la recta situada a lo largo del vector propio $\mathbf{K}_{1}$. Para encontrar esta recta consideremos que $c_{2} = 0$, de manera que la solución es

\begin{align*}
x(t) &= c_{1} \\
y(t) &= 3c_{1}
\end{align*}

De donde $y(x) = 3x$, por lo tanto, toda la recta $y = 3x$ contiene puntos de equilibrio.

Otra forma de verlo es a través de la definición. La función vectorial $F(x, y)$ en este caso es

$$F(x, y) = (-3x + y, 3x -y)$$

Los puntos de equilibrio son aquellos en los que $F(x, y) = (0, 0)$, es decir,

\begin{align*}
-3x + y &= 0 \\
3x -y &= 0
\end{align*}

De este sistema obtenemos que los puntos de equilibrio son aquellos en los que $3x = y$, es decir, la recta definida por la función $y(x) = 3x$.

Por otro lado, considerando nuevamente la solución general, es claro que

$$\lim_{t \to \infty} x(t) = c_{1} \hspace{1cm} y \hspace{1cm} \lim_{t \to \infty} y(t) = 3c_{1}$$

por lo que todas las trayectorias tienden a los puntos de equilibrio $c_{1}\mathbf{K}_{1}$ por cada valor de $c_{1}$ y lo hacen de forma paralela al vector propio $\mathbf{K}_{2}$.

El plano fase indicando las características anteriores es el siguiente.

Plano fase del sistema.

Ya vimos que la función vectorial es

$$F(x, y) = (-3x + y, 3x -y)$$

El campo vectorial definido por esta función, y algunas trayectorias correspondientes a soluciones del sistema, se muestran en la siguiente figura.

Trayectorias y campo vectorial.

$\square$

Caso 2: $\lambda_{1} = 0$ y $\lambda_{2} > 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & 2 \\ 2 & 1
\end{pmatrix} \mathbf{Y}$$

Solución: Comencemos por determinar los valores propios.

$$\begin{vmatrix}
4 -\lambda & 2 \\ 2
& 1 -\lambda
\end{vmatrix} = \lambda (\lambda -5) = 0$$

Las raíces son $\lambda_{1} = 0$ y $\lambda_{2} = 5$. Determinemos primero el vector propio asociado al valor propio $\lambda_{1} = 0$.

$$(\mathbf{A} -0 \mathbf{I}) \mathbf{K} = \mathbf{AK} = \begin{pmatrix}
4 & 2 \\ 2 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

De este sistema obtenemos que $2k_{1} = -k_{2}$. Sea $k_{1} = -1$, entonces $k_{2} = 2$. Por lo tanto, el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
-1 \\ 2
\end{pmatrix}$$

Determinemos el segundo vector propio asociado a $\lambda_{2} = 5$.

$$(\mathbf{A} -5 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
-1 & 2 \\ 2 & -4
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Vemos que $2k_{2} = k_{1}$. Sea $k_{2} = 2$, entonces $k_{1} = 4$. Por lo tanto, el segundo vector propio es

$$\mathbf{K}_{2} =\begin{pmatrix}
4 \\ 2
\end{pmatrix}$$

Por lo tanto, la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
-1 \\ 2
\end{pmatrix} + c_{2}e^{5t} \begin{pmatrix}
4 \\ 2
\end{pmatrix}$$

O bien,

\begin{align*}
x(t) &= -c_{1} + 4c_{2}e^{5t} \\
y(t) &= 2c_{1} + 2c_{2}e^{5t}
\end{align*}

La recta que contiene a los puntos de equilibrio es aquella línea definida por el vector propio $\mathbf{K}_{1}$, es decir, si en la solución general hacemos $c_{2} = 0$, entonces obtenemos la solución

\begin{align*}
x(t) &= -c_{1} \\
y(t) &= 2c_{1}
\end{align*}

De donde obtenemos la función $y(x) = -2x$, todos los puntos de esta recta son puntos de equilibrio.

La función vectorial $F(x, y)$ en este caso es

$$F(x, y) = (4x + 2y, 2x + y)$$

Prueba que efectivamente si $y = -2x$, entonces $F(x, y) = (0, 0)$.

Por otro lado, de la solución general vemos que

$$\lim_{t \to -\infty} x(t) = -c_{1} \hspace{1cm} y \hspace{1cm} \lim_{t \to -\infty} y(t) = 2c_{1}$$

Y $x(t)$ y $y(t)$ divergen si $t \rightarrow \infty$, esto nos indica que las trayectorias se alejan de los puntos de equilibrio $c_{1} \mathbf{K}_{1}$ por cada valor de $c_{1}$ y lo hacen de forma paralela al vector propio $\mathbf{K}_{2}$.

El plano fase del sistema es el siguiente.

Plano fase del sistema.

La función vectorial que define al campo vectorial asociado es

$$F(x, y) = (4x + 2y, 2x + y)$$

El campo vectorial y algunas trayectorias se muestran en la siguiente figura.

Trayectorias y campo vectorial.

$\square$

Concluyamos con el caso especial en el que ambos valores propios son cero.

Caso 3: $\lambda_{1} = \lambda_{2} = 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ 0 & 0
\end{pmatrix} \mathbf{Y}$$

Solución: Antes de comenzar a desarrollar el método notemos que se trata de un sistema muy sencillo, la ecuación de $y^{\prime}$ es

$$\dfrac{dy}{dt} = 0$$

Es claro que la solución es cualquier constante $C_{1}$, es decir $y(t) = C_{1}$, si sustituimos en la ecuación para $x^{\prime}$, tenemos

$$\dfrac{dx}{dt} = 2C_{1}$$

Resolviendo esta ecuación obtenemos la función

$$x(t) = 2C_{1}t + C_{2}$$

Por tanto, la solución general del sistema es

\begin{align*}
x(t) &= 2C_{1}t + C_{2} \\
y(t) &= C_{1}
\end{align*}

Vemos que sólo la función $x(t)$ depende de $t$, mientras que $y(t)$ es una constante.

Esto lo hacemos debido a que el sistema es bastante sencillo. Sin embargo, a continuación haremos el desarrollo hecho en la entrada anterior ya que, como veremos, los valores propios serán repetidos y nulos. Dichos valores propios los obtenemos de la siguiente ecuación característica.

$$\begin{vmatrix}
0 -\lambda & 2 \\ 0 & 0 -\lambda
\end{vmatrix} = \lambda^{2} = 0$$

La única raíz es $\lambda = 0$, es decir, cero es el único valor propio con multiplicidad $2$.

Para determinar el vector propio resolvemos el siguiente sistema.

$$\mathbf{AK} = \begin{pmatrix}
0 & 2 \\ 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix}$$

Este sistema nos indica que $2k_{2} = 0$, es decir, $k_{2} = 0$ y que $k_{1}$ puede tomar cualquier valor en $\mathbb{R}$. Tomemos $k_{1} = 1$, tal que el primer vector propio sea

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0
\end{pmatrix}$$

Buscamos ahora un vector propio generalizado.

$$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} = \begin{pmatrix}
0 & 2 \\ 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 2 \\ 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 & 0 \\ 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Debido a que cualquier vector $\mathbf{K}$, tal que

$$\mathbf{AK} \neq \mathbf{0}$$

es un vector propio generalizado, elegimos el vector ortogonal

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

Por lo tanto, la solución general es

\begin{align*}
\mathbf{Y}(t) &= c_{1} \begin{pmatrix}
1 \\ 0
\end{pmatrix} + c_{2} \left[ \begin{pmatrix}
1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
0 & 2 \\ 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 1
\end{pmatrix} \right] \\
&= c_{1} \begin{pmatrix}
1 \\ 0
\end{pmatrix} + c_{2} \left[ \begin{pmatrix}
0 \\ 1
\end{pmatrix} + t
\begin{pmatrix}
2 \\ 0
\end{pmatrix} \right] \\
&= c_{1} \begin{pmatrix}
1 \\ 0
\end{pmatrix} + c_{2} \left[ \begin{pmatrix}
0 \\ 1
\end{pmatrix} + 2t
\begin{pmatrix}
1 \\ 0
\end{pmatrix} \right]
\end{align*}

Solución que podemos escribir como

\begin{align*}
x(t) &= c_{1} + 2c_{2}t \\
y(t) &= c_{2}
\end{align*}

Esta solución es la misma que encontramos antes. Debido a que $x(t)$ depende de $t$ linealmente, entonces por cada valor de $y(t)$, es decir de $c_{2}$, $x(t)$ tomará todos los valores en $\mathbb{R}$. Esto significa que en el plano fase las trayectorias serán rectas paralelas al eje $X$.

Verifica que los puntos de equilibrio del sistema corresponden al eje $X$ del plano fase.

Notemos que si $y(x) > 0$, o bien, $c_{2} > 0$, entonces

$$\lim_{t \to \infty} x(t) = \infty$$

y si $y(x) < 0$, o bien, $c_{2} < 0$, entonces

$$\lim_{t \to \infty} x(t) = -\infty$$

De manera que para $y > 0$ las trayectorias se moverán hacía la derecha y lo harán en sentido opuesto si $y < 0$. El plano fase es el siguiente.

Plano fase del sistema.

La función que define al campo vectorial es

$$F(x, y) = (2y, 0)$$

En la siguiente figura se muestra el campo vectorial asociado y algunas trayectorias.

Trayectorias y campo vectorial.

$\square$

Hemos concluido con el estudio de los sistemas lineales.

Más adelante comenzaremos a estudiar sistemas no lineales, al menos desde una perspectiva cualitativa, y veremos que mucho de los que vimos en los casos lineales nos será de ayuda ya que los planos fase de los sistemas no lineales en la vecindad de un punto de equilibrio son, con frecuencia, muy similares a los planos fase de sistemas lineales, así que veremos esta conexión entre ambos sistemas.

Pero antes de estudiar a los sistemas no lineales dedicaremos la siguiente entrada en hacer un repaso de lo visto en las últimas 4 entradas y resumirlo en lo que se conoce como el plano traza – determinante, ya que seguramente en este punto podría parecernos que hay muchas posibilidades diferentes para los sistemas lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales y hacer un análisis cualitativo de las soluciones.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 4 \\ 3 & 6
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 1 \\ 3 & -1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & -3 \\ 0 & 0
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & 6 \\ -1 & -2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 4 \\ 1/2 & -2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 0 \\ 5 & 0
    \end{pmatrix} \mathbf{Y}$

Más adelante…

Hemos concluido con el análisis analítico y cualitativo de los sistemas lineales homogéneos compuestos por dos ecuaciones diferenciales del primer orden. Para tener todo en perspectiva, en la siguiente entrada haremos un breve repaso de todo lo visto con respecto a estos sistemas y resumiremos todo en un plano especial conocido como el plano traza – determinante.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Teoría cualitativa de los sistemas lineales homogéneos – Valores propios repetidos

Por Omar González Franco

En mi opinión, todas las cosas en la naturaleza ocurren matemáticamente.
– Descartes

Introducción

Continuaremos con nuestro estudio cualitativo de los sistemas lineales homogéneos compuestos por dos ecuaciones diferenciales de primer orden con coeficientes constantes.

\begin{align*}
x^{\prime} &= ax + by \\
y^{\prime} &= cx + dy \label{1} \tag{1}
\end{align*}

Este sistema lo podemos escribir como

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

en donde

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime} \\ y^{\prime}
\end{pmatrix}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
x \\ y
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix}$$

En esta entrada analizaremos el caso en el que los vectores propios de $\mathbf{A}$ son repetidos.

El caso $\lambda_{1} = \lambda_{2} = 0$ lo revisaremos en la siguiente entrada cuando veamos que ocurre si uno o ambos de los valores propios son nulos.

Los casos que estudiaremos son

  • $\lambda_{1} = \lambda_{2} < 0$
  • $\lambda_{1} = \lambda_{2} > 0$

Sin embargo se presentan dos situaciones distintas en este caso.

Recordemos que cuando estudiamos este caso en la unidad anterior se presentaba el problema de que podían faltarnos soluciones linealmente independientes que nos permitieran determinar la solución general del sistema. Por ejemplo, si el sistema está compuesto por $n$ ecuaciones diferenciales de primer orden, entonces debemos encontrar $n$ soluciones linealmente independientes para poder formar la solución general, sin embargo, si algunos valores propios resultan ser repetidos, entonces sólo obtendremos $k$ soluciones linealmente independientes, una por cada valor propio distinto, y nos faltarán encontrar $n -k$ soluciones para formar la solución general. Los conceptos de exponencial de una matriz y de vector propio generalizado resultaron útiles para resolver este problema.

En este caso estamos estudiando un sistema con dos ecuaciones diferenciales lo que vuelve al problema anterior relativamente más sencillo, pues habrá ocasiones en los que es posible determinar dos vectores propios de $\mathbf{A}$ linealmente independientes asociados al mismo valor propio $\lambda$, pero en otras ocasiones sólo habrá un vector propio asociado al único valor propio $\lambda$, así que tendremos que encontrar un vector propio generalizado. Por supuesto, cada caso tendrá efectos muy distintos en el plano fase del sistema.

Estudiemos cada situación y hagamos un análisis cualitativo para cada caso.

Sistemas con vectores propios arbitrarios

Consideremos la matriz

$$\mathbf{A} = \begin{pmatrix}
\lambda & 0 \\ 0 & \lambda
\end{pmatrix} \label{3} \tag{3}$$

con $\lambda$ una constante.

Notemos lo siguiente.

$$\mathbf{AK} = \begin{pmatrix}
\lambda & 0 \\ 0 & \lambda
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
\lambda k_{1} \\ \lambda k_{2}
\end{pmatrix} = \lambda \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \lambda \mathbf{K}$$

Hemos obtenido que

$$\mathbf{AK} = \lambda \mathbf{K} \label{4} \tag{4}$$

Es decir, $\lambda$ es el valor propio de $\mathbf{A}$.

Intentemos determinar los vectores propios de $\mathbf{A}$.

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \begin{pmatrix}
\lambda -\lambda & 0 \\ 0 & \lambda -\lambda
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 & 0 \\ 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Vemos que cualquier vector

$$\mathbf{K} = \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} \label{5} \tag{5}$$

es vector propio de $\mathbf{A}$.

Supongamos que la matriz (\ref{3}) es la matriz de coeficientes de un sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
\lambda & 0 \\ 0 & \lambda
\end{pmatrix} \mathbf{Y} \label{6} \tag{6}$$

Considerando los resultados anteriores podemos establecer que su solución general es de la forma

$$\mathbf{Y}(t) = c_{1}e^{\lambda t} \mathbf{K}_{1} + c_{2}e^{\lambda t} \mathbf{K}_{2} \label{7} \tag{7}$$

En donde $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ son vectores propios de $\mathbf{A}$ linealmente independientes. Como vimos, estos vectores pueden ser arbitrarios, así que podemos elegir los vectores canónicos

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

De esta forma, la solución general del sistema (\ref{6}) es

$$\mathbf{Y}(t) = c_{1} e^{\lambda t} \begin{pmatrix}
1 \\ 0
\end{pmatrix} + c_{2} e^{\lambda t} \begin{pmatrix}
0 \\ 1
\end{pmatrix} \label{8} \tag{8}$$

Si dejamos de usar la notación matricial y escribimos las funciones $x(t)$ y $y(t)$, tenemos

\begin{align*}
x(t) &= c_{1} e^{\lambda t} \\
y(t) &= c_{2} e^{\lambda t} \label{9} \tag{9}
\end{align*}

Observemos que

$$\dfrac{y}{x} = \dfrac{c_{2}}{c_{1}}$$

es decir,

$$y(x) = Cx \label{10} \tag{10}$$

Con $C$ una constante. Esta función en el plano $XY$ o plano fase corresponde a infinitas rectas, una por cada posible valor de la constante $C$.

Plano fase de un sistema con vectores propios arbitrarios.

Este caso corresponde a una situación de las dos que pueden ocurrir. Aún nos falta determinar el sentido de las trayectorias en el plano fase, éste será determinado por el signo de los valores propios.

A continuación haremos un análisis más detallado sobre los casos que se pueden presentar.

Sistemas lineales con valores propios negativos repetidos

Caso 1a: $\lambda_{1} = \lambda_{2} = \lambda < 0$ y dos vectores linealmente independientes.

Este caso corresponde al visto anteriormente.

Supongamos que la matriz $\mathbf{A}$ del sistema (\ref{1}) tiene dos vectores propios linealmente independientes $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ con valor propio $\lambda < 0$. En este caso la solución general del sistema (\ref{1}) se puede expresar como

$$\mathbf{Y}(t) = c_{1}e^{\lambda t}\mathbf{K}_{1} + c_{2}e^{\lambda t} \mathbf{K}_{2} = e^{\lambda t} (c_{1} \mathbf{K}_{1} + c_{2} \mathbf{K}_{2}) \label{11} \tag{11}$$

Observemos que el vector $e^{\lambda t} (c_{1} \mathbf{K}_{1} + c_{2} \mathbf{K}_{2})$ es paralelo al vector $(c_{1} \mathbf{K}_{1} + c_{2} \mathbf{K}_{2})$ para toda $t$. Por lo tanto, la trayectoria de cualquier solución $\mathbf{Y}(t)$ de (\ref{1}) es una semirrecta en el plano fase.

Como $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ son linealmente independientes, el conjunto de vectores $\left \{ c_{1} \mathbf{K}_{1} + c_{2} \mathbf{K}_{2} \right \}$, para todas las elecciones de $c_{1}$ y $c_{2}$, cubren cualquier dirección en el plano $XY$.

El plano fase con estas características es el siguiente.

Plano fase para valores propios negativos repetidos y dos vectores propios linealmente independientes.

El sentido de las trayectorias es hacia el origen debido a que si $t \rightarrow \infty$, entonces $e^{\lambda t} \rightarrow 0$ ya que $\lambda < 0$.

Se dice que el punto de equilibrio $Y_{0} = (0, 0)$ es un atractor y es asintóticamente estable.

Caso 1b: $\lambda_{1} = \lambda_{2} = \lambda < 0$ y sólo un vector linealmente independiente.

Este caso resulta ser más interesante. Supongamos que $\mathbf{A}$ tiene solamente un vector propio $\mathbf{K}$ linealmente independiente, con valor propio $\lambda$. La solución de (\ref{1}) en este caso es

$$\mathbf{Y}_{1}(t) = e^{\lambda t} \mathbf{K} \label{12} \tag{12}$$

Para encontrar una segunda solución de (\ref{1}) que sea linealmente independiente de $\mathbf{Y}_{1}$ buscamos un vector $\hat{\mathbf{K}}$, tal que se cumpla simultáneamente

$$(\mathbf{A} -\lambda \mathbf{I})^{2} \hat{\mathbf{K}} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \hat{\mathbf{K}} \neq \mathbf{0} \label{13} \tag{13}$$

Es decir, $\hat{\mathbf{K}}$ es un vector propio generalizado y sabemos que una segunda solución de (\ref{1}) es de la forma

$$\mathbf{Y}_{2}(t) = e^{\lambda t} \left[ \hat{\mathbf{K}} + t(\mathbf{A} -\lambda \mathbf{I}) \hat{\mathbf{K}} \right] \label{14} \tag{14}$$

De modo que la solución general del sistema (\ref{1}), en este caso, es

$$\mathbf{Y}(t) = c_{1} e^{\lambda t} \mathbf{K} + c_{2} e^{\lambda t} \left[ \hat{\mathbf{K}} + t(\mathbf{A} -\lambda \mathbf{I}) \hat{\mathbf{K}} \right] \label{15} \tag{15}$$

para alguna elección de constantes $c_{1}$ y $c_{2}$.

Esta ecuación puede simplificarse observando que $(\mathbf{A} -\lambda \mathbf{I}) \hat{\mathbf{K}}$ debe ser un múltiplo $k$ de $\mathbf{K}$. Esto se sigue inmediatamente de la ecuación

$$(\mathbf{A} -\lambda \mathbf{I}) \left[ (\mathbf{A} -\lambda \mathbf{I}) \hat{\mathbf{K}} \right ] = \mathbf{0} \label{16} \tag{16}$$

y el hecho de que $\mathbf{A}$ sólo tiene un vector propio $\mathbf{K}$ linealmente independiente.

Entonces, la solución (\ref{15}) puede escribirse como

$$\mathbf{Y}(t) = c_{1} e^{\lambda t} \mathbf{K} + c_{2} e^{\lambda t}(\hat{\mathbf{K}} + tk \mathbf{K}) = e^{\lambda t}(c_{1} \mathbf{K} + c_{2} \hat{\mathbf{K}} + c_{2} tk \mathbf{K}) \label{17} \tag{17}$$

Observemos que toda solución de (\ref{1}) de la forma (\ref{17}) tiende a $(0, 0)$ cuando $t$ tiende a infinito. Además, notemos que $c_{1} \mathbf{K} + c_{2} \hat{\mathbf{K}}$ es muy pequeño comparado con $c_{2} tk \mathbf{K}$ si $c_{2}$ es diferente de cero y $t$ es muy grande. Por lo tanto, la tangente a la trayectoria de $\mathbf{Y}(t)$ tiende a $\pm \mathbf{K}$, dependiendo del signo de $c_{2}$, cuando $t$ tiende a infinito.

El plano fase con estas características es el siguiente.

Plano fase para valores propios negativos repetidos y sólo un vector propio linealmente independiente.

Nuevamente decimos que el punto de equilibrio $Y_{0} = (0, 0)$ es un atractor y es asintóticamente estable ya que todas las trayectorias tienden a él.

Ambas situaciones también se presentan cuando $\lambda > 0$.

Sistemas lineales con valores propios positivos repetidos

Caso 2a: $\lambda_{1} = \lambda_{2} = \lambda > 0$ y dos vectores linealmente independientes.

Sean $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ los dos vectores linealmente independientes de la matriz de coeficientes $\mathbf{A}$ asociados al único valor propio $\lambda$. Nuevamente la solución general de (\ref{1}) será

$$\mathbf{Y}(t) = c_{1}e^{\lambda t}\mathbf{K}_{1} + c_{2}e^{\lambda t} \mathbf{K}_{2} = e^{\lambda t} (c_{1} \mathbf{K}_{1} + c_{2} \mathbf{K}_{2})$$

El análisis es exactamente el mismo que en el caso 1a, sin embargo, como $\lambda > 0$, entonces $e^{\lambda t} \rightarrow \infty$ conforme $t \rightarrow \infty$. Por lo tanto, el plano fase para este caso es exactamente el mismo que el del caso 1a con la excepción de que el sentido de las flechas es el opuesto.

Plano fase para valores propios positivos repetidos y dos vectores propios linealmente independientes.

En este caso se dice que el punto de equilibrio $Y_{0} = (0, 0)$ es un repulsor, por lo tanto inestable.

Concluyamos con el último caso.

Caso 2b: $\lambda_{1} = \lambda_{2} = \lambda > 0$ y sólo un vector linealmente independiente.

Sea $\mathbf{K}$ el único vector propio de $\mathbf{A}$ asociado al valor propio $\lambda$. Y sea $\hat{\mathbf{K}}$ un vector propio generalizado de $\mathbf{A}$. La solución general del sistema lineal (\ref{1}) es

$$\mathbf{Y}(t) = c_{1} e^{\lambda t} \mathbf{K} + c_{2} e^{\lambda t} \left[ \hat{\mathbf{K}} + t(\mathbf{A} -\lambda \mathbf{I}) \hat{\mathbf{K}} \right]$$

Vimos anteriormente que esta solución puede escribirse como

$$\mathbf{Y}(t) = e^{\lambda t}(c_{1} \mathbf{K} + c_{2} \hat{\mathbf{K}} + c_{3} t \mathbf{K})$$

En este caso las trayectorias son exactamente las mismas que en el caso 2a por el mismo análisis, sin embargo la dirección de las flechas es el opuesto debido a que $\lambda > 0$.

El plano fase es el siguiente.

Plano fase para valores propios positivos repetidos y sólo un vector propio linealmente independiente.

El punto de equilibrio $Y_{0} = (0, 0)$ es un repulsor e inestable.

Concluyamos esta entrada realizando un ejemplo por cada caso.

Comencemos con un ejemplo del caso 1a y 2a.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-5 & 0 \\ 0 & -5
\end{pmatrix} \mathbf{Y}$$

Solución: Nuestro ejemplo corresponde a un sistema lineal de la forma (\ref{6}), de manera que el único valor propio es $\lambda = -5$. Sólo para verificarlo veamos que

$$\begin{vmatrix}
-5 -\lambda & 0 \\ 0 & -5 -\lambda
\end{vmatrix} = (-5 -\lambda)^{2} = 0$$

La única raíz es $\lambda = -5$, es decir, hay un valor propio con multiplicidad $2$.

Cualquier par de vectores linealmente independientes son vectores propios de la matriz de coeficientes. Elegimos los vectores canónicos.

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

Por lo tanto, la solución general es

$$\mathbf{Y}(t) = c_{1}e^{-5t} \begin{pmatrix}
1 \\ 0
\end{pmatrix} + c_{2}e^{-5t} \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

Las solución la podemos escribir como

\begin{align*}
x(t) &= c_{1}e^{-5t} \\
y(t) &= c_{2}e^{-5t}
\end{align*}

Notemos que si $t \rightarrow \infty$, entonces $(x, y) \rightarrow (0, 0)$, lo que nos indica que las semirrectas correspondientes a las soluciones del sistema tienden al punto de equilibrio $Y_{0} = (0, 0)$, esto convierte a dicho punto en un atractor.

El plano fase, indicando algunas trayectorias y los vectores propios, se muestra a continuación.

Plano fase del sistema.

La función vectorial que define al campo vectorial es

$$F(x, y) = (-5x, -5y)$$

En la siguiente figura se muestra el campo vectorial y algunas trayectorias correspondientes a soluciones particulares del sistema.

Trayectorias y campo vactorial.

$\square$

Si modificamos el sistema del ejemplo anterior por

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
5 & 0 \\ 0 & 5
\end{pmatrix}\mathbf{Y}$$

Entonces, la solución general será

$$\mathbf{Y}(t) = c_{1}e^{5t} \begin{pmatrix}
1 \\ 0
\end{pmatrix} + c_{2}e^{5t} \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

O bien,

\begin{align*}
x(t) &= c_{1}e^{5t} \\
y(t) &= c_{2}e^{5t}
\end{align*}

En este caso $x(t)$ y $y(t)$ tienden a infinito conforme $t$ también lo hace. Las trayectorias corresponden a semirrectas que parten del origen hacia infinito, por tanto, $Y_{0} = (0, 0)$ es un repulsor.

El plano fase es el siguiente.

Plano fase del sistema.

$\square$

Ahora veamos un ejemplo para el caso 1b y uno para el caso 2b, es decir, en la situación en la que sólo tenemos un único vector propio.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & -1 \\ 1 & 3
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
1 -\lambda & -1 \\ 1 & 3 -\lambda
\end{vmatrix} = \lambda^{2} -4 \lambda + 4 = (\lambda -2)^{2} = 0$$

El valor propio con multiplicidad $2$ es $\lambda = 2$. Determinemos un vector propio resolviendo la siguiente ecuación.

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
-1 & -1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Del sistema obtenemos que $k_{1} = -k_{2}$. Sea $k_{1} = 1$, entonces $k_{2} = -1$. Por lo tanto, el vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ -1
\end{pmatrix}$$

Determinemos ahora un vector propio generalizado resolviendo la siguiente ecuación.

$$(\mathbf{A} -2 \mathbf{I})^{2} \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
-1 & -1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
-1 & -1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 & 0 \\ 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Esta ecuación se cumple para cualquier vector que no sea vector propio, es decir, que cumpla que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} \neq \mathbf{0}$$

Como el único vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ -1
\end{pmatrix}$$

Elegimos el vector ortogonal

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Notemos que se cumple

$$\begin{pmatrix}
1 \\ 1
\end{pmatrix} = c \begin{pmatrix}
1 \\ -1
\end{pmatrix}$$

sólo si $c = 0$, así que ambos vectores $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ son linealmente independientes.

La solución general del sistema tiene la siguiente forma.

$$\mathbf{Y}(t) = c_{1} e^{\lambda t} \mathbf{K}_{1} + c_{2} e^{\lambda t} \left[ \mathbf{K}_{2} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K}_{2} \right]$$

Sustituyendo, se tiene

\begin{align*}
\mathbf{Y}(t) &= c_{1}e^{2t} \begin{pmatrix}
1 \\ -1
\end{pmatrix} + c_{2}e^{2t} \left[ \begin{pmatrix}
1 \\ 1
\end{pmatrix} + t \begin{pmatrix}
-1 & -1 \\ 1
& 1
\end{pmatrix} \begin{pmatrix}
1 \\ 1
\end{pmatrix} \right] \\
&= c_{1}e^{2t} \begin{pmatrix}
1 \\ -1
\end{pmatrix} + c_{2}e^{2t} \left[ \begin{pmatrix}
1 \\ 1
\end{pmatrix} + t \begin{pmatrix}
-2 \\ 2
\end{pmatrix} \right] \\
&= c_{1}e^{2t} \begin{pmatrix}
1 \\ -1
\end{pmatrix} + c_{2}e^{2t} \left[ \begin{pmatrix}
1 \\ 1
\end{pmatrix} + 2t \begin{pmatrix}
-1 \\ 1
\end{pmatrix} \right]
\end{align*}

La solución general del sistema es

$$\mathbf{Y}(t) = c_{1}e^{2t} \begin{pmatrix}
1 \\ -1
\end{pmatrix} + c_{2}e^{2t} \left[ \begin{pmatrix}
1 \\ 1
\end{pmatrix} -2t \begin{pmatrix}
1 \\ -1
\end{pmatrix} \right]$$

Observemos que, tal como lo mostramos en la teoría (\ref{17}), esta solución es de la forma

$$\mathbf{Y}(t) = c_{1} e^{\lambda t} \mathbf{K}_{1} + c_{2} e^{\lambda t}(\mathbf{K}_{2} + tk \mathbf{K}_{1})$$

Las funciones $x(t)$ y $y(t)$ son

\begin{align*}
x(t) &= c_{1}e^{2t} + c_{2}e^{2t}(1 -2t) \\
y(t) &= -c_{1}e^{2t} + c_{2}e^{2t}(1+ 2t)
\end{align*}

Muestra explícitamente que

$$\lim_{t \to -\infty} x(t) = \lim_{t \to -\infty} y(t) = 0$$

Mientras que

$$\lim_{t \to \infty} x(t) = \lim_{t \to \infty} y(t) = \infty$$

Esto nos indica que las trayectorias parten del origen y se extienden por todo el plano infinitamente.

A continuación se muestra el correspondiente plano fase del sistema indicando algunas trayectorias y al único vector propio de la matriz $\mathbf{A}$.

Plano fase del sistema.

El punto de equilibrio $Y_{0} = (0, 0)$ es un repulsor.

El campo vectorial asociado lo obtenemos de la función vectorial

$$F(x, y) = (x -y,x +3y)$$

El campo vectorial y algunas trayectoria del sistema se visualizan en la siguiente figura.

Trayectorias y campo vectorial.

$\square$

Realicemos un último ejemplo.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-3/2 & 1 \\ -1/4 & -1/2
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
-3/2 -\lambda & 1 \\ -1/4 & -1/2 -\lambda
\end{vmatrix} = \lambda^{2} + 2 \lambda + 1 = (\lambda + 1)^{2} = 0$$

El valor propio es $\lambda = -1$ con multiplicidad $2$. Determinemos un vector propio resolviendo la siguiente ecuación.

$$(\mathbf{A} + \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
-1/2 & 1 \\ -1/4 & 1/2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Del sistema obtenemos que $k_{2} = \dfrac{1}{2}k_{1}$. Sea $k_{1} = 2$, entonces $k_{2} = 1$. Por lo tanto, el vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Determinemos un vector propio generalizado resolviendo la siguiente ecuación.

$$(\mathbf{A} -\mathbf{I})^{2} \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
-1/2 & 1 \\ -1/4 & 1/2
\end{pmatrix} \begin{pmatrix}
-1/2 & 1 \\ -1/4 & 1/2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 & 0 \\ 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Nuevamente podemos elegir cualquier vector arbitrario que no sea vector propio, es decir, que cumpla que

$$(\mathbf{A} + \mathbf{I}) \mathbf{K} \neq \mathbf{0}$$

Elegimos el vector

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 2
\end{pmatrix}$$

La ecuación

$$\begin{pmatrix}
0 \\ 2
\end{pmatrix} = c \begin{pmatrix}
2 \\ 1
\end{pmatrix} $$

se cumple sólo si $c = 0$, por lo tanto $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ son linealmente independientes.

Sabemos que la solución general es de la forma

$$\mathbf{Y}(t) = c_{1} e^{\lambda t} \mathbf{K}_{1} + c_{2} e^{\lambda t} \left[ \mathbf{K}_{2} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K}_{2} \right]$$

Sustituyendo, se tiene

\begin{align*}
\mathbf{Y}(t) &= c_{1}e^{-t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2}e^{-t} \left[ \begin{pmatrix}
0 \\ 2
\end{pmatrix} + t \begin{pmatrix}
-1/2 & 1 \\ -1/4 & 1/2
\end{pmatrix} \begin{pmatrix}
0 \\ 2
\end{pmatrix} \right] \\
&= c_{1}e^{ -t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2}e^{ -t} \left [ \begin{pmatrix}
0 \\ 2
\end{pmatrix} + t \begin{pmatrix}
2 \\ 1
\end{pmatrix} \right]
\end{align*}

Esta solución la podemos escribir como

\begin{align*}
x(t) &= 2c_{1}e^{-t} + 2c_{2}te^{-t} \\
y(t) &= c_{1}e^{-t} + c_{2}e^{-t}(2 + t)
\end{align*}

En este caso nos interesa el caso límite $t \rightarrow \infty$. Muestra explícitamente que

$$\lim_{t \to \infty} x(t) = \lim_{t \to \infty} y(t) = 0$$

Este resultado nos indica que las trayectorias del sistema tienden al origen. Para valores grandes de $t$ las funciones $x(t)$ y $y(t)$ se pueden aproximar por

\begin{align*}
x(t) &\approx 2c_{2}te^{-t} \\
y(t) &\approx c_{2}te^{-t}
\end{align*}

Es decir, la tangente de las trayectorias tienden hacia la recta paralela al vector propio $\mathbf{K}_{1}$, esto lo podemos ver si escribimos a $y$ en función de $x$, dicha función es

$$y(x) \approx \dfrac{x}{2}$$

El plano fase, indicando algunas trayectorias y al único vector propio, se muestra a continuación.

Plano fase del sistema.

El punto de equilibrio $Y_{0} = (0, 0)$ es un atractor.

El campo vectorial lo obtenemos de la función vectorial

$$F(x, y) = \left( -\dfrac{3}{2}x + y, -\dfrac{1}{4}x -\dfrac{1}{2}y \right)$$

Dicho campo y algunas trayectorias se muestran a continuación.

Trayectorias y campo vectorial.

$\square$

Hemos concluido con el caso en el que los valores propios son repetidos. Para concluir con esta sección, en la siguiente entrada revisaremos el último caso en el que puede haber valores propios nulos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales y hacer un análisis cualitativo de las soluciones.
  • $\mathbf{Y}^{\prime} \begin{pmatrix}
    -5 & 0 \\ 0 & -5
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} \begin{pmatrix}
    3 & -4 \\ 1 & -1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} \begin{pmatrix}
    -3 & 5/2 \\ -5/2 & 2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} \begin{pmatrix}
    200 & 0 \\ 0 & 200
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} \begin{pmatrix}
    5/4 & 3/4 \\ -3/4 & -1/4
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} \begin{pmatrix}
    1 & -4 \\ 4 & -7
    \end{pmatrix} \mathbf{Y}$

Más adelante…

Estamos por concluir con el estudio cualitativo de los sistemas lineales homogéneos compuestos por dos ecuaciones diferenciales de primer orden con coeficientes constantes. En la siguiente entrada revisaremos el último caso en el que uno o ambos valores propios son nulos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Teoría cualitativa de los sistemas lineales homogéneos – Valores propios complejos

Por Omar González Franco

Las matemáticas es una ciencia que dibuja conclusiones necesarias.
– Benjamin Peirce

Introducción

En la entrada anterior estudiamos los sistemas lineales en los que los valores propios de la matriz $\mathbf{A}$ eran reales y distintos, en esta entrada estudiaremos sistemas lineales en los que los valores propios son complejos.

Antes de comenzar con el desarrollo cualitativo es conveniente recordar algunos resultados importantes de estos sistemas.

Sistemas lineales con valores propios complejos

El sistema que estamos analizando es

\begin{align*}
x^{\prime} &= ax + by \\
y^{\prime} &= cx + dy \label{1} \tag{1}
\end{align*}

Definimos,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime} \\ y^{\prime}
\end{pmatrix}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
x \\ y
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix}$$

De manera que el sistema (\ref{1}) se pueda escribir como

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

Sea

$$\lambda = \alpha + i \beta \label{3} \tag{3}$$

un valor propio de la matriz $\mathbf{A}$, con $\alpha$ y $\beta$ reales. Y sea

$$\mathbf{K} = \mathbf{U} + i \mathbf{V} \label{4} \tag{4}$$

un vector propio de $\mathbf{A}$ asociado a $\lambda$. Entonces la solución del sistema (\ref{1}) se puede escribir como

$$\mathbf{Y}(t) = (\mathbf{U} + i \mathbf{V}) e^{(\alpha + i \beta)t} \label{5} \tag{5}$$

En la unidad anterior vimos que si definimos los vectores

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

donde $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ están dados como

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] \label{6} \tag{6}$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{7} \tag{7}$$

entonces la solución general real del sistema (\ref{1}) es

$$\mathbf{Y}(t) = c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) \label{8} \tag{8}$$

Por lo tanto, las soluciones linealmente independientes son

$$\mathbf{Y}_{1}(t) = c_{1} e^{\alpha t} \left[ \mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t) \right] \label{9} \tag{9}$$

y

$$\mathbf{Y}_{2}(t) = c_{2} e^{\alpha t} \left[ \mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t) \right] \label{10} \tag{10}$$

La expresión $k_{1} \cos(\beta t) + k_{2} \sin(\beta t)$, donde $k_{1}$ y $k_{2}$ son constantes, se puede expresar en la forma $R \cos(\beta t -\delta)$ para una elección adecuada de constantes $R$ y $\delta$. De tarea moral demuestra que la solución (\ref{8}) se puede expresar de la siguiente forma.

$$\mathbf{Y}(t) = e^{\alpha t} \begin{pmatrix}
R_{1} \cos(\beta t -\delta_{1}) \\ R_{2} \cos(\beta t -\delta_{2})
\end{pmatrix} \label{11} \tag{11}$$

para alguna elección de constantes $R_{1} \geq 0$, $R_{2} \geq 0$, $\delta_{1}$ y $\delta_{2}$.

Con esto en mente pasemos a estudiar cada caso en el que los valores propios son complejos.

Valores propios complejos con parte real nula

Caso 1: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha = 0$.

En este caso se dice que los valores propios son imaginarios puros ya que no tienen parte real. De la solución (\ref{11}) vemos que si $\alpha = 0$, entonces la expresión se reduce a

$$\mathbf{Y}(t) = \begin{pmatrix}
R_{1} \cos(\beta t -\delta_{1}) \\ R_{2} \cos(\beta t -\delta_{2})
\end{pmatrix} \label{12} \tag{12}$$

Las soluciones $x(t)$ y $y(t)$ son

$$x(t) = R_{1} \cos(\beta t -\delta_{1}) \hspace{1cm} y \hspace{1cm} y(t) = R_{2} \cos(\beta t -\delta_{2}) \label{13} \tag{13}$$

Estas funciones son periódicas en el tiempo, con periodo $2 \pi / \beta$. Como $|\cos(\beta t -\delta_{1})| \leq 1$ y $|\cos(\beta t -\delta_{2})| \leq 1$, entonces la función $x(t)$ varia entre $-R_{1}$ y $+R_{1}$, mientras que $y(t)$ varia entre $-R_{2}$ y $+R_{2}$. Por tanto, la trayectoria de cualquier solución $\mathbf{Y}(t)$ de (\ref{1}) es una curva cerrada que rodea al origen $x = y = 0$, es por ello que se dice que el punto de equilibrio $Y_{0} = (0, 0)$ es un centro y es estable.

A continuación se muestra el plano fase.

Plano fase con parte real nula.

La dirección de las trayectorias se determina a partir del sistema (\ref{1}). Buscamos el signo de $y^{\prime}$ cuando $y = 0$. Si $y^{\prime}$ es mayor que cero para $y = 0$ y $x > 0$, entonces todas las trayectorias se mueven en sentido contrario a las manecillas del reloj. Si $y^{\prime}$ es menor que cero para $y = 0$ y $x > 0$, entonces todas las trayectorias se mueven en el sentido de las manecillas del reloj.

Ahora estudiemos los casos en los que los valores propios tienen parte real no nula.

Valores propios complejos con parte real negativa

Caso 2: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha < 0$.

En este caso las soluciones son

$$\mathbf{Y}(t) = e^{\alpha t} \begin{pmatrix}
R_{1} \cos(\beta t -\delta_{1}) \\ R_{2} \cos(\beta t -\delta_{2})
\end{pmatrix}$$

o bien,

$$x(t) = e^{\alpha t} R_{1} \cos(\beta t -\delta_{1}) \hspace{1cm} y \hspace{1cm} y(t) = e^{\alpha t} R_{2} \cos(\beta t -\delta_{2}) \label{14} \tag{14}$$

Si $t = 0$, se obtiene que

$$\mathbf{Y}(0) = \begin{pmatrix}
R_{1} \cos(-\delta_{1}) \\ R_{2} \cos(-\delta_{2})
\end{pmatrix} \label{15} \tag{15}$$

Sabemos que el periodo es $2 \pi / \beta$, notemos que si $t = 2 \pi / \beta$, entonces

$$\mathbf{Y}(2 \pi / \beta) = e^{2 \pi \alpha / \beta} \begin{pmatrix}
R_{1} \cos(2 \pi -\delta_{1}) \\ R_{2} \cos(2 \pi -\delta_{2})
\end{pmatrix} = e^{2 \pi \alpha / \beta} \begin{pmatrix}
R_{1} \cos(-\delta_{1}) \\ R_{2} \cos(-\delta_{2})
\end{pmatrix}$$

esto es,

$$\mathbf{Y}(2 \pi / \beta) = e^{2 \pi \alpha / \beta } \mathbf{Y}(0) \label{16} \tag{16}$$

Como

$$\mathbf{Y}(2 \pi / \beta) < \mathbf{Y}(0)$$

es decir,

$$x(2 \pi / \beta) < x(0) \hspace{1cm} y \hspace{1cm} y( 2 \pi / \beta) < y(0)$$

entonces $\mathbf{Y}(2 \pi / \beta)$ está más cerca del origen que $\mathbf{Y}(0)$. Esto significa que, para $\alpha < 0$, el efecto del factor $e^{\alpha t}$ sobre la solución (\ref{11}) es el de cambiar las curvas cerradas del caso anterior en espirales que se aproximan hacia el origen.

El plano fase se muestra a continuación.

Plano fase con parte real negativa.

De forma similar al caso anterior, la dirección de las trayectorias se determina a partir del sistema (\ref{1}). En este caso se dice que el punto de equilibrio $Y_{0} = (0, 0)$ de (\ref{1}) es un foco estable, o también se conoce como espiral atractor. La estabilidad de este punto de equilibrio es asintóticamente estable.

Para concluir veamos que ocurre si $\alpha$ es positiva.

Valores propios complejos con parte real positiva

Caso 3: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha > 0$.

En este caso nuevamente las soluciones son

$$\mathbf{Y}(t) = e^{\alpha t} \begin{pmatrix}
R_{1} \cos(\beta t -\delta_{1}) \\ R_{2} \cos(\beta t -\delta_{2})
\end{pmatrix}$$

o bien,

$$x(t) = e^{\alpha t} R_{1} \cos(\beta t -\delta_{1}) \hspace{1cm} y \hspace{1cm} y(t) = e^{\alpha t} R_{2} \cos(\beta t -\delta_{2})$$

Sin embargo, debido a que $\alpha > 0$, se puede probar que

$$\mathbf{Y}(2 \pi / \beta) > \mathbf{Y}(0)$$

es decir,

$$x(2 \pi / \beta) > x(0) \hspace{1cm} y \hspace{1cm} y( 2 \pi / \beta) > y(0)$$

lo que significa que ahora $\mathbf{Y}(0)$ está más cerca del origen que $\mathbf{Y}(2 \pi / \beta)$.

Por lo tanto, en este caso todas las soluciones de (\ref{1}) describen espirales que se alejan del origen conforme $t \rightarrow \infty$, y se dice que el punto de equilibrio $Y_{0} = (0, 0)$ de (\ref{1}) es un foco inestable o espiral repulsor. Es claro que el punto de equilibrio es inestable.

El plano fase se muestra a continuación.

Plano fase con parte real positiva.

Hemos revisado los casos posibles. Para concluir con la entrada realicemos un ejemplo por cada caso.

Caso 1: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha = 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 1 \\ -5 & -2
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
2 -\lambda & 1 \\ -5 & -2 -\lambda
\end{vmatrix} = (2 -\lambda)(-2 -\lambda) + 5 = \lambda^{2} + 1 = 0$$

Las raíces son $\lambda_{1} = i$ y $\lambda_{2} = -i$, notamos que $\alpha = 0$ y $\beta = 1$, determinemos los vectores propios resolviendo la ecuación

$$(\mathbf{A} -i \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
2 -i & 1 \\ -5 & -2-i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
(2 -i)k_{1} + k_{2} &= 0 \\
-5k_{1} -(2 + i)k_{2} &= 0
\end{align*}

Vemos que

$$k_{1} = -\left( \dfrac{2 + i}{5} \right)k_{2}$$

Sea $k_{2} = -5$, tal que $k_{1} = 2 + i$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 + i \\ -5
\end{pmatrix} = \begin{pmatrix}
2 \\ -5
\end{pmatrix} + i \begin{pmatrix}
1 \\ 0
\end{pmatrix}$$

Sabemos que $\mathbf{K}_{2} = \bar{\mathbf{K}}_{1}$, entonces el segundo vector propio asociado al valor propio $\lambda_{2} = -i$ es

$$\mathbf{K}_{2} = \begin{pmatrix}
2 -i \\ -5
\end{pmatrix} = \begin{pmatrix}
2 \\ -5
\end{pmatrix} -i \begin{pmatrix}
1 \\ 0
\end{pmatrix}$$

La primera solución linealmente independiente es

$$\mathbf{Y}_{1}(t) = e^{it} \begin{pmatrix}
2 + i \\ -5
\end{pmatrix}$$

Notemos lo siguiente.

\begin{align*}
e^{it} \begin{pmatrix}
2 + i \\ -5
\end{pmatrix} &= \left[ \cos(t) + i \sin(t) \right] \left[ \begin{pmatrix}
2 \\ -5
\end{pmatrix} + i \begin{pmatrix}
1 \\ 0
\end{pmatrix} \right] \\
&= \cos(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} -\sin(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix} + i \cos(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix} + i \sin(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix}
\end{align*}

De donde definimos

$$\mathbf{W}_{1} = \cos(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} -\sin(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix}$$

y

$$\mathbf{W}_{2} = \sin(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} + \cos(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix}$$

Por lo tanto, la solución general real es

$$\mathbf{Y}(t) = c_{1} \left[ \cos(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} -\sin(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix} \right] + c_{2} \left[ \sin(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} + \cos(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix} \right]$$

En términos de las funciones $x(t)$ y $y(t)$ se tienen las soluciones

\begin{align*}
x(t) &= [2c_{1} + c_{2}] \cos(t) + [-c_{1} + 2c_{2}] \sin(t) \\
y(t) &= -5c_{1} \cos(t) -5c_{2} \sin(t)
\end{align*}

Las soluciones son de la forma

\begin{align*}
x(t) &= k_{1} \cos(t) + k_{2} \sin(t) \\
y(t) &= k_{3} \cos(t) + k_{4} \sin(t)
\end{align*}

También es posible determinar las constantes $R_{1}$, $R_{2}$, $\delta_{1}$ y $\delta_{2}$ en términos de las constantes $c_{1}$ y $c_{2}$, tal que la solución se pueda escribir como

\begin{align*}
x(t) &= R_{1} \cos(t -\delta_{1})\\
y(t) &= R_{2} \cos(t -\delta_{2})
\end{align*}

En este caso como $\beta = 1$, entonces el periodo es $T = 2\pi$. La función paramétrica que define las trayectorias está dada por

$$f(t) = (k_{1} \cos(t) + k_{2} \sin(t), k_{3} \cos(t) + k_{4} \sin(t))$$

Es claro que las trayectorias son curvas cerradas con periodo $2 \pi$.

Para determinar la dirección de las trayectorias consideremos la ecuación $y^{\prime}$ del sistema, dicha ecuación es

$$y^{\prime} = -5x -2y$$

Si $y = 0$ se tiene la ecuación $y^{\prime} = -5x$, vemos que si $x > 0$, entonces $y^{\prime} < 0$, por lo tanto las trayectorias se mueven en el sentido de las manecillas del reloj.

El plano fase indicando algunas trayectorias se muestra a continuación.

Plano fase del sistema.

El campo vectorial está definido por la función

$$F(x, y) = (2x + y, -5x -2y)$$

A continuación se muestra dicho campo vectorial y algunas trayectorias.

Trayectorias y campo vectorial.

Efectivamente, el punto de equilibrio $Y_{0} = (0, 0)$ es un centro.

$\square$

Veamos como se pierde esta regularidad si $\alpha \neq 0$.

Caso 2: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha < 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -4 \\ 1 & -1
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
-1 -\lambda & -4 \\ 1 & -1 -\lambda
\end{vmatrix} = (-1 -\lambda)^{2} + 4 = \lambda^{2} + 2 \lambda + 5 = 0$$

Las raíces son $\lambda_{1} = -1 + 2i$ y $\lambda_{2} = -1 -2i$ (con $\alpha = -1$ y $\beta = 2$). Resolvamos la siguiente ecuación para obtener los vectores propios.

$$(\mathbf{A} -( -1 + 2i) \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
-2i & -4 \\ 1 & -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Se obtiene que $k_{1} = 2ik_{2}$. Sea $k_{2} = 1$, entonces $k_{1} = 2i$, así el primer vector propios es

$$\mathbf{K}_{1} = \begin{pmatrix}
2i \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
2 \\ 0
\end{pmatrix} $$

Considerando que $\mathbf{K}_{2} = \bar{\mathbf{K}}_{1}$ , entonces el segundo vector propio, asociado a $\lambda_{2} = -1 -2i$ es

$$\mathbf{K}_{2} = \begin{pmatrix}
-2i \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\ 1
\end{pmatrix} -i \begin{pmatrix}
2 \\ 0
\end{pmatrix}$$

Sabemos que la primer solución es

$$\mathbf{Y}_{1}(t) = e^{(-1 + 2i)t} \begin{pmatrix}
2i \\ 1
\end{pmatrix}$$

Notemos lo siguiente.

\begin{align*}
e^{(-1 + 2i)t} \begin{pmatrix}
2i \\ 1
\end{pmatrix} &= e^{-t} [\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
2 \\ 0
\end{pmatrix} \right] \\
&= e^{-t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} -\sin(2t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} + i \cos (2t) \begin{pmatrix}
2 \\ 0 \end{pmatrix} + i \sin(2t) \begin{pmatrix}
0 \\ 1 \end{pmatrix} \right]
\end{align*}

De donde definimos

$$\mathbf{W}_{1}(t) = e^{-t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} -\sin (t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} \right]$$

y

$$\mathbf{W}_{2}(t) = e^{-t} \left[ \cos(t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} \right]$$

Por lo tanto, la solución general real es

$$\mathbf{Y}(t) = c_{1} e^{-t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} -\sin (t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} \right] + c_{2} e^{-t} \left[ \cos(t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} \right]$$

Las funciones $x(t)$ y $y(t)$ son

\begin{align*}
x(t) &= -2c_{1}e^{-t} \sin(2t) + 2c_{2}e^{-t} \cos(2t) \\
y(t) &= c_{1}e^{-t} \cos(2t) + c_{2}e^{-t} \sin(2t)
\end{align*}

Estas funciones también se pueden escribir como

\begin{align*}
x(t) &= e^{-t} R_{1} \cos(2t -\delta_{1}) \\
y(t) &= e^{-t} R_{2} \cos(2t -\delta_{2})
\end{align*}

De tarea moral determina las constantes $R_{1}$, $R_{2}$, $\delta_{1}$ y $\delta_{2}$ en términos de las constantes $c_{1}$ y $c_{2}$.

Podemos notar que las soluciones ya no son trayectorias cerradas debido al término $e^{-t}$. En este caso el periodo es $t = 2 \pi / 2 = \pi$. Notemos que

\begin{align*}
x(0) &= 2c_{2} = R_{1} \cos(-\delta_{1}) \\
y(0) &= c_{1} = R_{2} \cos(-\delta_{2})
\end{align*}

Mientras que

\begin{align*}
x(\pi) &= 2 e^{-\pi} c_{2} = R_{1} e^{-\pi} \cos(-\delta_{1}) \\
y(\pi) &= e^{-\pi} c_{1} = R_{2} e^{-\pi} \cos(-\delta_{2})
\end{align*}

Como $e^{-\pi} < 1$, entonces

$$x(\pi) < x(0) \hspace{1cm} y \hspace{1cm} y(\pi) < y(0)$$

Por lo tanto las trayectorias corresponden a espirales que se aproximan hacia el origen.

La función paramétrica que define las trayectorias es

$$f(t) = (-2c_{1}e^{-t} \sin(2t) + 2c_{2}e^{-t} \cos(2t), c_{1}e^{-t} \cos(2t) + c_{2}e^{-t} \sin(2t))$$

Para determinar la dirección en que giran las trayectorias consideremos la ecuación $y^{\prime}$ del sistema, dicha ecuación es

$$y^{\prime} = x -y$$

Si $y = 0$, entonces $y^{\prime} = x$ y si $x > 0$, entonces $y^{\prime} > 0$, por lo tanto las trayectorias se mueven en el sentido opuesto a las manecillas del reloj.

El plano fase con algunas trayectorias se muestra a continuación.

Plano fase del sistema.

El campo vectorial asociado está definido por la función

$$F(x, y) = (-x -4y, x -y)$$

Dicho campo y algunas trayectorias se muestran en la siguiente figura.

Trayectorias y campo vectorial.

El punto de equilibrio $Y_{0} = (0, 0)$ es un foco estable.

$\square$

Concluyamos con un último ejemplo.

Caso 3: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha > 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
3 & -2 \\ 4 & -1
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
3 -\lambda & -2 \\ 4 & -1 -\lambda
\end{vmatrix} = (3 -\lambda)(-1 -\lambda) + 8 = \lambda^{2} -2 \lambda + 5 = 0$$

Los valores propios son $\lambda_{1} = 1 + 2i$ y $\lambda_{2} = 1 -2i$ (con $\alpha = 1$ y $\beta = 2$ ). Determinemos los vectores propios con la ecuación

$$(\mathbf{A} -(1 + 2i) \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
2 -2i & -2 \\ 4 & -2 -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

De este sistema se obtiene que

$$k_{1} = \left( \dfrac{1+ i}{2} \right) k_{2}$$

Sea $k_{2} = 1$, entonces $k_{1} = \dfrac{1 + i}{2}$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
\dfrac{1 + i}{2} \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} $$

y sabemos enseguida que

$$\mathbf{K}_{2} = \begin{pmatrix}
\dfrac{1 -i}{2} \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\ 1
\end{pmatrix} -i \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} $$

La primer solución linealmente independiente es

$$Y_{1}(t) = e^{(1 + 2i)t} \begin{pmatrix}
\dfrac{1 + i}{2} \\ 1
\end{pmatrix}$$

Vemos que

\begin{align*}
e^{(1 + 2i)t} \begin{pmatrix}
\dfrac{1 + i}{2} \\ 1
\end{pmatrix} &= e^{t} [\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} + i \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} -\sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} + i \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} + i \sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} \right]
\end{align*}

de donde,

$$\mathbf{W}_{1}(t) = e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} -\sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} \right]$$

y

$$\mathbf{W}_{2}(t) = e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} \right]$$

Por lo tanto, la solución general real del sistema es

$$\mathbf{Y}(t) = c_{1} e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} -\sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} \right] + c_{2} e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} \right]$$

Las funciones $x(t)$ y $y(t)$ son

\begin{align*}
x(t) &= e^{t} \left( \dfrac{c_{1} + c_{2}}{2} \right) \cos(2t) + e^{t} \left( \dfrac{c_{2} -c_{1}}{2} \right) \sin(2t) \\
y(t) &= c_{1}e^{t} \cos(2t) + c_{2}e^{t} \sin(2t)
\end{align*}

El periodo de las soluciones es $T = 2 \pi / 2 = \pi$. Muestra, de manera similar a como lo hicimos en el ejemplo anterior, que

$$x(\pi) > x(0) \hspace{1cm} y \hspace{1cm} y(\pi) > y(0)$$

esto debido a que $e^{\pi} > 1$. Por lo tanto, las trayectorias describen espirales que se alejan del origen.

La función paramétrica que define a las trayectorias es

$$f(t) = (k_{1} e^{t} \cos(2t) + k_{2} e^{t} \sin(2t), c_{1}e^{t} \cos(2t) + c_{2}e^{t} \sin(2t) )$$

Con

$$k_{1} = \left( \dfrac{c_{1} + c_{2}}{2} \right) \hspace{1cm} y \hspace{1cm} k_{2} = \left( \dfrac{c_{2} -c_{1}}{2} \right)$$

Para determinar la dirección de las trayectorias consideremos la ecuación

$$y^{\prime} = 4x -y$$

Si $y = 0$ se obtiene que $y^{\prime} = 4x$ y si $x > 0$, entonces $y^{\prime} > 0$, por lo tanto, las trayectorias se mueven en el sentido opuesto a las manecillas del reloj.

El plano fase se muestra a continuación.

Plano fase del sistema.

La función vectorial que define al campo vectorial es

$$F(x, y) = (3x -2y, 4x -y)$$

El campo vectorial y algunas trayectorias se ilustran en la siguiente figura.

Trayectorias y campo vectorial.

El punto de equilibrio $Y_{0} = (0, 0)$ corresponde a un foco inestable.

$\square$

Hemos concluido con esta entrada. Continuemos en la siguiente entrada con el análisis en el caso en el que los valores propios de la matriz $\mathbf{A}$ son iguales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales y hacer un análisis cualitativo de las soluciones.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 4 \\ -9 & 0
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & -1 \\ 5 & 2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 5 & -3
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & -5 \\ 4 & -2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    4 & 5 \\ -2 & 6
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -8 \\ 1 & -3
    \end{pmatrix} \mathbf{Y}$

Más adelante…

Continuando con nuestro estudio cualitativo de los sistemas lineales homogéneos con dos ecuaciones diferenciales, en la siguiente entrada veremos que ocurre en el plano fase cuando los valores propios de la matriz $\mathbf{A}$ son repetidos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Teoría cualitativa de los sistemas lineales homogéneos – Valores propios reales y distintos

Por Omar González Franco

Las matemáticas son el juez supremo;
de sus decisiones no hay apelación.
– Tobias Dantzig

Introducción

Ahora que conocemos algunas de las propiedades cualitativas más importantes a analizar de los sistemas autónomos compuestos por dos ecuaciones diferenciales, dedicaremos las siguientes entradas a estudiar exclusivamente los sistemas lineales homogéneos, logrando hacer una conexión entre la unidad 3 y la unidad 4 del curso.

Esta y las siguientes entradas serán el complemento cualitativo del método de valores y vectores propios para resolver sistemas lineales homogéneos, con la restricción de que los sistemas que estudiaremos estarán compuestos por dos ecuaciones diferenciales ya que son el tipo de sistemas en los que conjuntamente podemos hacer una descripción geométrica en $\mathbb{R}^{2}$, concretamente en el plano fase o plano $XY$.

En la primera entrada de esta unidad mostramos los casos posibles de acuerdo al valor que pueden tomar los valores propios, dichos casos pueden ser

Valores propios reales y distintos:

  • $\lambda_{1} < \lambda_{2} < 0$.
  • $\lambda_{1} > \lambda_{2} > 0$.
  • $\lambda_{1} < 0$ y $\lambda_{2} > 0$.

Valores propios complejos:

  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha < 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha = 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha > 0$.

Valores propios repetidos:

  • $\lambda_{1} = \lambda_{2} < 0$.
  • $\lambda_{1} = \lambda_{2} > 0$.

Valores propios nulos:

  • $\lambda_{1} = 0$ y $\lambda_{2} < 0$.
  • $\lambda_{1} = 0$ y $\lambda_{2} > 0$.
  • $\lambda_{1} = \lambda_{2} = 0$.

Dedicaremos esta entrada al caso exclusivo en el que los valores propios son reales y distintos.

Sistemas lineales

El sistema lineal autónomo que estudiaremos es

\begin{align*}
x^{\prime} &= ax + by \\
y^{\prime} &= cx+dy \label{1} \tag{1}
\end{align*}

Si se definen las matrices

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime} \\ y^{\prime}
\end{pmatrix}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
x \\ y
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix}$$

entonces el sistema se puede escribir como

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

Por otro lado, si consideramos la función vectorial

$$F(x, y) = (F_{1}(x, y), F_{2}(x, y)) \label{3} \tag{3}$$

en donde,

$$F_{1}(x, y) = ax + by \hspace{1cm} y \hspace{1cm} F_{2}(x, y) = cx + dy \label{4} \tag{4}$$

entonces el sistema autónomo (\ref{1}) se puede escribir, alternativamente, como

$$Y^{\prime} = F(x, y) \label{5} \tag{5}$$

Veremos que el plano fase del sistema depende casi por completo de los valores propios de la matriz $\mathbf{A}$ y habrá diferencias notables si los valores propios de $\mathbf{A}$ cambian de signo o se vuelven imaginarios.

Sean $\lambda_{1}$ y $\lambda_{2}$ los dos valores propios reales de $\mathbf{A}$, tal que $\lambda_{1} \neq \lambda_{2}$, recordemos que la solución general para este caso es de la forma

$$\mathbf{Y}(t) = c_{1}e^{\lambda_{1} t} \mathbf{K}_{1} + c_{2}e^{\lambda_{2} t} \mathbf{K}_{2} \label{6} \tag{6}$$

En donde $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ son los vectores propios de $\mathbf{A}$ y $c_{1}$ y $c_{2}$ son constantes arbitrarias que se determinan a partir de las condiciones iniciales del problema.

Comencemos por estudiar el caso en el que los valores propios son negativos.

Valores propios negativos

Caso 1: $\lambda_{1} < \lambda_{2} < 0$.

Sean $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ los vectores propios de $\mathbf{A}$ con valores propios $\lambda_{1}$ y $\lambda_{2}$, respectivamente. La solución general está dada por (\ref{6}), sin embargo es conveniente hacer un análisis por separado de las soluciones linealmente independientes

$$\mathbf{Y}_{1}(t) = c_{1}e^{\lambda_{1} t} \mathbf{K}_{1} \hspace{1cm} y \hspace{1cm} \mathbf{Y}_{2}(t) = c_{2}e^{\lambda_{2} t} \mathbf{K}_{2}$$

Comencemos por trazar en el plano $XY$, o plano fase, cuatro semirrectas, dos de ellas $l_{1}$ y $l_{2}$ siendo paralelas a $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$, respectivamente, mientras que las semirrectas $l^{\prime}_{1}$ y $l^{\prime}_{2}$ paralelas a $-\mathbf{K}_{1}$ y $-\mathbf{K}_{2}$, respectivamente.

Consideremos primero la solución

$$\mathbf{Y}_{1}(t) = c_{1}e^{\lambda_{1} t} \mathbf{K}_{1} \label{7} \tag{7}$$

Esta solución es siempre proporcional a $\mathbf{K}_{1}$ y la constante de proporcionalidad $c_{1}e^{\lambda_{1} t}$ varía de $\pm \infty$ a cero, dependiendo de si $c_{1}$ es positiva o negativa. Por lo tanto, la trayectoria de esta solución es la semirrecta $l_{1}$ para $c_{1} > 0$, y la semirrecta $l^{\prime}_{1}$ para $c_{1} < 0$. Análogamente, la trayectoria de la solución

$$\mathbf{Y}_{2}(t) = c_{2}e^{\lambda_{2} t} \mathbf{K}_{2} \label{8} \tag{8}$$

es la semirrecta $l_{2}$ para $c_{2} > 0$ y la semirrecta $l^{\prime}_{2}$ para $c_{2} < 0$.

Consideremos ahora la solución general (\ref{6}).

$$\mathbf{Y}(t) = c_{1}e^{\lambda_{1} t} \mathbf{K}_{1} + c_{2}e^{\lambda_{2} t} \mathbf{K}_{2}$$

Notemos que toda solución $\mathbf{Y}(t)$ tiende al punto $(0, 0)$ cuando $t \rightarrow \infty$. Por lo tanto, toda trayectoria de (\ref{1}) tiende al origen cuando $t$ tiende a infinito.

Observemos que $e^{\lambda_{2} t} \mathbf{K}_{2}$ es muy pequeño comparado con $e^{\lambda_{1} t} \mathbf{K}_{1}$ cuando $t$ es grande (recordemos que $\lambda_{1} < \lambda_{2} < 0$). Por lo tanto, para $c_{1} \neq 0$, $\mathbf{Y}(t)$ se aproxima cada vez más a $c_{1} e^{\lambda_{1} t} \mathbf{K}_{1}$ conforme $t \rightarrow \infty $, esto implica que la tangente a la trayectoria de $\mathbf{Y}(t)$ tiende a $l_{1}$ si $c_{1}$ es positiva y a $l^{\prime}_{1}$, si $c_{1}$ es negativa.

Con todas estas características el plano fase de (\ref{1}), para el caso en el que los valores propios son negativos, tiene la forma que se presenta en la siguiente figura.

Plano fase para valores propios negativos.

Observamos que todas las trayectorias, con excepción de una sola recta, tienden al origen. En este caso se dice que el punto de equilibrio $Y_{0} = (0, 0)$ de (\ref{1}) es un nodo atractor y su estabilidad es asintóticamente estable.

Una última observación es que la trayectoria de toda solución $\mathbf{Y}(t)$ de (\ref{1}) tiende al origen cuando $t$ tiende a infinito, sin embargo ese punto no pertenece a la trayectoria de ninguna solución no trivial $\mathbf{Y}(t)$.

Veamos ahora que ocurre cuando los valores propios son positivos.

Valores propios positivos

Caso 2: $0 < \lambda_{1} < \lambda_{2}$.

Para este caso se hace análogamente el mismo análisis que en el caso anterior, de modo que el plano fase es exactamente el mismo, excepto que el sentido de las trayectorias es el opuesto. El plano fase se muestra a continuación.

Plano fase para valores propios positivos.

Como las soluciones se alejan del punto de equilibrio $Y_{0} = (0, 0)$ de (\ref{1}), se dice que dicho punto es un nodo repulsor e inestable.

Antes de realizar algunos ejemplos concluyamos con el caso en el que un valor propio es negativo, mientras que el otro es positivo.

Valores propios con signos opuestos

Caso 3: $\lambda_{1} < 0 < \lambda_{2}$.

Sean nuevamente $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ los vectores propios de $\mathbf{A}$ con valores propios $\lambda_{1}$ y $\lambda_{2}$, respectivamente.

De forma similar que en los casos anteriores, comencemos por trazar en el plano $XY$ cuatro semirrectas, dos de ellas $l_{1}$ y $l_{2}$ siendo paralelas a $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$, respectivamente, mientras que las semirrectas $l^{\prime}_{1}$ y $l^{\prime}_{2}$ paralelas a $-\mathbf{K}_{1}$ y $-\mathbf{K}_{2}$, respectivamente.

Consideremos nuevamente las soluciones linealmente independientes por separado.

$$\mathbf{Y}_{1}(t) = c_{1}e^{\lambda_{1} t} \mathbf{K}_{1} \hspace{1cm} y \hspace{1cm} \mathbf{Y}_{2}(t) = c_{2}e^{\lambda_{2} t} \mathbf{K}_{2}$$

En el caso de la solución

$$\mathbf{Y}_{1}(t) = c_{1}e^{\lambda_{1} t} \mathbf{K}_{1}$$

la trayectoria es $l_{1}$ para $c_{1} > 0$ y $l^{\prime}_{1}$ para $c_{1} < 0$, mientras que la trayectoria de la solución

$$\mathbf{Y}_{2}(t) = c_{2} e^{\lambda_{2} t} \mathbf{K}_{2}$$

es $l_{2}$ para $c_{2} > 0$ y $l^{\prime}_{2}$ para $c_{2} < 0$.

Notemos que la solución $c_{1} e^{\lambda_{1} t} \mathbf{K}_{1}$ tiende al origen $(0, 0)$ cuando $t \rightarrow \infty$, mientras que la solución $c_{2} e^{\lambda_{2} t} \mathbf{K}_{2}$ con $c_{2} \neq 0$ es no acotada conforme $t \rightarrow \infty$.

Por otro lado, observemos que $e^{\lambda_{1} t} \mathbf{K}_{1}$ es muy pequeño comparado con $e^{\lambda_{2} t} \mathbf{K}_{2}$ cuando $t$ crece mucho. Por lo tanto, toda solución $\mathbf{Y}(t)$ de (\ref{1}) con $c_{2} \neq 0$ es no acotada cuando $t$ tiende a infinito y su trayectoria tiende a $l_{2}$ o a $l^{\prime}_{2}$. De forma similar notamos que $e^{\lambda_{2} t} \mathbf{K}_{2}$ es muy pequeño comparado con $e^{\lambda_{1} t} \mathbf{K}_{1}$ cuando $t$ crece mucho con signo negativo. Por lo tanto, la trayectoria de cualquier solución $\mathbf{Y}(t)$ de (\ref{1}) con $c_{1} \neq 0$ tiende a $l_{1}$ o a $l^{\prime}_{1}$ cuando $t$ tiende a menos infinito.

Por lo tanto, en el caso en el que los valores propios tienen signos opuestos, el plano fase, con las características mencionadas, tiene la siguiente forma.

Plano fase para valores propios con signos opuestos.

Es posible observar que el plano fase se asemeja a una silla de montar cerca del origen, por esta razón se dice que el punto de equilibrio $Y_{0} = (0, 0)$ de (\ref{1}) es un punto silla y es inestable.

Para concluir con la entrada realicemos un ejemplo por cada caso analizado. En los ejemplos de esta y las próximas entradas estaremos usando las herramientas antes proporcionadas para visualizar el plano fase y el campo vectorial asociado. Puedes usarlas tu mismo para comprobar los resultados o visualizar otros sistemas.

Caso 1: $\lambda_{1} < \lambda_{2} < 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-5 & 1 \\ 1 & -5
\end{pmatrix} \mathbf{Y}$$

Solución: Primero resolvamos el sistema analíticamente. Determinemos los valores propios.

$$\begin{vmatrix}
-5 -\lambda & 1 \\ 1 & -5 -\lambda
\end{vmatrix} = (-5 -\lambda)^{2} -1 = \lambda^{2} + 10 \lambda + 24 = (\lambda + 6)(\lambda + 4) = 0$$

Las raíces son $\lambda_{1} = -6$ y $\lambda_{2} = -4$. Determinemos los vectores propios. La primer ecuación a resolver es

$$(\mathbf{A} + 6 \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Inmediatamente vemos que $k_{1} = -k_{2}$. Sea $k_{2} = 1$, entonces $k_{1} = -1$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
-1 \\ 1
\end{pmatrix}$$

Para el segundo vector propio resolvemos la ecuación

$$(\mathbf{A} + 4 \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
-1 & 1 \\ 1 & -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

En este caso $k_{1} = k_{2}$. Sea $k_{1} = 1 = k_{2}$, entonces el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Por lo tanto, la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} e^{-6t} \begin{pmatrix}
-1 \\ 1
\end{pmatrix} + c_{2} e^{-4t} \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Separemos la soluciones en las funciones $x(t)$ y $y(t)$.

\begin{align*}
x(t) &= -c_{1}e^{-6t} + c_{2}e^{-4t} \\
y(t) &= c_{1}e^{-6t} + c_{2}e^{-4t}
\end{align*}

Analicemos las soluciones cualitativamente.

Lo primero que sabemos es que el punto de equilibrio $Y_{0} = (0, 0)$ es un nodo atractor estable lo que implica que todas las soluciones tienden al origen, pero nunca llegan a él ya que dicho punto no pertenece a ninguna solución.

Las rectas paralelas a los vectores propios $\mathbf{K}_{1}$ y $\mathbf{K}_{2}$ están definidas por las funciones $y(x) = -x$ y $y(x) = x$, respectivamente. La forma de comprobarlo es considerando las soluciones linealmente independientes por separado.

$$\mathbf{Y}_{1}(t) = c_{1} e^{-6t} \begin{pmatrix}
-1 \\ 1
\end{pmatrix}$$

y

$$\mathbf{Y}_{2}(t) = c_{2} e^{-4t} \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

En el caso de la solución $\mathbf{Y}_{1}(t)$ las soluciones son

\begin{align*}
x(t) &= -c_{1}e^{-6t} \\
y(t) &= c_{1}e^{-6t}
\end{align*}

De donde es claro que $y = -x = c_{1}e^{-6t}$. De forma similar, de la segunda solución $\mathbf{Y}_{2}(t)$ se obtienen las soluciones

\begin{align*}
x(t) &= c_{2}e^{-4t} \\
y(t) &= c_{2}e^{-4t}
\end{align*}

De donde $y = x = c_{2}e^{-4t} $.

Todas las trayectorias se trazarán de acuerdo a la función paramétrica

$$f(t) = (-c_{1}e^{-6t} + c_{2}e^{-4t}, c_{1}e^{-6t} + c_{2}e^{-4t})$$

Tracemos como ejemplo $4$ trayectorias correspondientes a los siguientes casos:

  • $c_{1} = 1$, $c_{2} = 1 \hspace{1.3cm} \rightarrow \hspace{1cm} f(t) = (-e^{-6t} + e^{-4t}, e^{-6t} + e^{-4t})$
  • $c_{1} = 1$, $c_{2} = -1 \hspace{1cm} \rightarrow \hspace{1cm} f(t) = (-e^{-6t} -e^{-4t}, e^{-6t} -e^{-4t})$
  • $c_{1} = -1$, $c_{2} = 1 \hspace{1cm} \rightarrow \hspace{1cm} f(t) = (e^{-6t} + e^{-4t}, -e^{-6t} + e^{-4t})$
  • $c_{1} = -1$, $c_{2} = -1 \hspace{0.7cm} \rightarrow \hspace{1cm} f(t) = (e^{-6t} -e^{-4t}, -e^{-6t} -e^{-4t})$

La gráfica en el plano $XY$ de las cuatro trayectorias anteriores, cerca del origen, se muestra a continuación.

$4$ trayectorias particulares del sistema.

Por supuesto hay infinitas trayectorias, una para cada posible par de valores $c_{1}$ y $c_{2}$.

En la parte izquierda de la siguiente figura se encuentra el plano fase del sistema con algunas trayectorias, los vectores propios de $\mathbf{A}$ y las rectas paralelas a dichos vectores. En el lado derecho se encuentra el sistema que estamos analizando y el valor de los eigenvalores y eigenvectores.

Plano fase del sistema.

En la figura anterior también se encuentran los datos $\Delta = 24$ y $\tau = -10$, estos valores corresponden al valor del determinante y la traza de $\mathbf{A}$, respectivamente. Por el momento no tenemos que preocuparnos por estos valores, sin embargo más adelante veremos que nos serán de mucha utilidad cuando estudiemos el llamado plano traza – determinante.

Para concluir con el ejemplo determinemos el campo vectorial asociado. La función $F(x, y)$ en este caso es

$$F(x, y) = (-5x + y, x -5y)$$

El campo vectorial asociado junto con algunas trayectorias se muestra a continuación.

Trayectorias y campo vectorial.

$\square$

Caso 2: $0 < \lambda_{1} < \lambda_{2}$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ -2 & 5
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
4 -\lambda & -1 \\ -2 & 5 -\lambda
\end{vmatrix} = (4 -\lambda)(5 -\lambda) -2 = \lambda^{2} -9 \lambda + 18 = (\lambda -3)(\lambda -6) = 0$$

Las raíces son $\lambda_{1} = 3$ y $\lambda_{2} = 6$. Determinemos los vectores propios. La primer ecuación a resolver es

$$(\mathbf{A} -3 \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
1 & -1 \\ -2 & 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Resolviendo el sistema se obtiene que $k_{1} = k_{2}$, elegimos convenientemente $k_{1} = -2 = k_{2}$, tal que el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
-2 \\ -2
\end{pmatrix}$$

Para obtener el segundo vector propio resolvemos la ecuación

$$(\mathbf{A} -6 \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
-2 & -1 \\ -2 & -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

En este caso se obtiene que $-2k_{1} = k_{2}$. Elegimos $k_{1} = 1$, entonces $k_{2} = -2$ y así el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ -2
\end{pmatrix}$$

Por lo tanto, la solución general es

$$\mathbf{Y}(t) = c_{1} e^{3t} \begin{pmatrix}
-2 \\ -2
\end{pmatrix} + c_{2} e^{6t} \begin{pmatrix}
1 \\ -2
\end{pmatrix}$$

Escribamos la solución en términos de las funciones $x(t)$ y $y(t)$.

\begin{align*}
x(t) &= -2c_{1}e^{3t} + c_{2}e^{6t} \\
y(t) &= -2c_{1}e^{3t} -2c_{2}e^{6t}
\end{align*}

Comencemos por determinar las funciones que definen las rectas paralelas a los vectores propios, para ello consideremos por separado las soluciones linealmente independientes

$$\mathbf{Y}_{1}(t) = c_{1} e^{3t} \begin{pmatrix}
-2 \\ -2
\end{pmatrix}$$

y

$$\mathbf{Y}_{2}(t) = c_{2} e^{6t} \begin{pmatrix}
1 \\ -2
\end{pmatrix}$$

De la solución $\mathbf{Y}_{1}(t)$ tenemos las soluciones

\begin{align*}
x(t) &= -2c_{1}e^{3t} \\
y(t) &= -2c_{1}e^{3t}
\end{align*}

De donde vemos que $y = x = -2c_{1}e^{3t}$, por tanto la recta paralela a $\mathbf{K}_{1}$ se define por la función $y(x) = x$. Por otro lado, de la solución $\mathbf{Y}_{2}(t)$ se tiene las soluciones

\begin{align*}
x(t) &= c_{2}e^{6t} \\
y(t) &= -2c_{2}e^{6t}
\end{align*}

En este caso vemos que $y = -2x = -2c_{2}e^{6t}$, por tanto la recta paralela al vector propio $\mathbf{K}_{2}$ esta definida por la función $y(x) = -2x$.

La función paramétrica que nos permite trazar las trayectorias es

$$f(t) = (-2c_{1}e^{3t} + c_{2}e^{6t}, -2c_{1}e^{3t} -2c_{2}e^{6t})$$

Si lo deseas intenta graficar algunas trayectorias para algunos valores de $c_{1}$ y $c_{2}$ como lo hicimos en el ejemplo anterior.

El plano fase del sistema indicando algunas trayectorias, los vectores propios y las rectas paralelas a estos vectores, se muestra a continuación.

Plano fase del sistema.

Se puede observar que las trayectorias son un poco similares a las del ejemplo anterior con la diferencia de que el sentido es el opuesto, de forma que el punto de equilibrio $Y_{0} = (0, 0)$ es nodo repulsor inestable.

El campo vectorial asociado está dado por la función vectorial

$$F(x, y) = (4x -y, -2x + 5y)$$

El campo vectorial con algunas trayectorias se muestra a continuación.

Trayectorias y campo vectorial.

$\square$

Concluyamos con un ejemplo del tercer caso.

Caso 3: $\lambda_{1} < 0 < \lambda_{2}$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
3 & -1 \\ 5 & -3
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
3 -\lambda & -1 \\ 5 & -3 -\lambda
\end{vmatrix} = (3 -\lambda )( -3 -\lambda ) + 5 = \lambda {2} -4 = (\lambda -2)(\lambda + 2) = 0$$

Las raíces son$\lambda_{1} = -2$ y $\lambda_{2} = 2$. Determinemos los vectores propios. Para el primer vector resolvamos la ecuación

$$(\mathbf{A} + 2 \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
5 & -1 \\ 5 & -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Vemos que $5k_{1} = k_{2}$. Sea $k_{1} = -1$, tal que $k_{2} = -5$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
-1 \\ -5
\end{pmatrix}$$

Para obtener el segundo vector propio resolvemos

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
1 & -1 \\ 5 & -5
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Tenemos que $k_{1} = k_{2}$. Sea $k_{1} = 5 = k_{2}$, entonces el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
5 \\ 5
\end{pmatrix}$$

Por lo tanto, la solución general es

$$\mathbf{Y}(t) = c_{1} e^{-2t} \begin{pmatrix}
-1 \\ -5
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
5 \\ 5
\end{pmatrix}$$

o bien,

\begin{align*}
x(t) &= -c_{1} e^{-2t} + 5c_{2} e^{2t} \\
y(t) &= -5c_{1}e^{-2t} + 5c_{2}e^{2t}
\end{align*}

Las soluciones linealmente independientes son

$$\mathbf{Y}_{1}(t) = c_{1} e^{-2t} \begin{pmatrix}
-1 \\ -5
\end{pmatrix}$$

y

$$\mathbf{Y}_{2}(t) = c_{2} e^{2t} \begin{pmatrix}
5 \\ 5
\end{pmatrix}$$

cuyas soluciones en términos de las funciones $x(t)$ y $y(t)$ son, respectivamente

\begin{align*}
x(t) &= -c_{1} e^{-2t} \\
y(t) &= -5c_{1}e^{-2t}
\end{align*}

y

\begin{align*}
x(t) &= 5c_{2} e^{2t} \\
y(t) &= 5c_{2}e^{2t}
\end{align*}

La recta paralela al vector propio $\mathbf{K}_{1}$ está definida por la función $y(x) = 5x$, mientras que la recta paralela al vector propio $\mathbf{K}_{2}$ está definida por la función $y(x) = x$.

Las trayectorias son trazadas de acuerdo a la función paramétrica

$$f(t) = (-c_{1} e^{-2t} + 5c_{2} e^{2t}, -5c_{1} e^{-2t} + 5c_{2} e^{2t})$$

Consideremos nuevamente los siguientes casos:

  • $c_{1} = 1$, $c_{2} = 1 \hspace{1.3cm} \rightarrow \hspace{1cm} f(t) = (-e^{-2t} + 5e^{2t}, -5e^{-2t} + 5e^{2t})$
  • $c_{1} = 1$, $c_{2} = -1 \hspace{1cm} \rightarrow \hspace{1cm} f(t) = (-e^{-2t} -5e^{2t}, -5e^{-2t} -5e^{2t})$
  • $c_{1} = -1$, $c_{2} = 1 \hspace{1cm} \rightarrow \hspace{1cm} f(t) = (e^{-2t} + 5e^{2t}, 5e^{-2t} + 5e^{2t})$
  • $c_{1} = -1$, $c_{2} = -1 \hspace{0.7cm} \rightarrow \hspace{1cm} f(t) = (e^{-2t} -5e^{2t}, 5e^{-2t} -5e^{2t})$

La gráfica en el plano $XY$ de las cuatro trayectorias anteriores, cerca del origen, se muestra a continuación.

$4$ trayectorias particulares del sistema.

Observemos cuidadosamente que ocurre en los casos límite.

Consideremos la función

$$f(t) = (x(t), y(t)) = (-e^{-2t} + 5e^{2t}, -5e^{-2t} + 5e^{2t})$$

Conforme $t$ crece el término $-e^{-2t}$ se hace muy pequeño comparado con el término $5e^{2t}$, de manera que si $t \rightarrow \infty$, entonces $x(t) \rightarrow 5e^{2t}$, de forma similar el término $-5e^{-2t}$ se hace muy pequeño en comparación con el término $5e^{2t}$, es decir, si $t \rightarrow \infty$, entonces $y(t) \rightarrow 5e^{2t}$. Esto nos permite notar que si $t \rightarrow \infty$, entonces $y \rightarrow x$. Por el contrario, si $t \rightarrow -\infty$, entonces $y \rightarrow 5x$. En la gráfica anterior vemos este comportamiento para la trayectoria verde.

Intenta hacer este mismo análisis para las tres trayectorias restantes de la gráfica anterior y logra notar que en los casos límites las trayectorias tienden a las rectas paralelas a los vectores propios.

En la siguiente figura se muestra el plano fase indicando algunas trayectorias, los vectores propios y las rectas paralelas a estos vectores.

Plano fase del sistema.

Efectivamente, el punto de equilibrio $Y_{0} = (0, 0)$ es un punto silla y es inestable.

Finalmente apreciemos el campo vectorial asociado, definido por la función vectorial

$$F(x, y) = (3x -y, 5x -3y)$$

Trayectorias y campo vectorial.

$\square$

Con esto concluimos esta entrada. En la siguiente entrada veremos que ocurre si los valores y vectores propios son complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales y hacer un análisis cualitativo de las soluciones.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -2 \\ 3 & -4
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 2 \\ 1 & 3
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & -2 \\ 2 & -2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & -1 \\ 8 & -6
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 1 \\ 1 & 2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 \\ 4 & 3
    \end{pmatrix} \mathbf{Y}$

Más adelante…

Concluimos con el caso en el que los valores propios de la matriz $\mathbf{A}$ son reales y distintos.

En la siguiente entrada haremos un análisis muy similar a como lo hicimos en esta entrada, pero en el caso en el que los valores propios de la matriz $\mathbf{A}$ son complejos. Veremos que en este caso existen soluciones que son periódicas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios repetidos

Por Omar González Franco

La matemática es la ciencia del orden y la medida, de bellas
cadenas de razonamientos, todos sencillos y fáciles.
– Descartes

Introducción

El método de valores y vectores propios nos ha permitido obtener las soluciones generales de sistemas lineales homogéneos. Ya vimos los casos en los que los valores propios son reales y distintos y cuando son complejos, en esta entrada presentaremos el caso en el que algunos de los valores propios son repetidos.

En este caso se presenta un problema y es que nosotros sabemos que si una matriz $\mathbf{A}$ de $n \times n$ con componentes constantes tiene $n$ valores propios distintos, entonces tendremos $n$ vectores propios que son linealmente independientes y por tanto tendremos $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Si se presenta el caso en el que algunos valores propios son repetidos, entonces tendremos $k < n$ valores propios que son distintos y por tanto $k$ vectores propios linealmente independientes, lo que significa que nos faltarán $n -k$ soluciones linealmente independientes del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. El problema aquí es ¿cómo obtener las soluciones linealmente independientes que nos faltan?, para así determinar la solución general del sistema lineal. Recordemos que la solución general corresponde a la combinación lineal de las $n$ soluciones linealmente independientes del sistema.

En esta entrada resolveremos este problema y lo interesante es que el concepto de exponencial de una matriz es lo que nos ayudará.

Vectores propios generalizados

De la primera unidad recordemos que la función $y(t) = ce^{at}$ es una solución de la ecuación diferencial escalar $y^{\prime}(t) = ay$ para cualesquiera constantes $a$ y $c$. De manera análoga, se desearía que la función vectorial

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} \label{1} \tag{1}$$

fuera una solución del sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

para cualquier vector constante $\mathbf{K}$.

En la entrada en la que definimos la exponencial de una matriz demostramos que la función $\mathbf{Y}(t) = e^{\mathbf{A} t}$ no sólo es solución del sistema lineal (\ref{2}), sino que incluso es una matriz fundamental de soluciones. También vimos que la derivada de $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es

$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t} \label{3} \tag{3}$$

Usando este resultado mostremos lo siguiente.

$$\dfrac{d}{dt} (e^{\mathbf{A}t} \mathbf{K}) = (\mathbf{A} e^{\mathbf{A}t}) \mathbf{K} = \mathbf{A} (e^{\mathbf{A}t} \mathbf{K}) \label{4} \tag{4}$$

Esto muestra que la función $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K}$ efectivamente es solución del sistema lineal (\ref{2}).

Ahora que sabemos que (\ref{1}) es solución del sistema lineal (\ref{2}) veamos cómo esto puede ayudarnos a encontrar $n$ vectores $\mathbf{K}$ linealmente independientes. Notemos lo siguiente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} = e^{\mathbf{A} t} e^{(\lambda \mathbf{I} -\lambda \mathbf{I})t} \mathbf{K} = e^{(\mathbf{A} -\lambda \mathbf{I})t}e^{\lambda \mathbf{I}t} \mathbf{K} \label{5} \tag{5}$$

para cualquier constante $\lambda$ y en donde hemos usado el hecho de que

$$(\mathbf{A} -\lambda \mathbf{I})(\lambda \mathbf{I}) = (\lambda \mathbf{I})(\mathbf{A} -\lambda \mathbf{I}) \label{6} \tag{6}$$

De acuerdo a la definición de exponencial de una matriz observemos lo siguiente.

$$e^{\lambda \mathbf{I} t} = \sum_{k = 0}^{\infty} \dfrac{(\lambda \mathbf{I} t)^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I}^{k} t^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I} t^{k}}{k!} = \left( \sum_{k = 0}^{\infty} \dfrac{ (\lambda t)^{k}}{k!} \right) \mathbf{I} = e^{\lambda t} \mathbf{I} = e^{\lambda t}$$

Por lo tanto, (\ref{5}) se puede escribir como

$$\mathbf{Y}(t) = e^{\mathbf{A}t} \mathbf{K} = e^{\lambda t} e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} \label{7} \tag{7}$$

Concentrémonos un momento en el término $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ de la solución anterior. Recordando que la exponencial $e^{\mathbf{A} t}$ es

$$e^{\mathbf{A}t} = \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty}\mathbf{A}^{k} \dfrac{t^{k}}{k!} \label{8} \tag{8}$$

entonces la exponencial $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ es

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} = \mathbf{I} + (\mathbf{A} -\lambda \mathbf{I}) t + (\mathbf{A} -\lambda \mathbf{I})^{2} \dfrac{t^{2}}{2!} + \cdots + (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!}$$

y, así mismo

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \left( \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{9} \tag{9}$$

Supongamos que existe un entero $m$, tal que

$$(\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} = \mathbf{0} \label{10} \tag{10}$$

Entonces la serie infinita (\ref{9}) terminará después de $m$ términos, pues si se satisface (\ref{10}), entonces se cumple

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Para $l > 0$ entero. Esto es claro debido a que

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = (\mathbf{A} -\lambda \mathbf{I})^{l} \left[ (\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} \right] = \mathbf{0}$$

Por lo tanto,

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \label{12} \tag{12}$$

Así, la solución (\ref{7}) se puede escribir como

\begin{align*}
\mathbf{Y}(t) &= e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \right] \\
&= e^{\lambda t} \left( \sum_{k = 0}^{m -1} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{13} \tag{13}
\end{align*}

No es casualidad que estemos usando la notación $\lambda$ y $\mathbf{K}$, estas cantidades corresponden a los valores y vectores propios de la matriz de coeficientes $\mathbf{A}$ del sistema lineal (\ref{2}), respectivamente.

El vector propio $\mathbf{K}$ que satisface (\ref{10}) recibe un nombre particular.

El resultado que nos interesa es la solución (\ref{13}). En el método de valores y vectores propios lo que hacemos es determinar los valores propios de la matriz $\mathbf{A}$ y con ellos posteriormente determinamos los vectores propios. Los vectores propios se determinan con la ecuación vectorial

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{14} \tag{14}$$

Observemos que si se satisface (\ref{14}), entonces la serie (\ref{13}) se reduce a $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$ que es la solución que ya conocíamos. Si los valores y vectores propios son complejos simplemente se aplica la teoría de la entrada anterior sobre la misma solución $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$.

A continuación presentamos el algoritmo para encontrar $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Algoritmo para encontrar $n$ soluciones linealmente independientes

  • Primero determinamos todos los valores y vectores propios de $\mathbf{A}$. Si $\mathbf{A}$ tiene $n$ vectores linealmente independientes, entonces el sistema lineal (\ref{2}) tiene $n$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Esto es lo que siempre hemos hecho.
  • Supongamos que $\mathbf{A}$ tiene únicamente $k < n$ vectores propios linealmente independientes, entonces se tendrá sólo $k$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Para determinar soluciones adicionales tomamos un valor propio $\lambda $ de $\mathbf{A}$ y buscamos todos los vectores $\mathbf{K}$ para los cuales se cumple simultáneamente
    $$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{15} \tag{15}$$
    Para cada uno de los vectores propios generalizados $\mathbf{K}$ encontrados, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \right]\label{16} \tag{16}$$
    Esto se obtiene de la solución (\ref{13}). Hacemos esto para todos los valores propios distintos $\lambda $ de $\mathbf{A}$.
  • Si aún no se tienen suficientes soluciones, entonces se buscan todos los vectores propios generalizados $\mathbf{K}$ para los cuales
    $$(\mathbf{A} -\lambda \mathbf{I})^{3} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq \mathbf{0}, \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{17} \tag{17}$$
    Para cada uno de tales vectores $\mathbf{K}$, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \dfrac{t^{2}}{2!}(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \right] \label{18} \tag{18}$$
    Nuevamente, este resultado se obtiene de considerar (\ref{17}) en (\ref{13}).
  • Este procedimiento se puede continuar hasta encontrar $n$ soluciones linealmente independientes.

Los puntos antes establecidos son los pasos a seguir para obtener $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Realicemos un ejemplo en el que apliquemos el algoritmo anterior para que todo quede más claro.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix}$$

Solución: El primer paso es determinar todos los valores y vectores propios de la matriz $\mathbf{A}$. La ecuación característica de $\mathbf{A}$ se obtiene de calcular el siguiente determinante.

$$\begin{vmatrix}
2 -\lambda & 1 & 3 \\ 0 & 2 -\lambda & -1 \\ 0 & 0 & 2 -\lambda
\end{vmatrix} = 0$$

Es sencillo notar que el polinomio característico es

$$P(\lambda) = (2 -\lambda )^{3}$$

y la ecuación característica es

$$(2 -\lambda )^{3} = 0$$

Vemos que la única raíz que se obtiene es $\lambda = 2$, éste es el único valor propio de $\mathbf{A}$ con multiplicidad tres ($r$ = 3). Un vector propio $\mathbf{K} \neq \mathbf{0}$ lo obtenemos de resolver la ecuación vectorial

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema se deduce que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser arbitrario lo elegimos como $k_{1} = 1$. Por lo tanto, un vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{1}(t) = e^{2t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

es una solución del sistema lineal dado. Esta es la única solución linealmente independiente que pudimos encontrar con el método tradicional. La matriz del sistema es de $3 \times 3$, así que nos hacen faltan 2 soluciones linealmente independientes para poder formar un conjunto fundamental de soluciones y, por tanto, formar la solución general.

Pasemos al segundo punto del algoritmo.

Ahora buscamos todos los vectores $\mathbf{K} \neq \mathbf{0}$, tal que se satisface (\ref{15}), es decir

$$(\mathbf{A} -2\mathbf{I})^{2} \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema deducimos que $k_{3} = 0$ y tanto $k_{1}$ como $k_{2}$ son arbitrarios, nosotros les podemos asignar algún valor, pero cuidado, recordemos que una condición adicional que tenemos es que este nuevo vector también satisfaga que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} \neq \mathbf{0}$$

Un vector que satisface (\ref{15}) simultáneamente es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

En este caso una solución del sistema lineal esta dada por (\ref{16}).

\begin{align*}
\mathbf{Y}_{2}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{Y}_{2}(t) = e^{2t} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix}$$

En este proceso hemos encontrado dos vectores linealmente independientes, a saber

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Ahora procedemos a buscar un vector propio generalizado más que satisfaga (\ref{17}) y tal que la solución sea de la forma (\ref{18}).

\begin{align*}
(\mathbf{A} -2 \mathbf{I})^{3} \mathbf{K} &= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}
\end{align*}

Es claro que cualquier vector es solución de esta ecuación, sin embargo también se debe satisfacer que

$$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq 0 \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq 0$$

Un vector que satisface lo anterior es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{18}) una solución del sistema lineal es

\begin{align*}
\mathbf{Y}_{3}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) + \dfrac{t^{2}}{2}(\mathbf{A} -2 \mathbf{I})^{2} \right] \mathbf{K}_{3} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix} \right] \\
\end{align*}

En este caso los vectores linealmente encontrados son

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}, \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{3} = \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix}$$

Y la tercer solución linealmente independiente es

$$\mathbf{Y}_{3}(t) = e^{2t} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix}$$

Ahora que tenemos las tres soluciones linealmente independientes del sistema lineal dado podemos concluir que la solución general del sistema es

$$\mathbf{Y}(t) = e^{2t} \left[ c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right]$$

Las constantes $c_{1}$, $c_{2}$ y $c_{3}$ se determinan a partir de los valores iniciales.

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}+ c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{2} \\ c_{3}
\end{pmatrix} $$

Esto implica que $c_{1} = 1$, $c_{2} = 2$ y $c_{3} = 1$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = e^{2t} \left[ \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + 2 \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right] = e^{2t} \begin{pmatrix}
1+ 5t -\dfrac{1}{2}t^{2} \\ 2 -t \\ 1
\end{pmatrix}$$

$\square$

Para concluir con el método de valores y vectores propios enunciaremos un importante teorema que es bueno tener en cuenta cuando trabajamos con valores y vectores propios. Este resultado es conocido como teorema de Cayley – Hamilton, la demostración no la haremos ya que se requiere de teoría de álgebra lineal que no veremos en este curso, pero que por supuesto puedes revisar en entradas de la materia correspondiente.

Teorema de Cayley – Hamilton

En el ejemplo anterior obtuvimos que la ecuación característica de la matriz $\mathbf{A}$ es

$$P(\lambda) = (2 -\lambda)^{3} = 0 \label{19} \tag{19}$$

Observemos que si sustituimos $\lambda$ por la matriz $\mathbf{A}$ obtenemos lo siguiente.

\begin{align*}
P(\mathbf{A}) &= (2 \mathbf{I} -\mathbf{A})^{3} \\
&= \left[ \begin{pmatrix}
2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 2
\end{pmatrix} – \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \right]^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix}
\end{align*}

Vemos que se cumple

$$P(\mathbf{A}) = (2 \mathbf{I} -\mathbf{A})^{3} = \mathbf{0} \label{20} \tag{20}$$

Esto no es casualidad, resulta que cualquier matriz $\mathbf{A}$ de $n \times n$ ¡satisface su propia ecuación característica!. El teorema de Cayley – Hamilton establece este hecho.

Con esto concluimos esta entrada y el estudio de los sistemas lineales homogéneos. En la siguiente entrada aprenderemos a resolver sistemas lineales no homogéneos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 3 \\ -3 & 5
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 1 \\ 2 & 1 & -1 \\ -3 & 2 & 4
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & -1 & 0 \\ 0 & 2 & 1 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & -1 & 2
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 1 & 2 \\ -1 & 1 & 1 \\ -2 & 1 & 3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -4 & -4 & 0 \\ 10 & 9 & 1 \\ -4 & -3 & 1
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    2 \\ 1 \\ -1
    \end{pmatrix}$

Más adelante…

Hemos concluido con los tres casos del método de valores y vectores propios para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas.

En la siguiente entrada comenzaremos a resolver sistemas lineales no homogéneos, el método que se utiliza es nuevamente el método de variación de parámetros. Veremos cómo es que este método se adapta a los sistemas lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»