Archivo de la etiqueta: valores propios complejos

Ecuaciones Diferenciales I: Teoría cualitativa de los sistemas lineales homogéneos – Valores propios complejos

Las matemáticas es una ciencia que dibuja conclusiones necesarias.
– Benjamin Peirce

Introducción

En la entrada anterior estudiamos los sistemas lineales en los que los valores propios de la matriz $\mathbf{A}$ eran reales y distintos, en esta entrada estudiaremos sistemas lineales en los que los valores propios son complejos.

Antes de comenzar con el desarrollo cualitativo es conveniente recordar algunos resultados importantes de estos sistemas.

Sistemas lineales con valores propios complejos

El sistema que estamos analizando es

\begin{align*}
x^{\prime} &= ax + by \\
y^{\prime} &= cx + dy \label{1} \tag{1}
\end{align*}

Definimos,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime} \\ y^{\prime}
\end{pmatrix}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
x \\ y
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix}$$

De manera que el sistema (\ref{1}) se pueda escribir como

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

Sea

$$\lambda = \alpha + i \beta \label{3} \tag{3}$$

un valor propio de la matriz $\mathbf{A}$, con $\alpha$ y $\beta$ reales. Y sea

$$\mathbf{K} = \mathbf{U} + i \mathbf{V} \label{4} \tag{4}$$

un vector propio de $\mathbf{A}$ asociado a $\lambda$. Entonces la solución del sistema (\ref{1}) se puede escribir como

$$\mathbf{Y}(t) = (\mathbf{U} + i \mathbf{V}) e^{(\alpha + i \beta)t} \label{5} \tag{5}$$

En la unidad anterior vimos que si definimos los vectores

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

donde $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ están dados como

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] \label{6} \tag{6}$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{7} \tag{7}$$

entonces la solución general real del sistema (\ref{1}) es

$$\mathbf{Y}(t) = c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) \label{8} \tag{8}$$

Por lo tanto, las soluciones linealmente independientes son

$$\mathbf{Y}_{1}(t) = c_{1} e^{\alpha t} \left[ \mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t) \right] \label{9} \tag{9}$$

y

$$\mathbf{Y}_{2}(t) = c_{2} e^{\alpha t} \left[ \mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t) \right] \label{10} \tag{10}$$

La expresión $k_{1} \cos(\beta t) + k_{2} \sin(\beta t)$, donde $k_{1}$ y $k_{2}$ son constantes, se puede expresar en la forma $R \cos(\beta t -\delta)$ para una elección adecuada de constantes $R$ y $\delta$. De tarea moral demuestra que la solución (\ref{8}) se puede expresar de la siguiente forma.

$$\mathbf{Y}(t) = e^{\alpha t} \begin{pmatrix}
R_{1} \cos(\beta t -\delta_{1}) \\ R_{2} \cos(\beta t -\delta_{2})
\end{pmatrix} \label{11} \tag{11}$$

para alguna elección de constantes $R_{1} \geq 0$, $R_{2} \geq 0$, $\delta_{1}$ y $\delta_{2}$.

Con esto en mente pasemos a estudiar cada caso en el que los valores propios son complejos.

Valores propios complejos con parte real nula

Caso 1: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha = 0$.

En este caso se dice que los valores propios son imaginarios puros ya que no tienen parte real. De la solución (\ref{11}) vemos que si $\alpha = 0$, entonces la expresión se reduce a

$$\mathbf{Y}(t) = \begin{pmatrix}
R_{1} \cos(\beta t -\delta_{1}) \\ R_{2} \cos(\beta t -\delta_{2})
\end{pmatrix} \label{12} \tag{12}$$

Las soluciones $x(t)$ y $y(t)$ son

$$x(t) = R_{1} \cos(\beta t -\delta_{1}) \hspace{1cm} y \hspace{1cm} y(t) = R_{2} \cos(\beta t -\delta_{2}) \label{13} \tag{13}$$

Estas funciones son periódicas en el tiempo, con periodo $2 \pi / \beta$. Como $|\cos(\beta t -\delta_{1})| \leq 1$ y $|\cos(\beta t -\delta_{2})| \leq 1$, entonces la función $x(t)$ varia entre $-R_{1}$ y $+R_{1}$, mientras que $y(t)$ varia entre $-R_{2}$ y $+R_{2}$. Por tanto, la trayectoria de cualquier solución $\mathbf{Y}(t)$ de (\ref{1}) es una curva cerrada que rodea al origen $x = y = 0$, es por ello que se dice que el punto de equilibrio $Y_{0} = (0, 0)$ es un centro y es estable.

A continuación se muestra el plano fase.

Plano fase con parte real nula.

La dirección de las trayectorias se determina a partir del sistema (\ref{1}). Buscamos el signo de $y^{\prime}$ cuando $y = 0$. Si $y^{\prime}$ es mayor que cero para $y = 0$ y $x > 0$, entonces todas las trayectorias se mueven en sentido contrario a las manecillas del reloj. Si $y^{\prime}$ es menor que cero para $y = 0$ y $x > 0$, entonces todas las trayectorias se mueven en el sentido de las manecillas del reloj.

Ahora estudiemos los casos en los que los valores propios tienen parte real no nula.

Valores propios complejos con parte real negativa

Caso 2: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha < 0$.

En este caso las soluciones son

$$\mathbf{Y}(t) = e^{\alpha t} \begin{pmatrix}
R_{1} \cos(\beta t -\delta_{1}) \\ R_{2} \cos(\beta t -\delta_{2})
\end{pmatrix}$$

o bien,

$$x(t) = e^{\alpha t} R_{1} \cos(\beta t -\delta_{1}) \hspace{1cm} y \hspace{1cm} y(t) = e^{\alpha t} R_{2} \cos(\beta t -\delta_{2}) \label{14} \tag{14}$$

Si $t = 0$, se obtiene que

$$\mathbf{Y}(0) = \begin{pmatrix}
R_{1} \cos(-\delta_{1}) \\ R_{2} \cos(-\delta_{2})
\end{pmatrix} \label{15} \tag{15}$$

Sabemos que el periodo es $2 \pi / \beta$, notemos que si $t = 2 \pi / \beta$, entonces

$$\mathbf{Y}(2 \pi / \beta) = e^{2 \pi \alpha / \beta} \begin{pmatrix}
R_{1} \cos(2 \pi -\delta_{1}) \\ R_{2} \cos(2 \pi -\delta_{2})
\end{pmatrix} = e^{2 \pi \alpha / \beta} \begin{pmatrix}
R_{1} \cos(-\delta_{1}) \\ R_{2} \cos(-\delta_{2})
\end{pmatrix}$$

esto es,

$$\mathbf{Y}(2 \pi / \beta) = e^{2 \pi \alpha / \beta } \mathbf{Y}(0) \label{16} \tag{16}$$

Como

$$\mathbf{Y}(2 \pi / \beta) < \mathbf{Y}(0)$$

es decir,

$$x(2 \pi / \beta) < x(0) \hspace{1cm} y \hspace{1cm} y( 2 \pi / \beta) < y(0)$$

entonces $\mathbf{Y}(2 \pi / \beta)$ está más cerca del origen que $\mathbf{Y}(0)$. Esto significa que, para $\alpha < 0$, el efecto del factor $e^{\alpha t}$ sobre la solución (\ref{11}) es el de cambiar las curvas cerradas del caso anterior en espirales que se aproximan hacia el origen.

El plano fase se muestra a continuación.

Plano fase con parte real negativa.

De forma similar al caso anterior, la dirección de las trayectorias se determina a partir del sistema (\ref{1}). En este caso se dice que el punto de equilibrio $Y_{0} = (0, 0)$ de (\ref{1}) es un foco estable, o también se conoce como espiral atractor. La estabilidad de este punto de equilibrio es asintóticamente estable.

Para concluir veamos que ocurre si $\alpha$ es positiva.

Valores propios complejos con parte real positiva

Caso 3: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha > 0$.

En este caso nuevamente las soluciones son

$$\mathbf{Y}(t) = e^{\alpha t} \begin{pmatrix}
R_{1} \cos(\beta t -\delta_{1}) \\ R_{2} \cos(\beta t -\delta_{2})
\end{pmatrix}$$

o bien,

$$x(t) = e^{\alpha t} R_{1} \cos(\beta t -\delta_{1}) \hspace{1cm} y \hspace{1cm} y(t) = e^{\alpha t} R_{2} \cos(\beta t -\delta_{2})$$

Sin embargo, debido a que $\alpha > 0$, se puede probar que

$$\mathbf{Y}(2 \pi / \beta) > \mathbf{Y}(0)$$

es decir,

$$x(2 \pi / \beta) > x(0) \hspace{1cm} y \hspace{1cm} y( 2 \pi / \beta) > y(0)$$

lo que significa que ahora $\mathbf{Y}(0)$ está más cerca del origen que $\mathbf{Y}(2 \pi / \beta)$.

Por lo tanto, en este caso todas las soluciones de (\ref{1}) describen espirales que se alejan del origen conforme $t \rightarrow \infty$, y se dice que el punto de equilibrio $Y_{0} = (0, 0)$ de (\ref{1}) es un foco inestable o espiral repulsor. Es claro que el punto de equilibrio es inestable.

El plano fase se muestra a continuación.

Plano fase con parte real positiva.

Hemos revisado los casos posibles. Para concluir con la entrada realicemos un ejemplo por cada caso.

Caso 1: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha = 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 1 \\ -5 & -2
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
2 -\lambda & 1 \\ -5 & -2 -\lambda
\end{vmatrix} = (2 -\lambda)(-2 -\lambda) + 5 = \lambda^{2} + 1 = 0$$

Las raíces son $\lambda_{1} = i$ y $\lambda_{2} = -i$, notamos que $\alpha = 0$ y $\beta = 1$, determinemos los vectores propios resolviendo la ecuación

$$(\mathbf{A} -i \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
2 -i & 1 \\ -5 & -2-i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
(2 -i)k_{1} + k_{2} &= 0 \\
-5k_{1} -(2 + i)k_{2} &= 0
\end{align*}

Vemos que

$$k_{1} = -\left( \dfrac{2 + i}{5} \right)k_{2}$$

Sea $k_{2} = -5$, tal que $k_{1} = 2 + i$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 + i \\ -5
\end{pmatrix} = \begin{pmatrix}
2 \\ -5
\end{pmatrix} + i \begin{pmatrix}
1 \\ 0
\end{pmatrix}$$

Sabemos que $\mathbf{K}_{2} = \bar{\mathbf{K}}_{1}$, entonces el segundo vector propio asociado al valor propio $\lambda_{2} = -i$ es

$$\mathbf{K}_{2} = \begin{pmatrix}
2 -i \\ -5
\end{pmatrix} = \begin{pmatrix}
2 \\ -5
\end{pmatrix} -i \begin{pmatrix}
1 \\ 0
\end{pmatrix}$$

La primera solución linealmente independiente es

$$\mathbf{Y}_{1}(t) = e^{it} \begin{pmatrix}
2 + i \\ -5
\end{pmatrix}$$

Notemos lo siguiente.

\begin{align*}
e^{it} \begin{pmatrix}
2 + i \\ -5
\end{pmatrix} &= \left[ \cos(t) + i \sin(t) \right] \left[ \begin{pmatrix}
2 \\ -5
\end{pmatrix} + i \begin{pmatrix}
1 \\ 0
\end{pmatrix} \right] \\
&= \cos(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} -\sin(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix} + i \cos(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix} + i \sin(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix}
\end{align*}

De donde definimos

$$\mathbf{W}_{1} = \cos(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} -\sin(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix}$$

y

$$\mathbf{W}_{2} = \sin(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} + \cos(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix}$$

Por lo tanto, la solución general real es

$$\mathbf{Y}(t) = c_{1} \left[ \cos(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} -\sin(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix} \right] + c_{2} \left[ \sin(t) \begin{pmatrix}
2 \\ -5
\end{pmatrix} + \cos(t) \begin{pmatrix}
1 \\ 0
\end{pmatrix} \right]$$

En términos de las funciones $x(t)$ y $y(t)$ se tienen las soluciones

\begin{align*}
x(t) &= [2c_{1} + c_{2}] \cos(t) + [-c_{1} + 2c_{2}] \sin(t) \\
y(t) &= -5c_{1} \cos(t) -5c_{2} \sin(t)
\end{align*}

Las soluciones son de la forma

\begin{align*}
x(t) &= k_{1} \cos(t) + k_{2} \sin(t) \\
y(t) &= k_{3} \cos(t) + k_{4} \sin(t)
\end{align*}

También es posible determinar las constantes $R_{1}$, $R_{2}$, $\delta_{1}$ y $\delta_{2}$ en términos de las constantes $c_{1}$ y $c_{2}$, tal que la solución se pueda escribir como

\begin{align*}
x(t) &= R_{1} \cos(t -\delta_{1})\\
y(t) &= R_{2} \cos(t -\delta_{2})
\end{align*}

En este caso como $\beta = 1$, entonces el periodo es $T = 2\pi$. La función paramétrica que define las trayectorias está dada por

$$f(t) = (k_{1} \cos(t) + k_{2} \sin(t), k_{3} \cos(t) + k_{4} \sin(t))$$

Es claro que las trayectorias son curvas cerradas con periodo $2 \pi$.

Para determinar la dirección de las trayectorias consideremos la ecuación $y^{\prime}$ del sistema, dicha ecuación es

$$y^{\prime} = -5x -2y$$

Si $y = 0$ se tiene la ecuación $y^{\prime} = -5x$, vemos que si $x > 0$, entonces $y^{\prime} < 0$, por lo tanto las trayectorias se mueven en el sentido de las manecillas del reloj.

El plano fase indicando algunas trayectorias se muestra a continuación.

Plano fase del sistema.

El campo vectorial está definido por la función

$$F(x, y) = (2x + y, -5x -2y)$$

A continuación se muestra dicho campo vectorial y algunas trayectorias.

Trayectorias y campo vectorial.

Efectivamente, el punto de equilibrio $Y_{0} = (0, 0)$ es un centro.

$\square$

Veamos como se pierde esta regularidad si $\alpha \neq 0$.

Caso 2: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha < 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -4 \\ 1 & -1
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
-1 -\lambda & -4 \\ 1 & -1 -\lambda
\end{vmatrix} = (-1 -\lambda)^{2} + 4 = \lambda^{2} + 2 \lambda + 5 = 0$$

Las raíces son $\lambda_{1} = -1 + 2i$ y $\lambda_{2} = -1 -2i$ (con $\alpha = -1$ y $\beta = 2$). Resolvamos la siguiente ecuación para obtener los vectores propios.

$$(\mathbf{A} -( -1 + 2i) \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
-2i & -4 \\ 1 & -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Se obtiene que $k_{1} = 2ik_{2}$. Sea $k_{2} = 1$, entonces $k_{1} = 2i$, así el primer vector propios es

$$\mathbf{K}_{1} = \begin{pmatrix}
2i \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
2 \\ 0
\end{pmatrix} $$

Considerando que $\mathbf{K}_{2} = \bar{\mathbf{K}}_{1}$ , entonces el segundo vector propio, asociado a $\lambda_{2} = -1 -2i$ es

$$\mathbf{K}_{2} = \begin{pmatrix}
-2i \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\ 1
\end{pmatrix} -i \begin{pmatrix}
2 \\ 0
\end{pmatrix}$$

Sabemos que la primer solución es

$$\mathbf{Y}_{1}(t) = e^{(-1 + 2i)t} \begin{pmatrix}
2i \\ 1
\end{pmatrix}$$

Notemos lo siguiente.

\begin{align*}
e^{(-1 + 2i)t} \begin{pmatrix}
2i \\ 1
\end{pmatrix} &= e^{-t} [\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
2 \\ 0
\end{pmatrix} \right] \\
&= e^{-t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} -\sin(2t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} + i \cos (2t) \begin{pmatrix}
2 \\ 0 \end{pmatrix} + i \sin(2t) \begin{pmatrix}
0 \\ 1 \end{pmatrix} \right]
\end{align*}

De donde definimos

$$\mathbf{W}_{1}(t) = e^{-t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} -\sin (t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} \right]$$

y

$$\mathbf{W}_{2}(t) = e^{-t} \left[ \cos(t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} \right]$$

Por lo tanto, la solución general real es

$$\mathbf{Y}(t) = c_{1} e^{-t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} -\sin (t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} \right] + c_{2} e^{-t} \left[ \cos(t) \begin{pmatrix}
2 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 1
\end{pmatrix} \right]$$

Las funciones $x(t)$ y $y(t)$ son

\begin{align*}
x(t) &= -2c_{1}e^{-t} \sin(2t) + 2c_{2}e^{-t} \cos(2t) \\
y(t) &= c_{1}e^{-t} \cos(2t) + c_{2}e^{-t} \sin(2t)
\end{align*}

Estas funciones también se pueden escribir como

\begin{align*}
x(t) &= e^{-t} R_{1} \cos(2t -\delta_{1}) \\
y(t) &= e^{-t} R_{2} \cos(2t -\delta_{2})
\end{align*}

De tarea moral determina las constantes $R_{1}$, $R_{2}$, $\delta_{1}$ y $\delta_{2}$ en términos de las constantes $c_{1}$ y $c_{2}$.

Podemos notar que las soluciones ya no son trayectorias cerradas debido al término $e^{-t}$. En este caso el periodo es $t = 2 \pi / 2 = \pi$. Notemos que

\begin{align*}
x(0) &= 2c_{2} = R_{1} \cos(-\delta_{1}) \\
y(0) &= c_{1} = R_{2} \cos(-\delta_{2})
\end{align*}

Mientras que

\begin{align*}
x(\pi) &= 2 e^{-\pi} c_{2} = R_{1} e^{-\pi} \cos(-\delta_{1}) \\
y(\pi) &= e^{-\pi} c_{1} = R_{2} e^{-\pi} \cos(-\delta_{2})
\end{align*}

Como $e^{-\pi} < 1$, entonces

$$x(\pi) < x(0) \hspace{1cm} y \hspace{1cm} y(\pi) < y(0)$$

Por lo tanto las trayectorias corresponden a espirales que se aproximan hacia el origen.

La función paramétrica que define las trayectorias es

$$f(t) = (-2c_{1}e^{-t} \sin(2t) + 2c_{2}e^{-t} \cos(2t), c_{1}e^{-t} \cos(2t) + c_{2}e^{-t} \sin(2t))$$

Para determinar la dirección en que giran las trayectorias consideremos la ecuación $y^{\prime}$ del sistema, dicha ecuación es

$$y^{\prime} = x -y$$

Si $y = 0$, entonces $y^{\prime} = x$ y si $x > 0$, entonces $y^{\prime} > 0$, por lo tanto las trayectorias se mueven en el sentido opuesto a las manecillas del reloj.

El plano fase con algunas trayectorias se muestra a continuación.

Plano fase del sistema.

El campo vectorial asociado está definido por la función

$$F(x, y) = (-x -4y, x -y)$$

Dicho campo y algunas trayectorias se muestran en la siguiente figura.

Trayectorias y campo vectorial.

El punto de equilibrio $Y_{0} = (0, 0)$ es un foco estable.

$\square$

Concluyamos con un último ejemplo.

Caso 3: $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$, con $\alpha > 0$.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
3 & -2 \\ 4 & -1
\end{pmatrix} \mathbf{Y}$$

Solución: Determinemos los valores propios.

$$\begin{vmatrix}
3 -\lambda & -2 \\ 4 & -1 -\lambda
\end{vmatrix} = (3 -\lambda)(-1 -\lambda) + 8 = \lambda^{2} -2 \lambda + 5 = 0$$

Los valores propios son $\lambda_{1} = 1 + 2i$ y $\lambda_{2} = 1 -2i$ (con $\alpha = 1$ y $\beta = 2$ ). Determinemos los vectores propios con la ecuación

$$(\mathbf{A} -(1 + 2i) \mathbf{I}) \mathbf{K} = \mathbf{0}$$

o bien,

$$\begin{pmatrix}
2 -2i & -2 \\ 4 & -2 -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

De este sistema se obtiene que

$$k_{1} = \left( \dfrac{1+ i}{2} \right) k_{2}$$

Sea $k_{2} = 1$, entonces $k_{1} = \dfrac{1 + i}{2}$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
\dfrac{1 + i}{2} \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} $$

y sabemos enseguida que

$$\mathbf{K}_{2} = \begin{pmatrix}
\dfrac{1 -i}{2} \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\ 1
\end{pmatrix} -i \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} $$

La primer solución linealmente independiente es

$$Y_{1}(t) = e^{(1 + 2i)t} \begin{pmatrix}
\dfrac{1 + i}{2} \\ 1
\end{pmatrix}$$

Vemos que

\begin{align*}
e^{(1 + 2i)t} \begin{pmatrix}
\dfrac{1 + i}{2} \\ 1
\end{pmatrix} &= e^{t} [\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} + i \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} -\sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} + i \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} + i \sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} \right]
\end{align*}

de donde,

$$\mathbf{W}_{1}(t) = e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} -\sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} \right]$$

y

$$\mathbf{W}_{2}(t) = e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} \right]$$

Por lo tanto, la solución general real del sistema es

$$\mathbf{Y}(t) = c_{1} e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} -\sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} \right] + c_{2} e^{t} \left[ \cos(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
\dfrac{1}{2} \\ 1
\end{pmatrix} \right]$$

Las funciones $x(t)$ y $y(t)$ son

\begin{align*}
x(t) &= e^{t} \left( \dfrac{c_{1} + c_{2}}{2} \right) \cos(2t) + e^{t} \left( \dfrac{c_{2} -c_{1}}{2} \right) \sin(2t) \\
y(t) &= c_{1}e^{t} \cos(2t) + c_{2}e^{t} \sin(2t)
\end{align*}

El periodo de las soluciones es $T = 2 \pi / 2 = \pi$. Muestra, de manera similar a como lo hicimos en el ejemplo anterior, que

$$x(\pi) > x(0) \hspace{1cm} y \hspace{1cm} y(\pi) > y(0)$$

esto debido a que $e^{\pi} > 1$. Por lo tanto, las trayectorias describen espirales que se alejan del origen.

La función paramétrica que define a las trayectorias es

$$f(t) = (k_{1} e^{t} \cos(2t) + k_{2} e^{t} \sin(2t), c_{1}e^{t} \cos(2t) + c_{2}e^{t} \sin(2t) )$$

Con

$$k_{1} = \left( \dfrac{c_{1} + c_{2}}{2} \right) \hspace{1cm} y \hspace{1cm} k_{2} = \left( \dfrac{c_{2} -c_{1}}{2} \right)$$

Para determinar la dirección de las trayectorias consideremos la ecuación

$$y^{\prime} = 4x -y$$

Si $y = 0$ se obtiene que $y^{\prime} = 4x$ y si $x > 0$, entonces $y^{\prime} > 0$, por lo tanto, las trayectorias se mueven en el sentido opuesto a las manecillas del reloj.

El plano fase se muestra a continuación.

Plano fase del sistema.

La función vectorial que define al campo vectorial es

$$F(x, y) = (3x -2y, 4x -y)$$

El campo vectorial y algunas trayectorias se ilustran en la siguiente figura.

Trayectorias y campo vectorial.

El punto de equilibrio $Y_{0} = (0, 0)$ corresponde a un foco inestable.

$\square$

Hemos concluido con esta entrada. Continuemos en la siguiente entrada con el análisis en el caso en el que los valores propios de la matriz $\mathbf{A}$ son iguales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales y hacer un análisis cualitativo de las soluciones.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 4 \\ -9 & 0
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & -1 \\ 5 & 2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 5 & -3
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & -5 \\ 4 & -2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    4 & 5 \\ -2 & 6
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -8 \\ 1 & -3
    \end{pmatrix} \mathbf{Y}$

Más adelante…

Continuando con nuestro estudio cualitativo de los sistemas lineales homogéneos con dos ecuaciones diferenciales, en la siguiente entrada veremos que ocurre en el plano fase cuando los valores propios de la matriz $\mathbf{A}$ son repetidos.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Plano fase para sistemas lineales con valores propios complejos

Introducción

En la entrada anterior comenzamos a estudiar el plano fase para sistemas de dos ecuaciones homogéneas con coeficientes constantes de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ En particular, revisamos el caso cuando los valores propios del sistema son reales distintos y no son cero. Vimos que el comportamiento de las curvas y la estabilidad del punto de equilibrio dependen del signo de los valores propios. Así, cuando los signos difieren tenemos un punto silla (inestable), cuando los dos valores propios son negativos tenemos un atractor (punto de equilibrio asintóticamente estable) y finalmente, cuando ambos valores propios son positivos el punto de equilibrio es un repulsor (inestable).

Es turno ahora de analizar el plano fase para sistemas cuyos valores propios son complejos. Sabemos que si $\lambda_{1}=\alpha + \beta i$ es un valor propio del sistema, entonces su conjugado $\lambda_{2}=\alpha – \beta i$ también es un valor propio. Además la solución general a dichos sistemas tiene la forma $$\textbf{X}(t)=c_{1}e^{\alpha t}\left(\cos{\beta t}\begin{pmatrix} u_{1} \\ u_{2} \end{pmatrix}-\sin{\beta t}\begin{pmatrix} v_{1} \\ v_{2} \end{pmatrix}\right)+c_{2}e^{\alpha t}\left(\sin{\beta t} \begin{pmatrix} u_{1} \\ u_{2} \end{pmatrix}+\cos{\beta t} \begin{pmatrix} v_{1} \\ v_{2} \end{pmatrix}\right)$$ donde los vectores $(u_{1},u_{2})$ y $(v_{1},v_{2})$ son vectores tales que $$\textbf{w}=(u_{1},u_{2})+i(v_{1},v_{2})$$ es un vector propio para $\lambda_{1}$.

Estudiaremos las soluciones cuando $t \rightarrow \infty$. La forma del plano fase va a depender de la parte real $\alpha$ de los valores propios (nota que los dos valores propios tienen la misma parte real), por lo que distinguiremos tres casos, según $\alpha$ sea positivo, negativo o cero. Finalmente clasificaremos a los puntos de equilibrio según su estabilidad.

Plano fase para sistemas con valores propios complejos

En el primer video estudiamos de manera general el plano fase para sistemas de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuyos valores propios son complejos. Analizamos tres casos: cuando la parte real de los valores propios es positiva, negativa o cero.

En el segundo video resolvemos y dibujamos el plano fase para distintos sistemas con valores propios complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Los campos vectoriales de las imágenes fueron realizados en el siguiente enlace.

  • Prueba que la función $$\textbf{X}(t)=\begin{pmatrix} (c_{1}u_{1}+c_{2}v_{1})\cos{\beta t}+(c_{2}u_{1}-c_{1}v_{1})\sin{\beta t} \\ (c_{1}u_{2}+c_{2}v_{2})\cos{\beta t}+(c_{2}u_{2}-c_{1}v_{2})\sin{\beta t} \end{pmatrix}$$ es periódica, con período $\frac{2\pi}{\beta}$, donde $c_{1},c_{2},u_{1},u_{2},v_{1},v_{2}$ son valores constantes.
  • De acuerdo al ejercicio anterior, concluye que si un sistema homogéneo con coeficientes constantes tiene un valor propio complejo $\lambda_{1}=\beta i$ con vector propio asociado $\textbf{w}=(u_{1},u_{2})+i(v_{1},v_{2})$, entonces las curvas en el plano fase son cerradas.
  • Considera ahora la función $$\textbf{X}(t)=e^{\alpha t}\begin{pmatrix} (c_{1}u_{1}+c_{2}v_{1})\cos{\beta t}+(c_{2}u_{1}-c_{1}v_{1})\sin{\beta t} \\ (c_{1}u_{2}+c_{2}v_{2})\cos{\beta t}+(c_{2}u_{2}-c_{1}v_{2})\sin{\beta t} \end{pmatrix}$$ con $\alpha \neq 0$. Prueba que los puntos en el plano que son imagen de valores periódicos bajo la función del primer ejercicio se quedan contenidos en una recta. Concluye el comportamiento espiral de las soluciones a sistemas de ecuaciones con valores complejos cuya parte real es distinta de cero.
  • Prueba que el punto de equilibrio del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & b \\ -b & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ es un centro.
  • Resuelve y dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 2 & 1 \\ -2 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Encuentra la solución general y dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & 1 \\ -1 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & 1 \\ -5 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$

(Recuerda que puedes apoyarte del campo vectorial asociado para dibujar el plano fase).

Más adelante

Seguimos avanzando en el estudio del plano fase para sistemas homogéneos con coeficientes constantes. Ya sabemos la forma de las soluciones para sistemas cuyos valores propios son reales distintos y no nulos, o complejos. En la próxima entrada continuaremos revisando el plano fase, pero ahora para sistemas que tienen valores propios repetidos.

¡Hasta la próxima!

Entradas relacionadas

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios complejos

Un matemático que no es también algo de poeta
nunca será un matemático completo.
– Karl Weierstrass

Introducción

Ya vimos cómo obtener la solución general de sistemas lineales homogéneos con coeficientes constantes en el caso en el que los valores propios son todos reales y distintos. En esta entrada desarrollaremos el caso en el que los valores propios son complejos.

Valores propios complejos

Vimos que para un sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{1} \tag{1}$$

con $\mathbf{A}$ una matriz de $n \times n$ con componentes reales

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

siempre se puede encontrar una solución de la forma

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t} \label{3} \tag{3}$$

Ahora sabemos que $\lambda$ y $\mathbf{K}$ corresponden a un valor y vector propio respectivamente. Como los valores propios se obtienen de encontrar las raíces del polinomio característico, entonces es posible que los valores propios sean números complejos, digamos de la forma

$$\lambda = \alpha + i \beta \label{4} \tag{4}$$

Con $\alpha$ y $\beta$ reales. Veremos más adelante que este tipo de valores propios generarán también vectores propios con componentes complejos que podremos escribir como

$$\mathbf{K} = \mathbf{U} + i \mathbf{V} \label{5} \tag{5}$$

Con estos resultados la solución (\ref{3}) se puede escribir como

$$\mathbf{Y}(t) = \begin{pmatrix}
u_{1} + i v_{1} \\ u_{2} + i v_{2} \\ \vdots \\ u_{n} + i v_{n}
\end{pmatrix}e^{(\alpha + i \beta)t} = (\mathbf{U} + i \mathbf{V}) e^{(\alpha + i \beta)t} \label{6} \tag{6}$$

Un resultado interesante es que los valores y vectores propios conjugados de (\ref{4}) y (\ref{5}) también son valores y vectores propios de la misma matriz $\mathbf{A}$. Demostremos este hecho.

Recordemos que estamos denotando con $M_{n \times n}$ al conjunto de todas las matrices cuadradas de $n \times n$ con componentes reales y constantes.

Demostración: Por hipótesis $\lambda$ es un valor propio de $\mathbf{A}$, lo que significa que se cumple la relación

$$\mathbf{AK} = \lambda \mathbf{K} \label{7} \tag{7}$$

Con $\mathbf{K}$ el vector propio asociado a $\lambda$. Si tomamos el conjugado de la ecuación anterior, tenemos

$$\overline{\mathbf{AK}} = \overline{\lambda \mathbf{K}}$$

o bien,

$$\mathbf{\bar{A}} \mathbf{\bar{K}} = \bar{\lambda} \mathbf{\bar{K}} \label{8} \tag{8}$$

Pero como $\mathbf{A} \in M_{n \times n}$, es decir, $\mathbf{A}$ es una matriz con componentes reales constantes, entonces $\mathbf{\overline{A}} = \mathbf{A}$. La ecuación (\ref{8}) queda como

$$\mathbf{A} \mathbf{\overline{K}} = \bar{\lambda} \mathbf{\overline{K}} \label{9} \tag{9}$$

Lo que muestra que $\overline{\lambda}$ es también un valor propio de $\mathbf{A}$ y el vector propio asociado es $\mathbf{\overline{K}}$.

$\square$

Como $\lambda$ y $\overline{\lambda}$ son valores propios, con vectores propios asociados $\mathbf{{K}}$ y $\mathbf{\overline{K}}$ respectivamente, de la misma matriz $\mathbf{A}$, por el último teorema de la entrada correspondiente podemos deducir que la solución conjugada de (\ref{6})

$$\mathbf{\overline{Y}}(t) = \begin{pmatrix}
u_{1} -i v_{1} \\ u_{2} -i v_{2} \\ \vdots \\ u_{n} -i v_{n}
\end{pmatrix}e^{(\alpha -i \beta)t} = (\mathbf{U} -i \mathbf{V}) e^{(\alpha -i \beta)t} \label{10} \tag{10}$$

es también una solución del sistema lineal (\ref{1}) y además las soluciones (\ref{6}) y (\ref{10}) son linealmente independientes por el mismo teorema.

A continuación enunciamos un teorema que establece que una solución como (\ref{6}) da lugar a dos soluciones con valores reales.

Demostración: Supongamos que la solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$ es de la forma

$$\mathbf{Y} = \mathbf{W}_{1} + i \mathbf{W}_{2} \label{11} \tag{11}$$

Donde $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son vectores con componentes reales.

Queremos probar que

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

también son soluciones del sistema lineal.

Por una lado, como $\mathbf{Y}$ es solución, entonces

$$\mathbf{Y}^{\prime} = \mathbf{AY} = \mathbf{A} (\mathbf{W}_{1} + i \mathbf{W}_{2}) = \mathbf{AW}_{1} + i \mathbf{AW}_{2} \label{12} \tag{12}$$

Por otro lado, notemos que

$$\mathbf{Y}^{\prime} = (\mathbf{W}_{1} + i \mathbf{W}_{2})^{\prime} = \mathbf{W}_{1}^{\prime} + i \mathbf{W}_{2}^{\prime} \label{13} \tag{13}$$

De (\ref{12}) y (\ref{13}), se tiene que

$$\mathbf{W}_{1}^{\prime} + i \mathbf{W}_{2}^{\prime} = \mathbf{AW}_{1} + i \mathbf{AW}_{2} \label{14} \tag{14}$$

Igualando las partes reales e imaginarias de (\ref{14}), se obtiene

$$\mathbf{W}_{1}^{\prime} = \mathbf{AW}_{1} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}^{\prime} = \mathbf{AW}_{2}$$

Lo que muestra que las funciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son soluciones con valores reales del sistema lineal (\ref{1}).

$\square$

Ahora que conocemos este resultado veamos que forma tienen las funciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$.

Demostración: Sabemos que una solución del sistema lineal (\ref{1}), en el caso en el que el valor y el vector propio son complejos, es

$$\mathbf{Y}(t) = e^{(\alpha + i \beta)t} (\mathbf{U} + i \mathbf{V})$$

Esta función la podemos escribir como

$$\mathbf{Y}(t) = e^{\alpha t} e^{i \beta t} \mathbf{U} + i e^{\alpha t} e^{i \beta t} \mathbf{V} \label{17} \tag{17}$$

Usando la identidad de Euler

$$e^{i \beta t} = \cos(\beta t) + i \sin(\beta t) \label{18} \tag{18}$$

podemos escribir la función (\ref{17}) como

\begin{align*}
\mathbf{Y} &= e^{\alpha t} [\cos(\beta t) + i \sin(\beta t)] \mathbf{U} + i e^{\alpha t}[\cos(\beta t) + i \sin(\beta t)] \mathbf{V} \\
&= e^{\alpha t} [\mathbf{U} \cos(\beta t) + i \mathbf{U} \sin(\beta t)] + i e^{\alpha t}[\mathbf{V} \cos(\beta t) + i \mathbf{V} \sin(\beta t)]
\end{align*}

Si reescribimos este resultado en una parte real y una imaginaria se tiene lo siguiente.

$$\mathbf{Y} = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] + i e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{19} \tag{19}$$

En esta forma podemos definir

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

entonces,

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)]$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)]$$

Por el teorema anterior concluimos que ambas son soluciones del sistema lineal (\ref{1}). Para mostrar que son soluciones linealmente independientes probemos que se cumple

$$c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) = 0 \label{20} \tag{20}$$

sólo si $c_{1} = c_{2} = 0$. Para ello consideremos la solución

$$\mathbf{Y} = \mathbf{W}_{1} + i \mathbf{W}_{2}$$

Por el primer teorema visto sabemos que el conjugado de la función anterior es también una solución del sistema.

$$\mathbf{\overline{Y}} = \mathbf{W}_{1} -i \mathbf{W}_{2} \label{21} \tag{21}$$

Y además ambas soluciones son linealmente independientes, lo que significa que si se satisface la ecuación

$$C_{1} \mathbf{Y} + C_{2} \mathbf{\overline{Y}} = 0 \label{22} \tag{22}$$

es porque $C_{1} = C_{2} = 0$.

Sustituyamos $\mathbf{Y}$ y $\mathbf{\overline{Y}}$ en (\ref{22}).

$$C_{1} [\mathbf{W}_{1} + i \mathbf{W}_{2}] + C_{2} [\mathbf{W}_{1} -i \mathbf{W}_{2}] = 0$$

Factorizando $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$, se tiene

$$(C_{1} + C_{2}) \mathbf{W}_{1} + i(C_{1} -C_{2}) \mathbf{W}_{2} = 0 \label{23} \tag{23}$$

Si definimos

$$c_{1} = C_{1} + C_{2} \hspace{1cm} y \hspace{1cm} c_{2} = i(C_{1} -C_{2})$$

podemos escribir

$$c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) = 0$$

Pero como $C_{1} = C_{2} = 0$, entonces

$$C_{1} + C_{2} = 0 \hspace{1cm} y \hspace{1cm} C_{1} -C_{2} = 0$$

es decir, $c_{1} = c_{2} = 0$, lo que muestra que las soluciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son linealmente independientes.

$\square$

Solución general de un sistema lineal con valores propios complejos

Nosotros ya sabemos que todos los vectores propios de una matriz $\mathbf{A}$, reales o complejos, son linealmente independientes, entonces un conjunto fundamental de soluciones de (\ref{1}) consiste de soluciones de la forma (\ref{15}) y (\ref{16}) en el caso en el que se obtienen valores propios complejos y soluciones de la forma (\ref{3}) cuando los valores propios son reales.

Por ejemplo, supongamos que $\lambda_{1} = \alpha + i \beta$, $\lambda_{2} = \alpha -i \beta$ son valores propios complejos de un sistema lineal y que $\lambda_{3}, \lambda_{4}, \cdots, \lambda_{n}$ son valores propios reales distintos del mismo sistema lineal. Los correspondientes vectores propios serían $\mathbf{K}_{1} = \mathbf{U} + i \mathbf{V}$, $\mathbf{K}_{2} = \mathbf{U} -i \mathbf{V}$, $\mathbf{K}_{3}, \mathbf{K}_{4}, \cdots, \mathbf{K}_{n}$. Entonces la solución general del sistema lineal será

$$\mathbf{Y}(t) = c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) + c_{3} e^{\lambda_{3} t} \mathbf{K}_{3} + c_{4} e^{\lambda_{4} t} \mathbf{K}_{4} + \cdots + c_{n} e^{\lambda_{n} t} \mathbf{K}_{n} \label{24} \tag{24}$$

Donde $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ son los vectores dados en (\ref{15}) y (\ref{16}), respectivamente.

Es importante mencionar que esta teoría se aplica sólo para el caso en que la matriz (\ref{2}) es una matriz con componentes reales.

Para concluir con esta entrada realicemos un ejemplo.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 1 & 1
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 1 \\ 1
\end{pmatrix}$$

Solución: En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 1 & 1
\end{pmatrix}$$

La ecuación característica la obtenemos de calcular el determinante

$$\begin{vmatrix}
1 -\lambda & 0 & 0 \\ 0 & 1- \lambda & -1 \\ 0 & 1 & 1 -\lambda
\end{vmatrix} = 0$$

De donde se obtiene que

$$(1 -\lambda)^{3} + (1 -\lambda) = (1 -\lambda)(\lambda^{2} -2 \lambda + 2) = 0$$

Al resolver para $\lambda$ se obtienen las siguientes tres raíces.

$$\lambda_{1} = 1, \hspace{1cm} \lambda_{2} = 1 + i \hspace{1cm} y \hspace{1cm} \lambda_{3} = 1 -i$$

Estos valores corresponden a los valores propios de la matriz del sistema. Determinemos los vectores correspondientes.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K}_{1} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -1 \mathbf{I}) \mathbf{K}_{1} = \mathbf{0}$$

$$\begin{pmatrix}
1 -1 & 0 & 0 \\ 0 & 1 -1 & -1 \\ 0 & 1 & 1 -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & -1 \\ 0 & 1 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

Es claro que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser libre lo elegimos como $k_{1} = 1$, entonces el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + i$.

Buscamos un vector $\mathbf{K}_{2}$ no nulo, tal que

$$(\mathbf{A} -(1 + i) \mathbf{I}) \mathbf{K}_{2} = \mathbf{0}$$

$$\begin{pmatrix}
1 -(1 + i) & 0 & 0 \\ 0 & 1 -(1 + i) & -1 \\ 0 & 1 & 1 -(1 + i)
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
-i & 0 & 0 \\ 0 & -i & -1 \\ 0 & 1 & -i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-i k_{1} &= 0 \\
-i k_{2} -k_{3} &= 0 \\
k_{2} -i k_{3} &= 0
\end{align*}

De la primera ecuación se obtiene que $k_{1} = 0$, y de la segunda o tercera se obtiene que $k_{2} = i k_{3}$. Elegimos $k_{3} = 1$, así $k_{2} = i$, entonces el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix}$$

Este vector al ser complejo lo podemos escribir como

$$\mathbf{K}_{2} = \mathbf{U} + i \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \label{25} \tag{25}$$

Caso 3: $\lambda_{3} = 1 -i$.

Este caso, como ya vimos en la teoría, corresponde al conjugado del caso anterior, así que el vector propio para este caso es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ -i \\ 1
\end{pmatrix}$$

que también se puede escribir como

$$\mathbf{K}_{3} = \mathbf{U} -i \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} -i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \label{26} \tag{26}$$

Por lo tanto, una forma de la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix} + c_{3} e^{(1 -i)t} \begin{pmatrix}
0 \\ -i \\ 1
\end{pmatrix} \label{27} \tag{27}$$

Sin embargo, es conveniente tener la solución real dada en (\ref{24}). De los resultados (\ref{25}) y (\ref{26}) sabemos que

$$\mathbf{U} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

Si sustituimos en (\ref{15}) y (\ref{16}) con $\alpha = \beta = 1$, obtenemos lo siguiente.

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} \label{28} \tag{28}$$

Por su puesto, lo ideal es no memorizar las ecuaciones (\ref{15}) y (\ref{16}). Lo que se debe de hacer es tomar el caso en el que el vector propio es complejo, en este caso $\lambda_{2} = 1 + i$ y el vector propio correspondiente $\mathbf{K}_{2} = \begin{pmatrix} 0 \\ i \\ 1 \end{pmatrix}$, tal que una solución del sistema es

$$\mathbf{Y}_{2}(t) = e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix}$$

y usamos la identidad de Euler (\ref{18}).

\begin{align*}
e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix} &= e^{t} [\cos(t) + i \sin(t)] \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} -\sin(t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \sin(t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \cos(t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + i e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix}
\end{align*}

De donde podemos definir las funciones anteriores (\ref{28}).

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix}$$

Por lo tanto, de acuerdo a (\ref{24}), la solución general $\mathbf{Y}(t)$ del sistema lineal homogéneo dado debe tener la forma

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} \label{29} \tag{29}$$

Apliquemos los valores iniciales. Tomando $t = 0$, se ve que

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 1 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{3} \\ c_{2}
\end{pmatrix}$$

De modo que, $c_{1} = c_{2} = c_{3} = 1$. Por lo tanto, la solución particular del problema de valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} = e^{t} \begin{pmatrix}
1 \\ \cos(t) -\sin(t) \\ \cos(t) + \sin(t)
\end{pmatrix} \label{30} \tag{30}$$

$\square$

Hemos concluido esta entrada. En la siguiente revisaremos el último caso que corresponde a la situación en la que tenemos valores propios que se repiten, es decir, que tienen multiplicidad $r > 1$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 2 \\ -1 & -1
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 0 & 1 \\ 0 & 1 & -1 \\ -2 & 0 & -1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -7 & 6 & -6 \\ -9 & 5 & -9 \\ 0 & -1 & -1
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 0 & 2 \\ 1 & -1 & 0 \\ -2 & -1 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ -1 \\ -2
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 2 & 0 & 0 \\ -2 & 0 & 0 & 0 \\ 0 & 0 & 0 & -3 \\ 0 & 0 & 3 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1 \\ 0
    \end{pmatrix}$

Más adelante…

Ya conocemos la forma de las soluciones generales de sistemas lineales homogéneos en los que los valores propios de la matriz del sistema son reales y distintos y en los que son números complejos. El caso en el que son repetidos se presentará en la siguiente entrada.

Cuando los valores propios son repetidos el método se puede complicar un poco, sin embargo existe una alternativa bastante ingeniosa que nos permite obtener $n$ soluciones linealmente independientes de un sistema lineal de $n$ ecuaciones. ¡Dicha alternativa involucra la utilidad de la exponencial de una matriz $e^{\mathbf{A} t}$!.

Entradas relacionadas