Archivo de la etiqueta: vectores propios

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios distintos

Por Omar González Franco

No debería haber algo como matemáticas aburridas.
– Edsger Dijkstra

Introducción

En la entrada anterior presentamos un breve repaso sobre valores y vectores propios de matrices y vimos cómo es que estas herramientas nos pueden ayudar a resolver sistemas de ecuaciones diferenciales de primer orden homogéneas con coeficientes constantes.

En dicha entrada vimos que para obtener los valores propios es necesario determinar la ecuación característica de la matriz, ésta ecuación resulta ser un polinomio de grado igual al número de ecuaciones que conformen al sistema lineal, así que si se trata de un sistema de $n$ ecuaciones, entonces el polinomio característico sera un polinomio de grado $n$, lo que significa que al resolver para la incógnita obtendremos $n$ raíces, es decir, $n$ valores propios. Ahora bien, sabemos que existen al menos tres casos que pueden ocurrir con dichas raíces y es que pueden ser reales y todas diferentes, pueden ser algunas repetidas o pueden ser incluso números complejos, para cada caso tendremos una forma particular de la solución general a tal sistema lineal.

Lo que desarrollaremos en las siguientes entradas será justamente estos tres casos. En esta entrada comenzaremos con el caso en el que los valores propios del sistema lineal son todos reales y distintos.

Recordemos que estamos intentando resolver un sistema lineal homogéneo con coeficientes constantes.

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}y_{1} + a_{12}y_{2} + \cdots + a_{1n}y_{n} \\
y_{2}^{\prime}(t) &= a_{21}y_{1} + a_{22}y_{2} + \cdots + a_{2n}y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}y_{1} + a_{n2}y_{2} + \cdots + a_{nn}y_{n} \label{1} \tag{1}
\end{align*}

Si $\mathbf{A}$ es la matriz de $n \times n$ con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Entonces el sistema lineal a resolver es

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

Valores propios reales distintos

Con lo visto en la entrada anterior sabemos que si una matriz $\mathbf{A}$ de $n \times n$ tiene $n$ valores propios reales y distintos $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$, entonces siempre se puede encontrar un conjunto de $n$ vectores propios linealmente independientes $\mathbf{v}_{1}, \mathbf{v}_{2}, \cdots, \mathbf{v}_{n}$.

Por otro lado, con el último teorema visto en la entrada anterior sabemos que si

$$\mathbf{Y}_{1} = \mathbf{K}_{1}e^{\lambda_{1}t}, \hspace{1cm} \mathbf{Y}_{2} = \mathbf{K}_{2}e^{\lambda_{2}t}, \hspace{1cm} \cdots, \hspace{1cm} \mathbf{Y}_{n} = \mathbf{K}_{n}e^{\lambda_{n}t}$$

es un conjunto fundamental de soluciones de (\ref{3}) en el intervalo $(-\infty, \infty)$, entonces la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1} e^{\lambda_{1}t} + c_{2} \mathbf{K}_{2} e^{\lambda_{2}t} + \cdots + c_{n} \mathbf{K}_{n} e^{\lambda_{n}t} \label{4} \tag{4}$$

Donde $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$ son los valores propios y $\mathbf{K}_{1}, \mathbf{K}_{2}, \cdots, \mathbf{K}_{n}$ son los vectores propios asociados a cada valor propio. Notemos que en este teorema no se incluye la hipótesis de que los valores propios sean distintos. En esta entrada estamos interesados en resolver sistemas lineales en donde las raíces del polinomio característico sean todos reales y distintos, es decir, el caso en el que los valores propios del sistemas son distintos entre sí.

El siguiente resultado muestra cómo debe ser la solución general de un sistema lineal (\ref{3}) en el caso en el que los valores propios son reales y distintos.

La demostración es inmediata aplicando los resultados antes mencionados que son parte de dos teoremas vistos en la entrada anterior. De tarea moral Intenta escribir la demostración formalmente.

La diferencia entre (\ref{4}) y (\ref{5}) es que en ésta última solución ocurre que $\lambda_{i} \neq \lambda_{j}$ para $i \neq j$.

Este primer caso en realidad es muy sencillo así que concluiremos la entrada con tres ejemplos.

En la entrada en la que desarrollamos el método de eliminación de variables vimos que la solución general del sistema

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
t +1 \\ t + 1
\end{pmatrix} \label{6} \tag{6}$$

es

$$\mathbf{Y} = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t} -\begin{pmatrix}
\dfrac{1}{3} \\ \dfrac{1}{3}
\end{pmatrix}t + \begin{pmatrix}
\dfrac{1}{9} \\ \dfrac{16}{9}
\end{pmatrix} \label{7} \tag{7}$$

Lo que significa que la solución del caso homogéneo de (\ref{6})

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y} \label{8} \tag{8}$$

es

$$\mathbf{Y} = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t} \label{9} \tag{9}$$

Veamos si aplicando este método obtenemos el mismo resultado.

Recordemos que el polinomio característico se obtiene de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{10} \tag{10}$$

Una vez obtenido el polinomio se buscan las raíces para determinar los valores propios. Para cada valor propio se busca un vector $\mathbf{K} \neq \mathbf{0}$, tal que satisfaga la relación

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Los vectores obtenidos corresponderán a los vectores propios del sistema.

Finalmente se sustituyen estos resultados en la solución (\ref{5}), siempre y cuando los valores propios sean reales y distintos.

Ejemplo: Resolver el sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y}$$

Solución: En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix}$$

Determinemos la ecuación característica de acuerdo a (\ref{10}).

$$\begin{vmatrix}
4 -\lambda & -1 \\ 2 & 1 -2
\end{vmatrix} = (4 -\lambda)(1 -\lambda) + 2 = 0$$

El polinomio característico es

$$\lambda^{2} -5 \lambda + 6 = 0$$

Resolviendo para $\lambda$ se obtiene que las raíces son $\lambda_{1} = 2$ y $\lambda_{2} = 3$, son reales y distintas. Para cada valor propio determinemos los vectores propios de acuerdo a (\ref{11}).

Caso 1: $\lambda_{1} = 2$.

$$\begin{pmatrix}
4 -2 & -1 \\ 2 & 1 -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
2 & -1 \\ 2 & -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
2k_{1} -k_{2} &= 0 \\
2k_{1} &= k_{2}
\end{align*}

Elegimos $k_{1} = 1$, entonces $k_{2} = 2$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 3$.

$$\begin{pmatrix}
4 -3 & -1 \\ 2 & 1 -3
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
1 & -1 \\ 2 & -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
k_{1} -k_{2} &= 0 \\
k_{1} &= k_{2}
\end{align*}

Elegimos $k_{1} = 1$, entonces $k_{2} = 1$, así el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{5}), la solución general es

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1}e^{\lambda_{1}t} + c_{2} \mathbf{K}_{2}e^{\lambda_{2}t} $$

Sustituyendo los valores obtenidos tenemos que la solución general del sistema lineal homogéneo es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t}$$

Vemos que efectivamente corresponde a la solución (\ref{9}) obtenida con el método de eliminación de variables.

$\square$

Resolvamos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 12 \\ 3 & 1
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

Solución: La matriz $\mathbf{A}$ está dada por

$$\mathbf{A} = \begin{pmatrix}
1 & 12 \\ 3 & 1
\end{pmatrix}$$

La ecuación característica es

$$\begin{vmatrix}
1 -\lambda & 12 \\ 3 & 1 -\lambda
\end{vmatrix} = (1 -\lambda)^{2} -36 = 0$$

El polinomio característico es

\begin{align*}
\lambda^{2} -2 \lambda -35 &= 0 \\
(\lambda -7) (\lambda + 5) &= 0
\end{align*}

De donde es claro que $\lambda_{1} = 7$ y $\lambda_{2} = -5$. Determinemos los vectores propios.

Caso 1: $\lambda_{1} = 7$.

$$\begin{pmatrix}
1 -7 & 12 \\ 3 & 1 -7
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
-6 & 12 \\ 3 & -6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
-6 k_{1} + 12 k_{2} &= 0 \\
3 k_{1} -6 k_{2} &= 0
\end{align*}

De donde $k_{1} = 2k_{2}$. Elegimos $k_{2} = 1$, de manera que $k_{1} = 2$. Así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -5$.

$$\begin{pmatrix}
1 + 5 & 12 \\ 3 & 1 + 5
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
6 & 12 \\ 3 & 6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
6 k_{1} + 12 k_{2} &= 0 \\
3 k_{1} + 6 k_{2} &= 0
\end{align*}

De donde $k_{1} = -2k_{2}$. Elegimos $k_{2} = 1$, de manera que $k_{1} = -2$. Así el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
-2 \\ 1
\end{pmatrix}$$

Sustituyendo estos resultados en la solución general (\ref{5}), se obtiene

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{7t} + c_{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{-5t}$$

Apliquemos los valores iniciales para determinar el valor de las constantes $c_{1}$ y $c_{2}$.

$$\mathbf{Y}(0) = c_{1} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{0} + c_{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{0}$$

Reescribiendo.

$$\begin{pmatrix}
0 \\ 1
\end{pmatrix} = \begin{pmatrix}
2c_{1} \\ c_{1}
\end{pmatrix} + \begin{pmatrix}
-2c_{2} \\ c_{2}
\end{pmatrix} = \begin{pmatrix}
2c_{1} -2c_{2} \\ c_{1} + c_{2}
\end{pmatrix} $$

Las ecuaciones que se obtienen son

\begin{align*}
2c_{1} -2c_{2} &= 0 \\
c_{1} + c_{2} &= 1
\end{align*}

Resolviendo el sistema se obtiene que $c_{1} = \dfrac{1}{2}$ y $c_{2} = \dfrac{1}{2}$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = \dfrac{1}{2} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{7t} + \dfrac{1}{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{-5t} = \begin{pmatrix}
e^{7t} -e^{-5t} \\ \dfrac{1}{2}e^{7t} + \dfrac{1}{2}e^{-5t}
\end{pmatrix}$$

$\square$

Para concluir con esta entrada, resolvamos un sistema lineal en el que la matriz $\mathbf{A}$ es de $4 \times 4$.

Ejemplo: Determinar la solución general del siguiente sistema lineal homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -1 & 1 & 1 \\
-3 & -4 & -3 & 6 \\
0 & -3 & -2 & 3 \\
-3 & -5 & -3 & 7
\end{pmatrix} \mathbf{Y}$$

Solución: La ecuación característica se obtiene de hacer el siguiente determinante.

$$\begin{vmatrix}
-1 -\lambda & -1 & 1 & 1 \\
-3 & -4 -\lambda & -3 & 6 \\
0 & -3 & -2 -\lambda & 3 \\
-3 & -5 & -3 & 7 -\lambda
\end{vmatrix} = 0$$

No es de nuestro interés mostrar todos los pasos del determinante, incluso es conveniente hacer uso de algún método computacional para resolverlo. El resultado que se obtiene de calcular el determinante es

$$\lambda^{4} -5 \lambda^{2} + 4 = 0$$

Muestra que el polinomio característico se puede descomponer de la siguiente forma.

$$(\lambda + 2)(\lambda + 1)(\lambda -1)(\lambda -2) = 0$$

En esta forma es claro que los valores propios del sistema son

$$\lambda_{1} = -2, \hspace{1cm} \lambda_{2} = -1, \hspace{1cm} \lambda_{3} = 1, \hspace{1cm} y \hspace{1cm} \lambda_{4} = 2$$

Todos reales y distintos. Determinemos los vectores propios para cada valor propio.

Caso 1: $\lambda_{1} = -2$.

Buscamos un vector $\mathbf{K}_{1} \neq \mathbf{0}$, tal que

$$(\mathbf{A} + 2 \mathbf{I}) \mathbf{K}_{1} = \mathbf{0}$$

Sustituimos.

$$\begin{pmatrix}
-1 + 2 & -1 & 1 & 1 \\
-3 & -4 + 2 & -3 & 6 \\
0 & -3 & -2 + 2 & 3 \\
-3 & -5 & -3 & 7 + 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
1 & -1 & 1 & 1 \\
-3 & -2 & -3 & 6 \\
0 & -3 & 0 & 3 \\
-3 & -5 & -3 & 9
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

Nuevamente es conveniente resolver el sistema usando algún método computacional, al hacerlo obtendremos que los valores correspondientes de las incógnitas son

$$k_{1} = 1, \hspace{1cm} k_{2} = 0, \hspace{1cm} k_{3} = -1, \hspace{1cm} y \hspace{1cm} k_{4} = 0$$

De manera que el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -1$

Sustituimos en la ecuación vectorial

$$(\mathbf{A} + 1 \mathbf{I}) \mathbf{K}_{2} = \mathbf{0}$$

$$\begin{pmatrix}
-1 + 1 & -1 & 1 & 1 \\
-3 & -4 + 1 & -3 & 6 \\
0 & -3 & -2 + 1 & 3 \\
-3 & -5 & -3 & 7 + 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 & -1 & 1 & 1 \\
-3 & -3 & -3 & 6 \\
0 & -3 & -1 & 3 \\
-3 & -5 & -3 & 8
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

Resolviendo el sistema obtenemos que el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix}$$

Caso 3: $\lambda_{3} = 1$

Sustituimos en la ecuación

$$(\mathbf{A} -1 \mathbf{I}) \mathbf{K}_{3} = \mathbf{0}$$

$$\begin{pmatrix}
-1 -1 & -1 & 1 & 1 \\
-3 & -4 -1 & -3 & 6 \\
0 & -3 & -2 -1 & 3 \\
-3 & -5 & -3 & 7 -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
-2 & -1 & 1 & 1 \\
-3 & -5 & -3 & 6 \\
0 & -3 & -3 & 3 \\
-3 & -5 & -3 & 6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

El resultado de resolver el sistema corresponde al tercer vector propio

$$\mathbf{K}_{3} = \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix}$$

Caso 4: $\lambda_{4} = 2$

Para concluir sustituimos en la ecuación

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K}_{4} = \mathbf{0}$$

$$\begin{pmatrix}
-1 -2 & -1 & 1 & 1 \\
-3 & -4 -2 & -3 & 6 \\
0 & -3 & -2 -2 & 3 \\
-3 & -5 & -3 & 7 -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
-3 & -1 & 1 & 1 \\
-3 & -6 & -3 & 6 \\
0 & -3 & -4 & 3 \\
-3 & -5 & -3 & 5
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

El cuarto y último vector propio es

$$\mathbf{K}_{4} = \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix}$$

Con estos resultados obtenemos que el conjunto fundamental de soluciones esta conformado por los siguientes vectores linealmente independientes.

$$S = \left\{ e^{-2t} \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix}, e^{-t} \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix}, e^{t} \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix}, 2^{2t} \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix} \right\}$$

Y por lo tanto, la solución general del sistema lineal es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix} e^{-2t} + c_{2} \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix} e^{-t} + c_{3} \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix} e^{t} + c_{4} \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix}e^{2t}$$

$\square$

Con esto hemos concluido esta entrada. Nos falta ver el caso en el que los valores propios son números complejos y el caso en el que hay valores propios repetidos, ambos casos resultan ser un poco más complicados e interesantes que este.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Demostrar formalmente el Teorema enunciado en esta entrada.
  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & -3 \\ 2 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & 2 & 4 \\ 2 & 0 & 2 \\ 4 & 2 & 3
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -3 \\ -2 & 2
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 5
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & 1 & -2 \\ -1 & 2 & 1 \\ 4 & 1 & -3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 4 \\ -7
    \end{pmatrix}$
  1. Considerar el siguiente sistema lineal homogéneo.

    $\mathbf{Y}^{\prime} = \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \mathbf{Y} = \mathbf{AY}$
  • Demostrar que la solución general del sistema lineal es

    $\mathbf{Y}(t) = c_{1} e^{2t} \begin{pmatrix} 1 \\ 1 \end{pmatrix} + c_{2} \begin{pmatrix} 1 \\ -1 \end{pmatrix}$
  • Determinar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$ del sistema lineal.
  • Una vez obtenida la matriz fundamental de soluciones determinar la exponencial de la matriz $\mathbf{A} t$ usando la expresión

    $e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0)$

    Comparar el resultado con el obtenido usando la definición. ¿Notas alguna diferencia?.

Más adelante…

En esta entrada desarrollamos el método de valores y vectores propios para resolver sistemas lineales homogéneos en el caso en el que los valores propios son todos reales y distintos.

En la siguiente entrada continuaremos con la segunda situación correspondiente al caso en el que los valores propios del sistema son números complejos. En este caso la forma de las soluciones serán distintas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Valores y vectores propios para resolver sistemas lineales

Por Omar González Franco

En la vida real, te lo aseguro, no hay algo como el álgebra.
– Fran Lebowitz

Introducción

Ya hemos dado inicio con el desarrollo de métodos de resolución de sistemas lineales de primer orden. En la entrada anterior desarrollamos el método de eliminación de variables que, a pesar de ser muy limitado, es un método sencillo y práctico para resolver sistemas con dos ecuaciones diferenciales lineales de primer orden.

Debido a que un sistema lineal puede ser visto como una ecuación matricial los resultados de álgebra lineal sobre valores y vectores propios de matrices pueden ser aplicados aquí. En esta entrada daremos un breve repaso sobre estos conceptos y veremos cómo es que estos resultados nos pueden ayudar a determinar la solución general de algunos sistemas de ecuaciones diferenciales.

La teoría que desarrollaremos a continuación es aplicable a sistemas lineales homogéneos con coeficientes constantes.

Sistemas lineales homogéneos

Un sistema lineal homogéneo con coeficientes constantes es de la forma

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}y_{1} + a_{12}y_{2} + \cdots + a_{1n}y_{n} \\
y_{2}^{\prime}(t) &= a_{21}y_{1} + a_{22}y_{2} + \cdots + a_{2n}y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}y_{1} + a_{n2}y_{2} + \cdots + a_{nn}y_{n} \label{1} \tag{1}
\end{align*}

Si $\mathbf{A}$ es la matriz de $n \times n$ con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

entonces el sistema lineal a resolver es

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

En la segunda entrada de esta unidad vimos que la solución general del sistema lineal homogéneo

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}e^{0t} + c_{2} \begin{pmatrix}
1 \\ 1 \\ 0
\end{pmatrix}e^{2t} + c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}e^{3t}$$

Y en la entrada anterior vimos que la solución del sistema lineal homogéneo

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y}$$

es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t}$$

Aunque para el primer caso aún no sabemos cómo obtener esa solución lo que sabemos es que efectivamente corresponde a la solución general del sistema homogéneo. Notemos que cada vector solución es de la forma

$$\mathbf{Y}_{i} = \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix}e^{\lambda_{i}t}, \hspace{1cm} i = 1, 2 ,3$$

donde $k_{i}$ y $\lambda_{i}$, $i = 1, 2, 3$, son constantes. Lo mismo para el segundo caso, con $k_{i}$, $\lambda_{i}$, $i = 1, 2$, constantes. Esta particularidad nos hace preguntarnos si siempre es posible hallar una solución de la forma

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t} \label{4} \tag{4}$$

como solución general del sistema lineal (\ref{3}).

La respuesta es que sí, pero antes de continuar con nuestro desarrollo nos parece pertinente repasar brevemente algunos conceptos de Álgebra Lineal, en particular el de valores y vectores propios.

Valores y vectores propios

Sea $T: V \rightarrow W$ una transformación lineal, en álgebra lineal muchas veces resulta útil encontrar un vector $v$ en el espacio vectorial $V$ tal que $T\mathbf{v}$ y $\mathbf{v}$ sean paralelos, es decir, se busca un vector $\mathbf{v}$ y un escalar $\lambda$, tal que

$$T\mathbf{v} = \lambda \mathbf{v} \label{5} \tag{5}$$

Recordemos que si $\mathbf{v} \neq \mathbf{0}$ y $\lambda$ satisfacen la ecuación (\ref{5}), entonces $\lambda$ se denomina un valor característico o valor propio de $T$ y $\mathbf{v}$ un vector característico o vector propio de $T$ correspondiente al valor propio $\lambda$.

También recordemos que si $V$ tiene dimensión finita, entonces la transformación $T$ se puede representar por una matriz $\mathbf{A}_{T}$, de manera que se pueden definir los valores y vectores propios de esta matriz.

Denotaremos con $M_{n \times n}$ al conjunto de todas las matrices cuadradas de $n \times n$ con componentes reales y constantes.

Como nota interesante, los valores y vectores propios también son conocidos como valores y vectores característicos o eigenvalores y eigenvectores, donde el término eigen es un término alemán que significa propio. En este curso los llamaremos valores y vectores propios.

Recordemos nuevamente el concepto de matriz inversa.

Para el caso especial $\mathbf{A} = \mathbf{I}$, con $\mathbf{I}$ la matriz identidad, se tiene que para cualquier vector $\mathbf{v} \in V$

$$\mathbf{Av} = \mathbf{Iv} = \mathbf{v} \label{8} \tag{8}$$

Así, el único valor propio de $\mathbf{A}$ es $1$ y todo $\mathbf{v} \neq \mathbf{0} \in V$ es un vector propio de $\mathbf{I}$.

Otra observación interesante es que cualquier múltiplo de un vector propio de $\mathbf{A}$ es también un vector propio de $\mathbf{A}$, con el mismo valor propio.

$$\mathbf{A}(c \mathbf{v}) = c \mathbf{Av} = c \lambda \mathbf{v} = \lambda (c \mathbf{v}) \label{9} \tag{9}$$

Ecuación característica

Supongamos que $\lambda $ es un valor propio de $A$, entonces existe un vector diferente de cero

$$\mathbf{v} = \begin{pmatrix}
v_{1} \\ v_{2} \\ \vdots \\ v_{n}
\end{pmatrix} \neq \mathbf{0}$$

tal que

$$\mathbf{Av} = \lambda \mathbf{v} = \lambda \mathbf{Iv} \label{10} \tag{10}$$

Reescribiendo esto, se tiene

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{v} = \mathbf{0} \label{11} \tag{11}$$

Si $A$ es una matriz de $n \times n$, la ecuación anterior corresponde a un sistema homogéneo de $n$ ecuaciones con las incógnitas $v_{1}, v_{2}, \cdots, v_{n}$. Como se ha supuesto que $ \mathbf{v} \neq \mathbf{0}$, entonces el sistema no tiene solución trivial y por tanto el determinante de (\ref{11}) debe ser cero.

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{12} \tag{12}$$

De manera equivalente, si ocurre que $|\mathbf{A} -\lambda \mathbf{I}| \neq 0$, entonces la única solución a (\ref{11}) es la trivial $\mathbf{v} = \mathbf{0}$, lo que significa que $\lambda$ no es un valor propio de $A$.

Estos resultados quedan establecidos en el siguiente teorema.

La relación (\ref{13}) es muy importante, tanto que merece nombres particulares.

El polinomio $P(\lambda )$ es del mismo grado que el número de filas y columnas de la matriz $\mathbf{A}$. Si $\mathbf{A} \in M_{n \times n}$, entonces $P(\lambda)$ es un polinomio de grado $n$ en $\lambda$. Por ejemplo, si

$$\mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} \label{14} \tag{14}$$

entonces,

$$\mathbf{A} -\lambda \mathbf{I} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} -\begin{pmatrix}
\lambda & 0 \\ 0 & \lambda
\end{pmatrix} = \begin{pmatrix}
a -\lambda & b \\ c & d -\lambda
\end{pmatrix} \label{15} \tag{15}$$

y

\begin{align*}
P(\lambda ) &= |\mathbf{A} -\lambda \mathbf{I}| \\
&= (a -\lambda)(d -\lambda) -bc \\
&= \lambda^{2} -(a + d) \lambda + (ad -bc) \label{16} \tag{16}
\end{align*}

La matriz es de $2 \times 2$ y el polinomio característico es un polinomio de grado $2$.

El teorema fundamental del álgebra nos dice que cualquier polinomio de grado $n$ con coeficientes reales o complejos tiene exactamente $n$ raíces contando multiplicidades y dado que cualquier valor propio de $\mathbf{A}$ es una raíz de la ecuación característica de $\mathbf{A}$, se concluye que, contando multiplicidades, toda matriz $\mathbf{A} \in M_{n \times n}$ tiene exactamente $n$ valores propios.

Realicemos dos ejemplos sencillos en donde determinemos los valores y vectores propios de una matriz. Uno en donde los valores propios sean distintos (con multiplicidad $1$) y uno en donde los valores propios sean números complejos.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

$$\mathbf{A} = \begin{pmatrix}
-81 & 16 \\ -420 & 83
\end{pmatrix}$$

Solución: De acuerdo a (\ref{13}), determinemos la ecuación característica.

$$\begin{vmatrix}
-81 -\lambda & 16 \\ -420 & 83 -\lambda
\end{vmatrix} = (-81 -\lambda)(83 -\lambda) -16(-420) = 0$$

Reordenando obtenemos que la ecuación característica es

$$\lambda^{2} -2 \lambda -3 = 0$$

y el polinomio característico es

$$P(\lambda) = \lambda^{2} -2 \lambda -3$$

Resolviendo para $\lambda$ se obtienen las raíces $\lambda_{1} = -1$ y $\lambda_{2} = 3$. Para obtener los vectores propios buscamos un vector $\mathbf{v} \neq 0$, tal que se cumpla (\ref{11}) para cada valor propio $\lambda$. Comencemos con $\lambda_{1}$.

Caso 1: $\lambda_{1} = -1$.

$$\begin{pmatrix}
-81 -(-1) & 16 \\ -420 & 83 -(-1)
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
-80 & 16 \\ -420 & 84
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Este resultado lo podemos escribir como las siguientes dos ecuaciones.

\begin{align*}
-80 v_{1} + 16 v_{2} &= 0 \\
-420 v_{1} + 84 v_{2} &= 0
\end{align*}

Que en realidad corresponden a una sola.

\begin{align*}
-5v_{1} + v_{2} &= 0 \\
v_{2} &= 5v_{1}
\end{align*}

Si elegimos $v_{1} = 1$, entonces $v_{2} = 5$, así el primer vector propio es

$$\mathbf{v}_{1} = \begin{pmatrix}
1 \\ 5
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 3$.

$$\begin{pmatrix}
-81 -3 & 16 \\ -420 & 83-3
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
-84 & 16 \\ -420 & 80
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
-21v_{1} + 4v_{2} &= 0 \\
v_{2} &= \dfrac{21}{4}v_{1}
\end{align*}

Por conveniencia elegimos $v_{1} = 4$, entonces $v_{2} = 21$, así

$$\mathbf{v}_{2} = \begin{pmatrix}
4 \\ 21
\end{pmatrix}$$

En conclusión, los valores y vectores propios de la matriz $\mathbf{A}$ son $\lambda_{1} = -1$, $\lambda_{2} = 3$, $\mathbf{v}_{1} = \begin{pmatrix} 1 \\ 5 \end{pmatrix}$ y $\mathbf{v}_{2} = \begin{pmatrix} 4 \\ 21 \end{pmatrix}$, respectivamente.

$\square$

Realicemos el segundo ejemplo.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

$$\mathbf{A} = \begin{pmatrix}
2 & -1 \\ 5 & -2
\end{pmatrix}$$

Solución: Determinemos la ecuación característica.

$$\begin{vmatrix}
2 -\lambda & -1 \\ 5 & -2 -\lambda
\end{vmatrix} = (2 -\lambda)(-2 -\lambda) + 5 = 0$$

La ecuación característica es

$$\lambda^{2} + 1 = 0$$

De donde $\lambda_{1} = i$ y $\lambda_{2} = -i$. Determinemos los vectores propios.

Caso 1: $\lambda_{1} = i$.

$$\begin{pmatrix}
2 -i & -1 \\ 5 & -2 -i
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
(2 -i)v_{1} -v_{2} &= 0 \\
5v_{1} -(2 + i)v_{2} &= 0
\end{align*}

Resolviendo el sistema se obtiene que $v_{1} = 2 + i$ y $v_{2} = 5$, así

$$\mathbf{v}_{1} = \begin{pmatrix}
2 + i \\ 5
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -i$

$$\begin{pmatrix}
2 + i & -1 \\ 5 & -2 + i
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
(2 + i) v_{1} -v_{2} &= 0 \\
5v_{1} + (-2 + i)v_{2} &= 0
\end{align*}

Resolviendo el sistema se obtiene que $v_{1} = 2 -i$ y $v_{2} = 5$, así

$$\mathbf{v}_{2} = \begin{pmatrix}
2 -i \\ 5
\end{pmatrix}$$

$\square$

En caso de requerir conocer más a fondo sobre el algoritmo que llevamos a cabo para obtener los valores y vectores propios de una matriz se recomienda revisar directamente en el curso de Álgebra Lineal I. Recordemos que aquí sólo estamos haciendo un breve repaso.

Para concluir con nuestro repaso, enunciemos un teorema de suma importancia que nos será de utilidad mas adelante. Haremos la demostración por inducción.

Demostración: Como el caso $m = 1$ se trata de un solo vector es evidente que se satisface el teorema, hagamos el caso $m = 2$, para ello consideremos la combinación lineal

$$c_{1} \mathbf{v}_{1} + c_{2} \mathbf{v}_{2} = \mathbf{0} \label{17} \tag{17}$$

Multipliquemos ambos lados de la ecuación por la matriz $\mathbf{A}$.

$$c_{1} \mathbf{Av}_{1} + c_{2} \mathbf{Av}_{2} = \mathbf{0} \label{18} \tag{18}$$

Como $\mathbf{Av}_{i} = \lambda_{i}\mathbf{v}_{i}$, para $i = 1, 2$, entonces

$$c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2} = \mathbf{0} \label{19} \tag{19}$$

A la ecuación (\ref{17}) la multiplicamos por $\lambda_{1}$ y la restamos de la ecuación (\ref{19}).

$$(c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2}) -(c_{1} \lambda_{1} \mathbf{v}_{1} -c_{2} \lambda_{1} \mathbf{v}_{2}) = \mathbf{0}$$

que se reduce a

$$c_{2}(\lambda_{2} -\lambda_{1}) \mathbf{v}_{2} = \mathbf{0} \label{20} \tag{20}$$

Como $\mathbf{v}_{2} \neq \mathbf{0}$ por definición de vector característico y por hipótesis $\lambda_{1} \neq \lambda_{2}$, entonces se concluye que $c_{2} = 0$, sustituyendo en (\ref{17}) se ve que $c_{1} = 0$, por tanto se cumple el teorema para $m = 2$, es decir, $\mathbf{v}_{1}$ y $\mathbf{v}_{2}$ son linealmente independientes.

Ahora supongamos que el teorema es cierto para $m = n$, es decir, cualquier conjunto de $n$ vectores propios de $\mathbf{A}$ con valores propios diferentes es linealmente independiente. Hay que demostrar que cualquier conjunto de $n + 1$ vectores propios de $\mathbf{A}$ con valores propios diferentes es también linealmente independiente. La demostración sigue el mismo procedimiento que como lo hicimos para $m = 2$, consideremos la siguiente combinación lineal.

$$c_{1} \mathbf{v}_{1} + c_{2} \mathbf{v}_{2} + \cdots + c_{n + 1} \mathbf{v}_{n + 1} = \mathbf{0} \label{21} \tag{21}$$

Multipliquemos por $\mathbf{A}$ en ambos lados.

$$c_{1} \mathbf{Av}_{1} + c_{2} \mathbf{Av}_{2} + \cdots + c_{n + 1} \mathbf{Av}_{n + 1} = \mathbf{0} \label{22} \tag{22}$$

Aplicando $\mathbf{Av}_{i} = \lambda_{i} \mathbf{v}_{1}$ para $i = 1, 2, 3, \cdots, n + 1$, se tiene

$$c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2} + \cdots + c_{n + 1} \lambda_{n + 1} \mathbf{v}_{n + 1} = \mathbf{0} \label{23} \tag{23}$$

Si se multiplica ambos lados de la ecuación (\ref{21}) por $\lambda_{1}$ y se resta de (\ref{23}), se obtiene

$$c_{2}(\lambda_{2} -\lambda_{1}) \mathbf{v}_{2} + c_{3}(\lambda_{3} -\lambda_{1}) \mathbf{v}_{3} + \cdots + c_{n + 1}(\lambda_{n + 1} -\lambda_{1})\mathbf{v}_{n + 1} = \mathbf{0} \label{24} \tag{24}$$

Pero $\mathbf{v}_{2}, \mathbf{v}_{3}, \cdots, \mathbf{v}_{n + 1}$ son vectores propios de $\mathbf{A}$ con valores propios distintos $\lambda_{2}, \lambda_{3}, \cdots, \lambda_{n + 1}$, respectivamente. Por hipótesis de inducción, los vectores son linealmente independientes, así que

$$c_{2}(\lambda_{2} -\lambda_{1}) = 0, \hspace{1cm} c_{3}(\lambda_{3} -\lambda_{1}) = 0, \hspace{1cm} \cdots, \hspace{1cm} c_{n + 1}(\lambda_{n + 1} -\lambda_{1}) = 0$$

Como los valores propios son distintos entre sí, entonces necesariamente

$$c_{2} = c_{3} = \cdots = c_{n + 1} = 0$$

Con este resultado la ecuación (\ref{21}) obliga a que $c_{1}$ sea cero. Por lo tanto, $\mathbf{v}_{1}, \mathbf{v}_{2}, \mathbf{v}_{3}, \cdots, \mathbf{v}_{n + 1}$ son linealmente independientes. De esta manera queda demostrado el teorema.

$\square$

En conclusión, vectores propios correspondientes a valores propios distintos son linealmente independientes.

Con este breve repaso en mente regresemos a los sistemas de ecuaciones diferenciales.

Valores y vectores propios en sistemas de ecuaciones diferenciales

Ahora que hemos recordado las definiciones de valores y vectores propios y algunas propiedades veamos cómo es que estos conceptos son útiles para resolver sistemas lineales de primer orden homogéneos.

Al inicio de la entrada decíamos que es posible encontrar soluciones de la forma (\ref{4}).

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t}$$

Si derivamos este vector, se obtiene

$$\mathbf{Y}^{\prime} = \mathbf{K} \lambda e^{\lambda t} \label{25} \tag{25}$$

Sustituyamos en el sistema homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$.

$$\mathbf{K} \lambda e^{\lambda t} = \mathbf{AK}e^{\lambda t} \label{26} \tag{26}$$

Si dividimos entre $e^{\lambda t}$ y reordenamos, se tiene

$$\mathbf{AK} = \lambda \mathbf{K}$$

o bien,

$$\mathbf{AK} -\lambda \mathbf{K} = \mathbf{0}$$

Debido a que $\mathbf{K} = \mathbf{IK}$, con $\mathbf{I}$ la matriz identidad, la última expresión se puede escribir como

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0}\label{27} \tag{27}$$

Si $\mathbf{A}$ es la matriz dada en (\ref{2}), entonces la ecuación matricial (\ref{27}) es equivalente a las $n$ ecuaciones algebraicas simultáneas

\begin{align*}
(a_{11} -\lambda)k_{1} + \hspace{1.2cm} a_{12}k_{2} + \cdots + \hspace{1.2cm} a_{1n}k_{n} &= 0 \\
a_{21}k_{1} + (a_{22} -\lambda)k_{2} + \cdots + \hspace{1.2cm} a_{2n}k_{n} &= 0 \\
\vdots \\
a_{n1}k_{1} + \hspace{1.2cm} a_{n2}k_{2} + \cdots + (a_{nn} -\lambda)k_{n} &= 0 \label{28} \tag{28}
\end{align*}

Si queremos encontrar soluciones $\mathbf{Y}(t)$ como (\ref{4}), necesitamos primero encontrar una solución no trivial del sistema (\ref{28}), de lo visto en nuestro repaso de valores y vectores propios, si la solución debe ser la no trivial, entonces se requiere que el determinante sea igual a cero, esto es

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{29} \tag{29}$$

Esta ecuación polinomial corresponde a la ecuación característica de la matriz $\mathbf{A}$. Sus soluciones son los valores propios de $\mathbf{A}$. Una solución $\mathbf{K} \neq 0$ de (\ref{27}) correspondiente a un valor propio $\lambda$ es el vector propio de $\mathbf{A}$.

La ecuación (\ref{29}) al tratarse de una ecuación polinomial existen tres casos posibles, cuando los valores propios son reales y distintos, cuando son repetidos y cuando son complejos. Para cada caso existe una forma particular de la solución de (\ref{3}).

Para concluir con esta entrada demostremos un resultado que establece la forma de la solución general del sistema lineal (\ref{3}).

Demostración: Definamos las funciones

$$\mathbf{Y}_{1}(t) = e^{\lambda_{1}t}\mathbf{K}_{1}, \hspace{1cm} \mathbf{Y}_{2}(t) = e^{\lambda_{2}t}\mathbf{K}_{2}, \hspace{1cm} \cdots, \hspace{1cm} \mathbf{Y}_{n}(t) = e^{\lambda_{n}t} \mathbf{K}_{n}$$

Notemos que para la $i$-ésima función $\mathbf{Y}_{i}(t) = e^{\lambda_{i}t} \mathbf{K}_{i}$ se cumple lo siguiente.

$$\mathbf{Y}^{\prime}_{i} = e^{\lambda_{i}t} (\lambda_{i} \mathbf{K}_{i}) = e^{\lambda_{i}t} (\mathbf{AK}_{i}) = \mathbf{AY}_{i} \label{32} \tag{32}$$

En donde se hecho uso de la relación (\ref{6}). Esto nos muestra que $\mathbf{Y}_{i}(t)$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ para cada $i = 1, 2, \cdots, n$. Basta mostrar que el Wronskiano es distinto de cero para probar que las funciones definidas forman un conjunto fundamental de soluciones. El Wronskiano está dado por

\begin{align*}
W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots,\mathbf{Y}_{n}) &= \begin{vmatrix} e^{\lambda_{1}t} \mathbf{K}_{1} & e^{\lambda_{2}t} \mathbf{K}_{2} & \cdots & e^{\lambda_{n}t} \mathbf{K}_{n} \end{vmatrix} \\
&= e^{(\lambda_{1} + \lambda_{2} + \cdots + \lambda_{n})t} \begin{vmatrix} \mathbf{K}_{1} & \mathbf{K}_{2} & \cdots & \mathbf{K}_{n} \end{vmatrix} \label{33} \tag{33}
\end{align*}

Como la exponencial nunca se hace cero y por hipótesis los vectores $\mathbf{K}_{1}, \mathbf{K}_{2}, \cdots, \mathbf{K}_{n}$ son linealmente independientes, es decir, el determinante nunca es cero

$$\begin{vmatrix} \mathbf{K}_{1} & \mathbf{K}_{2} & \cdots & \mathbf{K}_{n} \end{vmatrix} \neq 0 \label{34} \tag{34}$$

entonces el Wronskiano es distinto de cero. Por el teorema de solución general de un sistema homogéneo concluimos que el conjunto

$$S = \{e^{\lambda_{1}t} \mathbf{K}_{1}, e^{\lambda_{2}t} \mathbf{K}_{2}, \cdots, e^{\lambda_{n}t} \mathbf{K}_{n}\}$$

es un conjunto fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ y la solución general es

$$\mathbf{Y}(t) = c_{1} e^{\lambda_{1}t} \mathbf{K}_{1} + c_{2} e^{\lambda_{2}t} \mathbf{K}_{2} + \cdots + c_{n} e^{\lambda_{n}t} \mathbf{K}_{n}$$

con $c_{1}, c_{2}, \cdots, c_{n}$ constantes arbitrarias.

$\square$

En la siguiente entrada aplicaremos todo esto en el desarrollo de un nuevo método de resolución de sistemas lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener los valores y vectores propios de las siguientes matrices.
  • $\mathbf{A} = \begin{pmatrix}
    -62 & -20 \\ 192 & 62
    \end{pmatrix}$
  • $\mathbf{A} = \begin{pmatrix}
    -2 & 5 & 0 \\ 5 & -2 & 0 \\ 0 & 0 & 1
    \end{pmatrix}$
  1. Demostrar que para cualesquiera números reales $\alpha$ y $\beta$, la matriz $$\mathbf{A} = \begin{pmatrix} \alpha & \beta \\ -\beta & \alpha \end{pmatrix}$$ tiene valores propios $\alpha \pm i\beta$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar lo siguiente:
  • Demostrar que $\mathbf{A}^{-1}$ (la matriz inversa de $\mathbf{A}$) existe si y sólo si $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$ son todos distintos de cero.
  • Si $\mathbf{A}^{-1}$ existe, demostrar que los valores propios de $\mathbf{A}^{-1}$ son $\dfrac{1}{\lambda_{1}}, \dfrac{1}{\lambda_{2}}, \cdots, \dfrac{1}{\lambda_{n}}$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar que la matriz $\mathbf{A} -\alpha \mathbf{I}$ tiene valores propios $\lambda_{1} -\alpha, \lambda_{2} -\alpha, \cdots, \lambda_{n} -\alpha$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar que los valores propios de $\mathbf{A}^{m}$ son $\lambda^{m}_{1}, \lambda^{m}_{2}, \cdots, \lambda^{m}_{n}$ para $m = 1, 2, 3, \cdots$.

    Recuerda que para calcular la potencia de una matriz, debemos multiplicar la matriz por ella misma tantas veces como indique el exponente, por ejemplo
    $$\mathbf{A}^{5} = \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A}$$

Más adelante…

Un nuevo método para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas con coeficientes constantes es el que estamos por desarrollar. Dicho método involucra obtener los valores y vectores propios de la matriz que conforma al sistema lineal, es por ello que hemos dedicado esta entrada en hacer un breve repaso sobre estos conceptos y hemos visto cómo es que se ven involucrados en la resolución de estos sistemas.

Como vimos, los valores propios se obtienen de encontrar las raíces del polinomio característico lo que significa que se pueden tener raíces reales y distintas, raíces con multiplicidad mayor a uno, es decir, que se repiten o raíces complejas, para cada caso existe una forma distinta de obtener la solución de los sistemas lineales homogéneos $\mathbf{Y}^{\prime} = \mathbf{AY}$.

En las próximas tres entradas estudiaremos cada caso. Comenzaremos con el caso en el que los valores propios del sistema son todos reales y distintos entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios repetidos

Por Eduardo Vera Rosales

Introducción

En las últimas entradas hemos revisado el método de valores y vectores propios para resolver sistemas lineales homogéneos con coeficientes constantes de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$. Revisamos los casos cuando la matriz asociada tiene valores propios reales y todos distintos, y cuando tiene valores complejos. Para el primer caso las funciones $e^{\lambda_{i} t}\textbf{v}_{i}$ son soluciones linealmente independientes, donde $\lambda_{i}$ es un valor propio y $\textbf{v}_{i}$ es un vector propio asociado a $\lambda_{i}, \; \forall i \in \{1,…,n\}$. La solución general es la combinación lineal de dichas soluciones. Para el caso de valores propios complejos vimos que de una solución compleja $e^{\lambda_{i} t}\textbf{v}_{i}$ podíamos encontrar dos soluciones reales: la parte real y la parte imaginaria de dicha solución. Además estas soluciones resultaron ser linealmente independientes por lo que no fue difícil hallar la solución general al sistema de esta forma.

Vamos a terminar de revisar el método de valores y vectores propios analizando el caso cuando la matriz $\textbf{A}$ asociada al sistema tiene valores propios repetidos, tanto si es diagonalizable como si no lo es.

Iniciaremos con el caso cuando es $\textbf{A}$ es diagonalizable. Veremos que es bastante sencillo hallar $n$ vectores propios linealmente independientes ya que si $\lambda_{i}$ es un valor propio con multiplicidad $k$, entonces existirán $k$ vectores propios linealmente independientes asociados a dicho valor propio. Por lo tanto, podremos encontrar $n$ soluciones linealmente independientes al sistema y la solución general será la combinación lineal de estas.

Finalizaremos con el caso cuando $\textbf{A}$ no es diagonalizable, donde no existirán $n$ vectores propios linealmente independientes ya que para algún valor propio $\lambda_{i}$ con multiplicidad $k$ no existirán $k$ vectores propios linealmente independientes. Sin embargo, con ayuda de la exponencial de la matriz $\textbf{e}^{t \textbf{A}}$ y el concepto de vector propio generalizado podremos encontrar $k$ soluciones linealmente independientes correspondientes al valor propio $\lambda_{i}$. Nuevamente la solución general será la combinación lineal de las $n$ soluciones generadas de esta manera.

Método de valores y vectores propios para matrices diagonalizables con valores propios repetidos

Analizamos el caso cuando la matriz $\textbf{A}$ asociada al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ es diagonalizable y tiene valores propios repetidos. Resolvemos un par de sistemas para ejemplificar el caso correspondiente.

Método de valores y vectores propios para matrices no diagonalizables

En el primer video analizamos de manera general el caso cuando la matriz asociada al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ no es diagonalizable. Definimos el concepto de vector propio generalizado y con ayuda de la exponencial $\text{e}^{t \textbf{A}}$ generamos la solución general al sistema. En el segundo video resolvemos un par de ejemplos referentes al caso analizado.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Es posible tener una matriz $\textbf{A}$ de tamaño $3 \times 3$ con valores propios complejos repetidos?
  • Prueba que si $\lambda$ es un valor propio complejo con multiplicidad $k$ de $\textbf{A}$, entonces su conjugado $\bar{\lambda}$ tiene multiplicidad $k$.
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 0 & 0 & -1\\ 1 & 0 & 0 & 0\\ 0 & 1 & 0 & -2\\ 0 & 0 & 1 & 0\end{pmatrix}\textbf{X}.$$
  • Resuelve el problema de condición inicial $$\dot{\textbf{X}}=\begin{pmatrix} 1 & 3 & 3\\ 3 & 1 & 3\\ 3 & 3 & 1\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 0\\ 0 \end{pmatrix}.$$
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} 0 & -1 & 1\\ 2 & -3 & 1\\ 1 & -1 & -1\end{pmatrix}\textbf{X}.$$

Más adelante

Con esta entrada terminamos de analizar el método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Una vez que logramos resolver tales sistemas, es tiempo de estudiar el caso no homogéneo.

Como ya sabemos, la solución general a estos sistemas serán la suma de la solución general al sistema homogéneo correspondiente mas una solución particular al sistema no homogéneo. El método por el cual encontraremos esta solución particular será el de variación de parámetros, el cual estudiaremos en la siguiente entrada.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios complejos

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos el estudio del método de valores y vectores propios para resolver sistemas de ecuaciones lineales homogéneas con coeficientes constantes, de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$. Vimos que si somos capaces de encontrar $n$ vectores propios de la matriz $\textbf{A}$ linealmente independientes, entonces las funciones de la forma $e^{\lambda t}\textbf{v}$, donde $\lambda$ es un valor propio con vector propio asociado $\textbf{v}$, son soluciones linealmente independientes, y por tanto la combinación lineal de estas será la solución general del sistema. También estudiamos el caso cuando $\textbf{A}$ tiene todos sus valores propios reales y distintos.

En esta entrada nos dedicaremos a estudiar el caso cuando $\textbf{A}$ tiene valores propios complejos. Dado que $e^{\lambda t}\textbf{v}$ es una solución compleja al sistema, entonces la solución general sería una función con valores complejos. Sin embargo nosotros queremos soluciones con valores reales, por lo que debemos hallar una forma de generar soluciones de esta forma.

Lo primero será ver que las partes real e imaginaria de una solución compleja al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ serán soluciones reales al mismo sistema. Además este par de soluciones serán linealmente independientes. Así, seremos capaces de encontrar un conjunto linealmente independiente de $n$ soluciones reales al sistema mediante el método de valores y vectores propios que nos ayuda a encontrar soluciones de la forma $e^{\lambda t}\textbf{v}$.

Finalizaremos la entrada con tres ejemplos, uno de ellos el problema del oscilador armónico, el cual revisamos en el siguiente video y que tiene asociado una ecuación diferencial de segundo orden. Resolveremos el mismo problema pero ahora mediante un sistema de ecuaciones homogéneo.

Método de valores y vectores propios. Raíces complejas del polinomio característico

Encontramos dos soluciones reales al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ dada una solución compleja de la forma $e^{\lambda t}\textbf{v}$ donde $\lambda$ es un valor propio complejo con vector propio asociado $\textbf{v}$. Las soluciones reales serán las partes real e imaginaria de la solución compleja. Además las dos soluciones reales serán linealmente independientes.

El oscilador armónico y más ejemplos

En el primer video resolvemos un par de ejemplos de sistemas cuya matriz asociada tiene valores propios complejos. En el segundo video resolvemos el problema del oscilador armónico sin fricción y sin fuerzas externas mediante un sistema de ecuaciones.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Supongamos que $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ es un sistema lineal homogéneo con coeficientes constantes de 4 ecuaciones, y supongamos que $\lambda$, $\bar{\lambda}$, $\mu$ y $\bar{\mu}$ son los valores propios complejos de $\textbf{A}$ con vectores propios $\textbf{v}$, $\bar{\textbf{v}}$, $\textbf{w}$ y $\bar{\textbf{w}}$, respectivamente. Prueba que si $\textbf{Y}_{1}(t)$, $\textbf{Z}_{1}(t)$ son las partes real e imaginaria de $e^{\lambda t}\textbf{v}$, y si $\textbf{Y}_{2}(t)$, $\textbf{Z}_{2}(t)$ son las partes real e imaginaria de $e^{\mu t}\textbf{w}$ entonces $\textbf{Y}_{1}(t)$, $\textbf{Z}_{1}(t)$, $\textbf{Y}_{2}(t)$ y $\textbf{Z}_{2}(t)$ son soluciones linealmente independientes al sistema.
  • Supongamos que $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ es un sistema lineal homogéneo con coeficientes constantes de 3 ecuaciones. ¿Es posible que la matriz $\textbf{A}$ tenga tres valores propios complejos?
  • Demuestra que la matriz $\begin{pmatrix} a & b\\ -b & a\end{pmatrix}$, con $b\neq0$ tiene valores propios complejos.
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} -1 & 2\\ -1 & -1\end{pmatrix}\textbf{X}.$$
  • Resuelve el problema de condición inicial $$\dot{\textbf{X}}=\begin{pmatrix} 2 & -6\\ 2 & 1\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 0 \end{pmatrix}.$$

Más adelante

En la próxima entrada concluimos el estudio al método de valores y vectores propios estudiando el caso cuando $\textbf{A}$ es una matriz diagonalizable con valores propios repetidos, y también el caso cuando $\textbf{A}$ no es diagonalizable, es decir, cuando $\textbf{A}$ no tiene $n$ vectores propios linealmente independientes, por lo que no se pueden generar $n$ soluciones linealmente independientes al sistema en la forma que lo hemos venido haciendo. En este caso debemos introducir un concepto nuevo, que es el de vector propio generalizado, y modificar el método de valores y vectores propios para encontrar las $n$ soluciones linealmente independientes al sistema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Analítica I: Valores y vectores propios

Por Paola Lizeth Rojas Salazar

Introducción

Mucho hemos hablado, a lo largo de las entradas anteriores, sobre las soluciones de las ecuaciones resultantes de la forma $det(A-I\lambda)=0$ con $A$ matriz y $x$ vector; sin embargo, aún no nos hemos dedicado a resolver este tipo de ecuaciones. En esta entrada, hablaremos de las soluciones de estas ecuaciones que se llaman valores propios y que tienen un vector propio asociado.

¿Qué son?

Si tienes una matriz cuadrada $A$, vamos a decir que un vector $v$ es vector propio de $A$ con valor propio $\lambda \in \mathbb R$, si $v\neq 0$ y $Av=\lambda v$. A la pareja $\lambda , v$, la vamos a llamar pareja propia de A y el principal problema de estudio de esta entrada será encontrar a estas parejas.

Implicaciones importantes

Lema 4.7: Si $u$ y $v$ son vectores propios de $A$ con el mismo valor $\lambda \in \mathbb R$, entonces cualquier combinación lineal no trivial de ellos también es vector propio de $A$.

Demostración

Si tenemos dos parejas de $A$, $u$, $v$ que cumplen $Au=\lambda u$ y $Av=\lambda v$, entonces, para cualquier par de coeficientes $\alpha, \beta \in \mathbb R$ se tiene que, la combinación lineal de $u$ y $v$ con estos vectores, se cumple:

\begin{equation} A(\alpha u+\beta v)=\alpha (Au)+ \beta(Av)=\alpha (\lambda u)+\beta (\lambda v)=\lambda (\alpha u+\beta v)\end{equation}

Lo que significa que, si $\alpha u+ \beta v\neq 0$, entonces es vector propio de $A$ con valor propio $\lambda$.

Con lo que hemos terminado la demostración.

El siguiente lema es muy importante para realizar los cálculos.

Lema 4.8: Para cualquier matriz A cuadrada, se cumple: $\lambda$ es un valor propio de $A$ si y solo si, $det(A-\lambda I)=0$

Demostración

Sabemos que, como $\lambda$ es valor propio de $A$, entonces tiene a su vector propio $v$ correspondiente que cumple que: $Av=\lambda v$.

$\Longleftrightarrow Av-\lambda v=0$

$\Longleftrightarrow (A-\lambda I)v=0$

Y, como $v\neq 0$, entonces:

$\Longleftrightarrow det(A-\lambda I)=0$

Fin de la demostración.

Observa que, con los conocimientos que tenemos hasta el momento, ya puedes demostrar fácilmente el siguiente Lema y Corolario.

Lema 4.9: Si A es una matriz simétrica de $2×2$, entonces $A$ tiene dos valores propios $\lambda_1$ y $\lambda_2$ en $\mathbb R$.

Corolario 4.10: Sea $A$ una matriz simétrica de $2×2$, con valores propios $\lambda_1$ y $\lambda_2$. Entonces, sus valores propios coinciden ($\lambda_1 =\lambda_2$) si y solo si, $A= \lambda_1 I$. En este caso, cualquier vector $v\neq 0$ es vector propio.

Corolario 4.11: Considera una matriz simétrica $A$ de $2×2$. Entonces, existe una base $u, v \in \mathbb R^2$, donde $u$ y $v$ son vectores propios de $A$.

Demostración

Por el Lema 4.9, sabemos que $A$ tiene dos valores propios $\lambda_1$ y $\lambda_2$.

Caso 1, $\lambda_1=\lambda_2$

Por el Corolario 4.10, cualquier base $u,v \in \mathbb R^2$ funciona.

Caso 2, $\lambda_1\neq \lambda_2$

Por la definición de valor propio, existen $u,v$, vectores distintos de $0$ que corresponden a los valores propios $\lambda_1$ y $\lambda_2$ respectivamente.

Estos vectores no pueden ser paralelos porque por el Lema 4.8, esto implicaría que $\lambda_1=\lambda_2$.

Entonces, $u$ y $v$ forman una base de $\mathbb R^2$.

Terminamos la demostración.

Ejemplo

Calculemos los valores y vectores propios de la siguiente matriz simétrica:

\begin{equation}A=\begin{pmatrix} 2 & 2 \\ 2 & -1\end{pmatrix}\end{equation}

Valores propios

Recordemos que, para encontrar los valores propios, debemos resolver su polinomio característico que está dado por $det(A-\lambda I)$:

\begin{equation}det(A-\lambda I)=det\left(\begin{pmatrix} 2 & 2 \\ 2 & -1\end{pmatrix}-\begin{pmatrix} \lambda & 0\\ 0 & \lambda\end{pmatrix}\right)\end{equation}

Si continuamos con el desarrollo de la expresión anterior, comprueba que llegamos al siguiente polinomio característico:

\begin{equation}det(A-\lambda I)= \lambda^2-\lambda -6\end{equation}

Para resolver el polinomio anterior, debemos igualarlo a $0$, de donde vamos a obtener que, las raíces del polinomio son: $\lambda_1=\frac{1+\sqrt{1+24}}{2}=3$ y $\lambda_2=\frac{1-5}{2}=-2$

Vectores propios

Para encontrar los vectores propios correspondientes a $\lambda_1$ y $\lambda_2$, debemos encontrar una solución no trivial para los sistemas $(A-\lambda_i I)x=0$ con $i=1,2$

Para $\lambda_1=3$

\begin{equation}(A-3I)x=\begin{pmatrix} -1 & 2 \\ 2 & -4\end{pmatrix}\begin{pmatrix} x\\ y\end{pmatrix}=\begin{pmatrix} -x+2y\\ 2x-4y\end{pmatrix}=\begin{pmatrix} 0 \\ 0\end{pmatrix}\end{equation}

De donde obtenemos el siguiente sistema:

\begin{equation}\begin{matrix}-x+2y=0\\2x-4y=0\end{matrix}\end{equation}

Donde, una de sus soluciones no triviales es $u^T=(2,1)$

Para $\lambda_2=-2$

\begin{equation}(A-(-2)I)x=\begin{pmatrix} 4 & 2 \\ 2 & 1\end{pmatrix}\begin{pmatrix} x\\ y\end{pmatrix}=\begin{pmatrix} 4x+2y\\ 2x+y\end{pmatrix}=\begin{pmatrix} 0 \\ 0\end{pmatrix}\end{equation}

De donde obtenemos el siguiente sistema:

\begin{equation}\begin{matrix}4x+2y=0\\2x+y=0\end{matrix}\end{equation}

Donde, una de sus soluciones no triviales es $v^T=(-1,2)$

Observa que estos vectores $u$ y $v$ son ortogonales, ¿será coincidencia? Lo veremos más adelante.

Tarea moral

  1. Comprueba que, para los vectores propios obtenidos en los sistemas de ecuaciones $(6)$ y $(7)$, se cumple que $Au=3u$ y que $Av=-2v$.
  2. Demuestra, con un argumento algebraico y uno geométrico, que la matriz \begin{equation}\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\end{equation} no tiene vectores propios.
  3. Demuestra que la matriz \begin{equation}\begin{pmatrix} a & -b \\ b & a \end{pmatrix}\end{equation} no tiene vectores propios para $b\neq0$.
  4. Usa el Lema 4.9 para demostrar el Corolario 4.10.
  5. Demuestra el Lema 4.9. Hint: usa que, al ser $A$ matriz simétrica, entonces $A=A^T$, después, expresa a $A$ de la siguiente forma y desarrolla:

\begin{equation}A=\begin{pmatrix} a & b \\ b & c\end{pmatrix} \end{equation}

Más adelante…

En la siguiente entrada, concluiremos nuestro estudio de los valores y vectores propios, analizando la diagonalización ortogonal de matrices simétricas.