Archivo de la etiqueta: Exponencial de una matriz

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios repetidos

Por Omar González Franco

La matemática es la ciencia del orden y la medida, de bellas
cadenas de razonamientos, todos sencillos y fáciles.
– Descartes

Introducción

El método de valores y vectores propios nos ha permitido obtener las soluciones generales de sistemas lineales homogéneos. Ya vimos los casos en los que los valores propios son reales y distintos y cuando son complejos, en esta entrada presentaremos el caso en el que algunos de los valores propios son repetidos.

En este caso se presenta un problema y es que nosotros sabemos que si una matriz $\mathbf{A}$ de $n \times n$ con componentes constantes tiene $n$ valores propios distintos, entonces tendremos $n$ vectores propios que son linealmente independientes y por tanto tendremos $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Si se presenta el caso en el que algunos valores propios son repetidos, entonces tendremos $k < n$ valores propios que son distintos y por tanto $k$ vectores propios linealmente independientes, lo que significa que nos faltarán $n -k$ soluciones linealmente independientes del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. El problema aquí es ¿cómo obtener las soluciones linealmente independientes que nos faltan?, para así determinar la solución general del sistema lineal. Recordemos que la solución general corresponde a la combinación lineal de las $n$ soluciones linealmente independientes del sistema.

En esta entrada resolveremos este problema y lo interesante es que el concepto de exponencial de una matriz es lo que nos ayudará.

Vectores propios generalizados

De la primera unidad recordemos que la función $y(t) = ce^{at}$ es una solución de la ecuación diferencial escalar $y^{\prime}(t) = ay$ para cualesquiera constantes $a$ y $c$. De manera análoga, se desearía que la función vectorial

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} \label{1} \tag{1}$$

fuera una solución del sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

para cualquier vector constante $\mathbf{K}$.

En la entrada en la que definimos la exponencial de una matriz demostramos que la función $\mathbf{Y}(t) = e^{\mathbf{A} t}$ no sólo es solución del sistema lineal (\ref{2}), sino que incluso es una matriz fundamental de soluciones. También vimos que la derivada de $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es

$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t} \label{3} \tag{3}$$

Usando este resultado mostremos lo siguiente.

$$\dfrac{d}{dt} (e^{\mathbf{A}t} \mathbf{K}) = (\mathbf{A} e^{\mathbf{A}t}) \mathbf{K} = \mathbf{A} (e^{\mathbf{A}t} \mathbf{K}) \label{4} \tag{4}$$

Esto muestra que la función $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K}$ efectivamente es solución del sistema lineal (\ref{2}).

Ahora que sabemos que (\ref{1}) es solución del sistema lineal (\ref{2}) veamos cómo esto puede ayudarnos a encontrar $n$ vectores $\mathbf{K}$ linealmente independientes. Notemos lo siguiente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} = e^{\mathbf{A} t} e^{(\lambda \mathbf{I} -\lambda \mathbf{I})t} \mathbf{K} = e^{(\mathbf{A} -\lambda \mathbf{I})t}e^{\lambda \mathbf{I}t} \mathbf{K} \label{5} \tag{5}$$

para cualquier constante $\lambda$ y en donde hemos usado el hecho de que

$$(\mathbf{A} -\lambda \mathbf{I})(\lambda \mathbf{I}) = (\lambda \mathbf{I})(\mathbf{A} -\lambda \mathbf{I}) \label{6} \tag{6}$$

De acuerdo a la definición de exponencial de una matriz observemos lo siguiente.

$$e^{\lambda \mathbf{I} t} = \sum_{k = 0}^{\infty} \dfrac{(\lambda \mathbf{I} t)^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I}^{k} t^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I} t^{k}}{k!} = \left( \sum_{k = 0}^{\infty} \dfrac{ (\lambda t)^{k}}{k!} \right) \mathbf{I} = e^{\lambda t} \mathbf{I} = e^{\lambda t}$$

Por lo tanto, (\ref{5}) se puede escribir como

$$\mathbf{Y}(t) = e^{\mathbf{A}t} \mathbf{K} = e^{\lambda t} e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} \label{7} \tag{7}$$

Concentrémonos un momento en el término $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ de la solución anterior. Recordando que la exponencial $e^{\mathbf{A} t}$ es

$$e^{\mathbf{A}t} = \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty}\mathbf{A}^{k} \dfrac{t^{k}}{k!} \label{8} \tag{8}$$

entonces la exponencial $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ es

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} = \mathbf{I} + (\mathbf{A} -\lambda \mathbf{I}) t + (\mathbf{A} -\lambda \mathbf{I})^{2} \dfrac{t^{2}}{2!} + \cdots + (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!}$$

y, así mismo

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \left( \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{9} \tag{9}$$

Supongamos que existe un entero $m$, tal que

$$(\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} = \mathbf{0} \label{10} \tag{10}$$

Entonces la serie infinita (\ref{9}) terminará después de $m$ términos, pues si se satisface (\ref{10}), entonces se cumple

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Para $l > 0$ entero. Esto es claro debido a que

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = (\mathbf{A} -\lambda \mathbf{I})^{l} \left[ (\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} \right] = \mathbf{0}$$

Por lo tanto,

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \label{12} \tag{12}$$

Así, la solución (\ref{7}) se puede escribir como

\begin{align*}
\mathbf{Y}(t) &= e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \right] \\
&= e^{\lambda t} \left( \sum_{k = 0}^{m -1} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{13} \tag{13}
\end{align*}

No es casualidad que estemos usando la notación $\lambda$ y $\mathbf{K}$, estas cantidades corresponden a los valores y vectores propios de la matriz de coeficientes $\mathbf{A}$ del sistema lineal (\ref{2}), respectivamente.

El vector propio $\mathbf{K}$ que satisface (\ref{10}) recibe un nombre particular.

El resultado que nos interesa es la solución (\ref{13}). En el método de valores y vectores propios lo que hacemos es determinar los valores propios de la matriz $\mathbf{A}$ y con ellos posteriormente determinamos los vectores propios. Los vectores propios se determinan con la ecuación vectorial

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{14} \tag{14}$$

Observemos que si se satisface (\ref{14}), entonces la serie (\ref{13}) se reduce a $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$ que es la solución que ya conocíamos. Si los valores y vectores propios son complejos simplemente se aplica la teoría de la entrada anterior sobre la misma solución $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$.

A continuación presentamos el algoritmo para encontrar $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Algoritmo para encontrar $n$ soluciones linealmente independientes

  • Primero determinamos todos los valores y vectores propios de $\mathbf{A}$. Si $\mathbf{A}$ tiene $n$ vectores linealmente independientes, entonces el sistema lineal (\ref{2}) tiene $n$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Esto es lo que siempre hemos hecho.
  • Supongamos que $\mathbf{A}$ tiene únicamente $k < n$ vectores propios linealmente independientes, entonces se tendrá sólo $k$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Para determinar soluciones adicionales tomamos un valor propio $\lambda $ de $\mathbf{A}$ y buscamos todos los vectores $\mathbf{K}$ para los cuales se cumple simultáneamente
    $$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{15} \tag{15}$$
    Para cada uno de los vectores propios generalizados $\mathbf{K}$ encontrados, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \right]\label{16} \tag{16}$$
    Esto se obtiene de la solución (\ref{13}). Hacemos esto para todos los valores propios distintos $\lambda $ de $\mathbf{A}$.
  • Si aún no se tienen suficientes soluciones, entonces se buscan todos los vectores propios generalizados $\mathbf{K}$ para los cuales
    $$(\mathbf{A} -\lambda \mathbf{I})^{3} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq \mathbf{0}, \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{17} \tag{17}$$
    Para cada uno de tales vectores $\mathbf{K}$, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \dfrac{t^{2}}{2!}(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \right] \label{18} \tag{18}$$
    Nuevamente, este resultado se obtiene de considerar (\ref{17}) en (\ref{13}).
  • Este procedimiento se puede continuar hasta encontrar $n$ soluciones linealmente independientes.

Los puntos antes establecidos son los pasos a seguir para obtener $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Realicemos un ejemplo en el que apliquemos el algoritmo anterior para que todo quede más claro.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix}$$

Solución: El primer paso es determinar todos los valores y vectores propios de la matriz $\mathbf{A}$. La ecuación característica de $\mathbf{A}$ se obtiene de calcular el siguiente determinante.

$$\begin{vmatrix}
2 -\lambda & 1 & 3 \\ 0 & 2 -\lambda & -1 \\ 0 & 0 & 2 -\lambda
\end{vmatrix} = 0$$

Es sencillo notar que el polinomio característico es

$$P(\lambda) = (2 -\lambda )^{3}$$

y la ecuación característica es

$$(2 -\lambda )^{3} = 0$$

Vemos que la única raíz que se obtiene es $\lambda = 2$, éste es el único valor propio de $\mathbf{A}$ con multiplicidad tres ($r$ = 3). Un vector propio $\mathbf{K} \neq \mathbf{0}$ lo obtenemos de resolver la ecuación vectorial

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema se deduce que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser arbitrario lo elegimos como $k_{1} = 1$. Por lo tanto, un vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{1}(t) = e^{2t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

es una solución del sistema lineal dado. Esta es la única solución linealmente independiente que pudimos encontrar con el método tradicional. La matriz del sistema es de $3 \times 3$, así que nos hacen faltan 2 soluciones linealmente independientes para poder formar un conjunto fundamental de soluciones y, por tanto, formar la solución general.

Pasemos al segundo punto del algoritmo.

Ahora buscamos todos los vectores $\mathbf{K} \neq \mathbf{0}$, tal que se satisface (\ref{15}), es decir

$$(\mathbf{A} -2\mathbf{I})^{2} \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema deducimos que $k_{3} = 0$ y tanto $k_{1}$ como $k_{2}$ son arbitrarios, nosotros les podemos asignar algún valor, pero cuidado, recordemos que una condición adicional que tenemos es que este nuevo vector también satisfaga que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} \neq \mathbf{0}$$

Un vector que satisface (\ref{15}) simultáneamente es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

En este caso una solución del sistema lineal esta dada por (\ref{16}).

\begin{align*}
\mathbf{Y}_{2}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{Y}_{2}(t) = e^{2t} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix}$$

En este proceso hemos encontrado dos vectores linealmente independientes, a saber

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Ahora procedemos a buscar un vector propio generalizado más que satisfaga (\ref{17}) y tal que la solución sea de la forma (\ref{18}).

\begin{align*}
(\mathbf{A} -2 \mathbf{I})^{3} \mathbf{K} &= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}
\end{align*}

Es claro que cualquier vector es solución de esta ecuación, sin embargo también se debe satisfacer que

$$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq 0 \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq 0$$

Un vector que satisface lo anterior es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{18}) una solución del sistema lineal es

\begin{align*}
\mathbf{Y}_{3}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) + \dfrac{t^{2}}{2}(\mathbf{A} -2 \mathbf{I})^{2} \right] \mathbf{K}_{3} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix} \right] \\
\end{align*}

En este caso los vectores linealmente encontrados son

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}, \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{3} = \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix}$$

Y la tercer solución linealmente independiente es

$$\mathbf{Y}_{3}(t) = e^{2t} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix}$$

Ahora que tenemos las tres soluciones linealmente independientes del sistema lineal dado podemos concluir que la solución general del sistema es

$$\mathbf{Y}(t) = e^{2t} \left[ c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right]$$

Las constantes $c_{1}$, $c_{2}$ y $c_{3}$ se determinan a partir de los valores iniciales.

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}+ c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{2} \\ c_{3}
\end{pmatrix} $$

Esto implica que $c_{1} = 1$, $c_{2} = 2$ y $c_{3} = 1$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = e^{2t} \left[ \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + 2 \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right] = e^{2t} \begin{pmatrix}
1+ 5t -\dfrac{1}{2}t^{2} \\ 2 -t \\ 1
\end{pmatrix}$$

$\square$

Para concluir con el método de valores y vectores propios enunciaremos un importante teorema que es bueno tener en cuenta cuando trabajamos con valores y vectores propios. Este resultado es conocido como teorema de Cayley – Hamilton, la demostración no la haremos ya que se requiere de teoría de álgebra lineal que no veremos en este curso, pero que por supuesto puedes revisar en entradas de la materia correspondiente.

Teorema de Cayley – Hamilton

En el ejemplo anterior obtuvimos que la ecuación característica de la matriz $\mathbf{A}$ es

$$P(\lambda) = (2 -\lambda)^{3} = 0 \label{19} \tag{19}$$

Observemos que si sustituimos $\lambda$ por la matriz $\mathbf{A}$ obtenemos lo siguiente.

\begin{align*}
P(\mathbf{A}) &= (2 \mathbf{I} -\mathbf{A})^{3} \\
&= \left[ \begin{pmatrix}
2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 2
\end{pmatrix} – \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \right]^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix}
\end{align*}

Vemos que se cumple

$$P(\mathbf{A}) = (2 \mathbf{I} -\mathbf{A})^{3} = \mathbf{0} \label{20} \tag{20}$$

Esto no es casualidad, resulta que cualquier matriz $\mathbf{A}$ de $n \times n$ ¡satisface su propia ecuación característica!. El teorema de Cayley – Hamilton establece este hecho.

Con esto concluimos esta entrada y el estudio de los sistemas lineales homogéneos. En la siguiente entrada aprenderemos a resolver sistemas lineales no homogéneos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 3 \\ -3 & 5
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 1 \\ 2 & 1 & -1 \\ -3 & 2 & 4
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & -1 & 0 \\ 0 & 2 & 1 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & -1 & 2
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 1 & 2 \\ -1 & 1 & 1 \\ -2 & 1 & 3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -4 & -4 & 0 \\ 10 & 9 & 1 \\ -4 & -3 & 1
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    2 \\ 1 \\ -1
    \end{pmatrix}$

Más adelante…

Hemos concluido con los tres casos del método de valores y vectores propios para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas.

En la siguiente entrada comenzaremos a resolver sistemas lineales no homogéneos, el método que se utiliza es nuevamente el método de variación de parámetros. Veremos cómo es que este método se adapta a los sistemas lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Exponencial de una matriz y matriz fundamental de soluciones

Por Omar González Franco

Las matemáticas son el arte de dar el mismo nombre a diferentes cosas.
– Henri Poincare

Introducción

Ya conocemos las propiedades de los sistemas de ecuaciones diferenciales lineales de primer orden, así como las de sus soluciones. Mucho de lo que vimos en las dos entradas anteriores es bastante similar a lo que desarrollamos en las dos primeras entradas de la unidad 2, sin embargo en esta entrada aprenderemos algo completamente nuevo, definiremos una herramienta matemática que nos será de bastante utilidad. ¡Se trata de la exponencial de una matriz!.

En esta entrada definiremos lo que significa $e^{\mathbf{A}t}$, donde $\mathbf{A}$ es una matriz de $n \times n$ con componentes reales constantes.

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{1} \tag{1}$$

Así mismo, estudiaremos algunas de sus propiedades y su utilidad en la resolución de sistemas lineales.

Operaciones sobre componentes de matrices

Muchas de las operaciones que se pueden hacer hacía una matriz son aplicables sobre cada una de las componentes que conforman a dicha matriz. Para comprender este hecho es conveniente definir lo que significa la derivada e integral de una matriz, esto nos permitirá ganar intuición.

Consideremos por un momento una matriz de $n \times n$ compuesta de funciones.

$$\mathbf{A}(t) = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \label{2} \tag{2}$$

donde $a_{i, j}(t)$, $i, j \in \{1, 2, 3, \cdots, n \}$ son funciones sobre algún intervalo común $\delta$. Comencemos por definir la derivada de una matriz.

Algunas reglas de derivación se enuncian a continuación.

De manera equivalente se puede definir la integral de una matriz.

Ejemplo: Calcular la derivada de la matriz

$$\mathbf{A}(t) = \begin{pmatrix}
\cos(t) & \sin(t) \\ \sin^{2}(t) & \cos^{2}(t)
\end{pmatrix}$$

Solución: Aplicamos la derivada sobre cada componente de la matriz.

$$\dfrac{d}{dt} \mathbf{A}(t) = \begin{pmatrix}
\dfrac{d}{dt} \cos(t) & \dfrac{d}{dt} \sin(t) \\ \dfrac{d}{dt} \sin^{2}(t) & \dfrac{d}{dt} \cos^{2}(t)
\end{pmatrix} = \begin{pmatrix}
-\sin(t) & \cos(t) \\ 2 \sin(t) \cos(t) & -2 \cos(t) \sin(t)
\end{pmatrix}$$

$\square$

De manera similar se puede hacer la integral de una matriz.

Definamos lo que es una serie de matrices. En este caso consideremos matrices constantes.

Si tenemos series de matrices es claro que algunas pueden o no converger. A continuación definimos la convergencia en matrices.

Con esto en mente puede resultar más comprensible la definición de la exponencial de una matriz.

Exponencial de una matriz

Recordemos que la función escalar de la exponencial se define como

$$e^{\alpha t} = 1 + \alpha t + \alpha^{2} \dfrac{t^{2}}{2!} + \cdots + \alpha^{k} \dfrac{t^{k}}{k!} = \sum_{k = 0}^{\infty} \alpha^{k} \dfrac{t^{k}}{k!} \label{9} \tag{9}$$

Con las definiciones anteriores podemos extender la serie de la exponencial anterior a una serie de matrices.

Se puede demostrar que la serie (\ref{10}) converge, sin embargo se requiere de un poco más de teoría que queda fuera de nuestro interés.

Veamos un ejemplo en el que determinemos la exponencial de una matriz.

Ejemplo: Determinar la matriz $e^{\mathbf{A}}$, en donde

$$\mathbf{A} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}$$

Solución: Para determinar la matriz $e^{\mathbf{A}}$ usemos directamente la definición (\ref{10}). Sabemos que

$$\mathbf{A}^{0} = \begin{pmatrix}
1 & 0 \\ 0 & 1
\end{pmatrix} = \mathbf{I} \hspace{1cm} y \hspace{1cm} \mathbf{A}^{1} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} = \begin{pmatrix}
2^{0} & 2^{0} \\ 2^{0} & 2^{0}
\end{pmatrix}$$

Ahora bien,

$$\mathbf{A}^{2} = \mathbf{AA} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} = \begin{pmatrix}
2 & 2 \\ 2 & 2
\end{pmatrix} = \begin{pmatrix}
2^{1} & 2^{1} \\ 2^{1} & 2^{1}
\end{pmatrix}$$

$$\mathbf{A}^{3} = \mathbf{AA}^{2} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
2 & 2 \\ 2 & 2
\end{pmatrix} = \begin{pmatrix}
4 & 4 \\ 4 & 4
\end{pmatrix} = \begin{pmatrix}
2^{2} & 2^{2} \\ 2^{2} & 2^{2}
\end{pmatrix}$$

$$\mathbf{A}^{4} = \mathbf{AA}^{3} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
4 & 4 \\ 4 & 4
\end{pmatrix} = \begin{pmatrix}
8 & 8 \\ 8 & 8
\end{pmatrix} = \begin{pmatrix}
2^{3} & 2^{3} \\ 2^{3} & 2^{3}
\end{pmatrix}$$

$$\vdots$$

$$\mathbf{A}^{k} = \mathbf{AA}^{k -1} = \begin{pmatrix}
2^{k -1} & 2^{k -1} \\ 2^{k -1} & 2^{k -1}
\end{pmatrix}$$

$$\mathbf{A}^{k + 1} = \mathbf{AA}^{k} = \begin{pmatrix}
2^{k} & 2^{k} \\ 2^{k} & 2^{k}
\end{pmatrix}$$

$$\vdots$$

Sustituimos en (\ref{10}).

\begin{align*} e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} &= \dfrac{1}{0!} \mathbf{A}^{0} + \dfrac{1}{1!} \mathbf{A}^{1} + \dfrac{1}{2!} \mathbf{A}^{2} + \dfrac{1}{3!} \mathbf{A}^{3} + \dfrac{1}{4!} \mathbf{A}^{4} + \cdots + \dfrac{1}{k!} \mathbf{A}^{k} + \cdots \\
&= \dfrac{1}{0!} \begin{pmatrix}
1 & 0 \\ 0 & 1
\end{pmatrix} + \dfrac{1}{1!} \begin{pmatrix}
2^{0} & 2^{0} \\ 2^{0} & 2^{0}
\end{pmatrix} + \dfrac{1}{2!} \begin{pmatrix}
2^{1} & 2^{1} \\ 2^{1} & 2^{1}
\end{pmatrix} + \dfrac{1}{3!} \begin{pmatrix}
2^{2} & 2^{2} \\ 2^{2} & 2^{2}
\end{pmatrix} + \dfrac{1}{4!} \begin{pmatrix}
2^{3} & 2^{3} \\ 2^{3} & 2^{3}
\end{pmatrix} + \cdots + \dfrac{1}{k!} \begin{pmatrix}
2^{k -1} & 2^{k -1} \\ 2^{k -1} & 2^{k -1}
\end{pmatrix} \\
&= \begin{pmatrix}
\dfrac{1}{0!}(1) & \dfrac{1}{0!}(0) \\ \dfrac{1}{0!}(0) & \dfrac{1}{0!}(1)
\end{pmatrix} + \begin{pmatrix}
\dfrac{1}{1!}(2^{0}) & \dfrac{1}{1!}(2^{0}) \\ \dfrac{1}{1!}(2^{0}) & \dfrac{1}{1!}(2^{0})
\end{pmatrix} + \begin{pmatrix}
\dfrac{1}{2!}(2^{1}) & \dfrac{1}{2!}(2^{1}) \\ \dfrac{1}{2!}(2^{1}) & \dfrac{1}{2!}(2^{1})
\end{pmatrix} + \begin{pmatrix}
\dfrac{1}{3!}(2^{2}) & \dfrac{1}{3!}(2^{2}) \\ \dfrac{1}{3!}(2^{2}) & \dfrac{1}{3!}(2^{2})
\end{pmatrix} + \cdots + \begin{pmatrix}
\dfrac{1}{k!}(2^{k -1}) & \dfrac{1}{k!}(2^{k -1}) \\ \dfrac{1}{k!}(2^{k -1}) & \dfrac{1}{k!}(2^{k -1})
\end{pmatrix} \\
&= \begin{pmatrix}
\dfrac{1}{0!}(1) + \dfrac{1}{1!}(2^{0}) + \dfrac{1}{2!}(2^{1}) + \dfrac{1}{3!}(2^{2}) + \cdots + \dfrac{1}{k!}(2^{k -1}) & \dfrac{1}{0!}(0) + \dfrac{1}{1!}(2^{0}) + \dfrac{1}{2!}(2^{1}) + \dfrac{1}{3!}(2^{2}) + \cdots + \dfrac{1}{k!}(2^{k -1}) \\ \dfrac{1}{0!}(0) + \dfrac{1}{1!}(2^{0}) + \dfrac{1}{2!}(2^{1}) + \dfrac{1}{3!}(2^{2}) + \cdots + \dfrac{1}{k!}(2^{k -1}) & \dfrac{1}{0!}(1) + \dfrac{1}{1!}(2^{0}) + \dfrac{1}{2!}(2^{1}) + \dfrac{1}{3!}(2^{2}) + \cdots + \dfrac{1}{k!}(2^{k -1})
\end{pmatrix} \\
&= \dfrac{1}{2}\begin{pmatrix}
\dfrac{1}{0!}(2) + \dfrac{1}{1!}(2^{1}) + \dfrac{1}{2!}(2^{2}) + \dfrac{1}{3!}(2^{3}) + \cdots + \dfrac{1}{k!}(2^{k}) & \dfrac{1}{0!}(0) + \dfrac{1}{1!}(2^{1}) + \dfrac{1}{2!}(2^{2}) + \dfrac{1}{3!}(2^{3}) + \cdots + \dfrac{1}{k!}(2^{k}) \\ \dfrac{1}{0!}(0) + \dfrac{1}{1!}(2^{1}) + \dfrac{1}{2!}(2^{2}) + \dfrac{1}{3!}(2^{3}) + \cdots + \dfrac{1}{k!}(2^{k}) & \dfrac{1}{0!}(2) + \dfrac{1}{1!}(2^{1}) + \dfrac{1}{2!}(2^{2}) + \dfrac{1}{3!}(2^{3}) + \cdots + \dfrac{1}{k!}(2^{k})
\end{pmatrix}
\end{align*}

¡Uff!. En la última igualdad lo que hicimos fue multiplicar por un uno en la forma $1 = \dfrac{2}{2}$, esto nos permitió hacer que la potencia de los $2$ sea la misma que en el factorial.

Escribamos la última matriz como series infinitas.

$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \dfrac{1}{2} \begin{pmatrix}
\dfrac{1}{0!}(2) + \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} & \dfrac{1}{0!}(0) + \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} \\ \dfrac{1}{0!}(0) + \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} & \dfrac{1}{0!}(2) + \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!}
\end{pmatrix}$$

Nos gustaría hacer que las series comiencen en $k = 0$. Notemos que, de acuerdo a la forma de la serie, el termino $k = 0$ daría como resultado un $1$, considerando esto la expresión anterior la podemos escribir como

$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \dfrac{1}{2} \begin{pmatrix}
1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} & \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} \\ \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} & 1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!}
\end{pmatrix}$$

Para las componentes de la matriz en las que la serie aún no comienza en $k = 0$ sumamos y restamos un $1$, así el $+1$ puede ser incluido en la serie.

$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \dfrac{1}{2} \begin{pmatrix}
1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} & -1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} \\ -1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} & 1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!}
\end{pmatrix}$$

Ahora todas las series comienzan en $k = 0$. Sabemos que la serie converge a un número.

$$\sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} = e^{2}$$

Por definición de convergencia en matrices, se tiene

$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \dfrac{1}{2} \begin{pmatrix}
1 + e^{2} & -1 + e^{2} \\ -1 + e^{2} & 1 + e^{2}
\end{pmatrix}$$

Por lo tanto, la matriz que buscamos es

$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \begin{pmatrix}
\dfrac{e^{2} + 1}{2} & \dfrac{e^{2} -1}{2} \\ \dfrac{e^{2} -1}{2} & \dfrac{e^{2} + 1}{2}
\end{pmatrix}$$

$\square$

Como se puede notar, calcular la exponencial de una matriz usando la definición puede ser una tarea bastante tediosa. Por su puesto existen métodos que nos permiten calcular este tipo de matrices de forma más sencilla, más adelante revisaremos uno de ellos.

Algunas propiedades de la exponencial de una matriz se enuncian a continuación.

No demostraremos este teorema ya que nuestro principal interés está en conocer como estos conceptos y propiedades se pueden aplicar en nuestro estudio sobre sistemas lineales.

A continuación mostraremos un resultado importante e interesante y es que la función (\ref{11}) ¡es solución del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$!.

La exponencial de una matriz y los sistemas lineales

Demostración: Consideremos la función $\mathbf{Y}(t) = e^{\mathbf{A} t}$. Apliquemos la derivada término a término de la definición (\ref{11}).

\begin{align*}
\dfrac{d}{dt} e^{\mathbf{A}t} &= \dfrac{d}{dt} \left[ \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k}\dfrac{t^{k}}{k!} + \cdots \right] \\
&= \dfrac{d}{dt} \mathbf{I} + \dfrac{d}{dt} \left( \mathbf{A}t \right) + \dfrac{d}{dt} \left( \mathbf{A}^{2} \dfrac{t^{2}}{2!} \right) + \cdots + \dfrac{d}{dt} \left( \mathbf{A}^{k}\dfrac{t^{k}}{k!} \right) + \cdots
\end{align*}

Como las matrices $\mathbf{I}$ y $\mathbf{A}$ son constantes, entonces se tiene lo siguiente.

\begin{align*}
\dfrac{d}{dt} e^{\mathbf{A}t} &= \mathbf{0} + \mathbf{A} + \mathbf{A}^{2}t + \dfrac{1}{2!}\mathbf{A}^{3}t^{2} + \cdots + \mathbf{A}^{k} \dfrac{t^{k -1}}{(k -1)!} + \mathbf{A}^{k + 1}\dfrac{t^{k}}{k!} + \cdots \\
&= \mathbf{A} \left[ \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k}\dfrac{t^{k}}{k!} + \cdots \right] \\
&= \mathbf{A} e^{\mathbf{A}t}
\end{align*}

Con esto hemos mostrado que

$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t} \label{12} \tag{12}$$

Es decir,

$$\mathbf{Y}^{\prime} = \mathbf{AY}$$

$\square$

La ecuación (\ref{12}) no sólo prueba que es solución del sistema lineal, sino que además muestra cuál es la derivada de la matriz $e^{\mathbf{A} t}$.

Veamos un problema de valores iniciales.

Demostración: Consideremos la función

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0}$$

con $\mathbf{Y}_{0}$ un vector constante, si la derivamos obtenemos lo siguiente.

$$\mathbf{Y}^{\prime} = \dfrac{d}{dt}(e^{\mathbf{A}t} \mathbf{Y}_{0}) = \left( \mathbf{A} e^{\mathbf{A}t} \right) \mathbf{Y}_{0} = \mathbf{A} \left( e^{\mathbf{A}t} \mathbf{Y}_{0} \right) = \mathbf{AY}$$

En donde se ha hecho uso del resultado (\ref{12}). Esto muestra que la función $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0}$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Si tomamos $t = 0$ y considerando que $e^{\mathbf{A}0} = e^{\mathbf{0}} = \mathbf{I}$, se tiene

$$\mathbf{Y}(0) = e^{\mathbf{A}0} \mathbf{Y}_{0} = \mathbf{IY}_{0} = \mathbf{Y}_{0}$$

Es decir, se satisface la condición inicial $\mathbf{Y}(0) = \mathbf{Y}_{0}$.

$\square$

Nota: Es claro que la matriz $e^{\mathbf{A} t}$ es una matriz de $n \times n$, mientras que el vector constante $\mathbf{Y}_{0}$ es un vector de $n \times 1$, así que es importante el orden de las matrices, la función del teorema anterior es $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0}$ la cual esta bien definida y el resultado es una matriz de $n \times n$, mientras que la operación $\mathbf{Y}_{0} e^{\mathbf{A} t}$ no está definida de acuerdo al algoritmo de multiplicación de matrices. Cuidado con ello.

Para concluir esta entrada retomaremos el concepto de matriz fundamental de soluciones visto en la entrada anterior.

Matriz fundamental de soluciones

Retomemos la definición de matriz fundamental de soluciones.

En esta sección denotaremos por $\hat{\mathbf{Y}}(t)$ a una matriz fundamental de soluciones.

El objetivo de esta sección es mostrar que se puede determinar directamente la matriz $e^{\mathbf{A}t}$ a partir de cualquier matriz fundamental de soluciones. Antes de llegar a este resultado veamos unos resultados previos.

Demostración:

$\Rightarrow$) Por demostrar: $\hat{\mathbf{Y}}(t)$ satisface al sistema y se cumple que $W(0) \neq 0$.

Supongamos que $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ conformada por los vectores solución $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$, es decir,

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1} & \mathbf{Y}_{2} & \cdots & \mathbf{Y}_{n} \end{pmatrix} = \begin{pmatrix}
y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix}$$

Si $\mathbf{A}$ es la matriz de coeficientes (\ref{1}), entonces

$$\mathbf{A} \hat{\mathbf{Y}} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \begin{pmatrix}
y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{15} \tag{15}$$

La $i$-ésima columna del resultado de multiplicar estas matrices es

$$\mathbf{A} \mathbf{Y}_{i} = \begin{pmatrix}
a_{11}y_{1i}(t) + a_{12}y_{2i}(t) + \cdots + a_{1n}y_{ni}(t) \\
a_{21}y_{1i}(t) + a_{22}y_{2i}(t) + \cdots + a_{2n}y_{ni}(t) \\
\vdots \\
a_{n1}y_{1i}(t) + a_{n2}y_{2i}(t) + \cdots + a_{nn}y_{ni}(t)
\end{pmatrix} \label{16} \tag{16}$$

Identificamos que esta matriz corresponde a la derivada $\mathbf{Y}^{\prime}_{i}$ ya que cada $\mathbf{Y}_{i}$ es solución del sistema, es decir,

$$\mathbf{Y}^{\prime}_{i} =\mathbf{AY}_{i}, \hspace{1cm} i = 1, 2, \cdots, n \label{17} \tag{17}$$

Entonces $\mathbf{A\hat{Y}}(t)$ tiene por columnas a los vectores $\mathbf{Y}^{\prime}_{1}, \mathbf{Y}^{\prime}_{2}, \cdots, \mathbf{Y}^{\prime}_{n}$. Por lo tanto

$$\hat{\mathbf{Y}}^{\prime} = \mathbf{A\hat{Y}}$$

es decir, la matriz fundamental $\hat{\mathbf{Y}}(t)$ satisface al sistema.

Como $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones, entonces los vectores que la componen $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes, de manera que $\forall$ $t \in \mathbb{R}$ el Wronskiano es distinto de cero.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(t) \neq 0 \label{18} \tag{18}$$

en particular se cumple para $t = 0$, es decir,

$$W( \mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(0) \neq 0$$

Demostremos el regreso.

$\Leftarrow$) Por demostrar: $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones.

Sea $\hat{\mathbf{Y}}(t)$ una matriz compuesta por los vectores $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$ y cuya derivada es

$$\hat{\mathbf{Y}}^{\prime} = \mathbf{A \hat{Y}}$$

entonces las columnas satisfacen

$$\mathbf{AY}_{i} = \mathbf{Y}^{\prime}_{i}$$

así $\mathbf{Y}_{i}(t)$ es solución del sistema

$$\mathbf{Y}^{\prime} = \mathbf{AY}$$

para $i = 1, 2, \cdots, n$.

Por otro lado, por hipótesis

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(0) \neq 0$$

Como es distinto de cero en un punto, entonces lo debe ser en todo el dominio, es decir, $\forall$ $t \in \mathbb{R}$ se cumple que

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(t) \neq 0$$

lo que significa que $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes.

De ambos resultados concluimos que la matriz $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones.

$\square$

Veamos un resultado interesante. Ya vimos que la matriz $e^{\mathbf{A} t}$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$, pero no solo resulta ser solución, sino que además ¡es una matriz fundamental de soluciones!.

Demostración: Anteriormente mostramos que

$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t}$$

lo que prueba que $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Supongamos que $e^{\mathbf{A} t}$ está compuesta por la matriz de vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$. Si $t = 0$, se tiene que

$$e^{\mathbf{A} 0} = e^{\mathbf{0}} = \mathbf{I}$$

y además el determinante es distinto de cero.

$$|e^{\mathbf{A} 0}| = |\mathbf{I}| = 1 \neq 0 \label{19} \tag{19}$$

o bien,

$$|e^{\mathbf{A} 0}| = W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(0) \neq 0 \label{20} \tag{20}$$

Por el teorema anterior concluimos que $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es una matriz fundamental de soluciones del sistema lineal.

$\square$

Veamos un resultado más antes de llegar a nuestro objetivo.

Demostración: Sean $\hat{\mathbf{Y}}(t)$ y $\hat{\mathbf{Z}}(t)$ matrices fundamentales del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. Supongamos que

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1} & \mathbf{Y}_{2} & \cdots & \mathbf{Y}_{n} \end{pmatrix} \label{22} \tag{22}$$

y

$$\hat{\mathbf{Z}}(t) = \begin{pmatrix} \mathbf{Z}_{1} & \mathbf{Z}_{2} & \cdots & \mathbf{Z}_{n} \end{pmatrix} \label{23} \tag{23}$$

Donde la $i$-ésima columna de las matrices anteriores son

$$\mathbf{Y}_{i} = \begin{pmatrix}
y_{1i} \\ y_{2i} \\ \vdots \\ y_{ni}
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{Z}_{i} = \begin{pmatrix}
z_{1i} \\ z_{2i} \\ \vdots \\ z_{ni}
\end{pmatrix} \label{24} \tag{24}$$

Como ambas matrices son matrices fundamentales de soluciones, entonces cada $\mathbf{Y}_{i}$ y cada $\mathbf{Z}_{i}$ $i = 1, 2, 3, \cdots, n$ son linealmente independientes. Esto nos permite escribir cualquier columna de $\hat{\mathbf{Y}}(t)$ como combinación lineal de las columnas de $\hat{\mathbf{Z}}(t)$, es decir, existen constantes $c_{1i}, c_{2i}, \cdots, c_{ni}$, tales que

$$\mathbf{Y}_{i}(t) = c_{1i} \mathbf{Z}_{1}(t) + c_{2i} \mathbf{Z}_{2}(t) + \cdots + c_{ni} \mathbf{Z}_{n}(t) \label{25} \tag{25}$$

Donde el índice $i$ de las constantes indica el número de columna de la matriz $\hat{\mathbf{Y}}(t)$, es decir, si definimos el vector

$$\mathbf{c}_{i} = \begin{pmatrix}
c_{1i} \\ c_{2i} \\ \vdots \\ c_{ni}
\end{pmatrix} \label{26} \tag{26}$$

podemos escribir la combinación lineal (\ref{25}) como

$$\mathbf{Y}_{i}(t) = \begin{pmatrix} \mathbf{Z}_{1} & \mathbf{Z}_{2} & \cdots & \mathbf{Z}_{n} \end{pmatrix} \begin{pmatrix}
c_{1i} \\ c_{2i} \\ \vdots \\ c_{ni}
\end{pmatrix} = \begin{pmatrix}
c_{1i}z_{11} + c_{2i}z_{12} + \cdots + c_{ni}z_{1n} \\
c_{1i}z_{21} + c_{2i}z_{22} + \cdots + c_{ni}z_{2n} \\
\vdots \\
c_{1i}z_{n1} + c_{2i}z_{n2} + \cdots + c_{ni}z_{nn}
\end{pmatrix} \label{27} \tag{27}$$

Definamos la matriz constante $\mathbf{C}$ como

$$\mathbf{C} = \begin{pmatrix} \mathbf{c_{1}} & \mathbf{c_{2}} & \cdots & \mathbf{c_{n}} \end{pmatrix} = \begin{pmatrix}
c_{11} & c_{12} & \cdots & c_{1n} \\
c_{21} & c_{22} & \cdots & c_{2n} \\
\vdots & & & \vdots \\
c_{n1} & c_{n2} & \cdots & c_{nn}
\end{pmatrix} \label{28} \tag{28}$$

En forma matricial la operación $\hat{\mathbf{Z}}(t) \mathbf{C}$ corresponde al producto de las siguientes matrices de $n \times n$.

$$\hat{\mathbf{Z}}(t) \mathbf{C} = \begin{pmatrix}
z_{11} & z_{12} & \cdots & z_{1n} \\
z_{21} & z_{22} & \cdots & z_{2n} \\
\vdots & & & \vdots\\
z_{n1} & z_{n2} & \cdots & z_{nn}
\end{pmatrix} \begin{pmatrix}
c_{11} & c_{12} & \cdots & c_{1n} \\
c_{21} & c_{22} & \cdots & c_{2n} \\
\vdots & & & \vdots \\
c_{n1} & c_{n2} & \cdots & c_{nn}
\end{pmatrix} \label{29} \tag{29}$$

Observemos con cuidado que el resultado (\ref{27}) corresponde a la $i$-ésima columna de hacer el producto $\hat{\mathbf{Z}}(t) \mathbf{C}$. Por lo tanto, las $n$ ecuaciones (\ref{25}) son equivalentes al sistema

$$\hat{\mathbf{Y}}(t) = \hat{\mathbf{Z}}(t) \mathbf{C}$$

$\square$

Hemos llegado al resultado final. Dicho resultado involucra el concepto de matriz inversa, recordemos este concepto de álgebra lineal.

La ecuación anterior queda como

$$\mathbf{AA}^{-1} = \mathbf{A}^{-1} \mathbf{A} = \mathbf{I} \label{31} \tag{31}$$

Demostremos el resultado que nos muestra cómo obtener la matriz $e^{\mathbf{A}t}$ a partir de una matriz fundamental de soluciones.

Demostración: Sabemos que $e^{\mathbf{A} t}$ y $\hat{\mathbf{Y}}(t)$ son matrices fundamentales de soluciones de $\mathbf{Y}^{\prime} = \mathbf{AY}$, de acuerdo al teorema anterior ambas funciones se relacionan de la siguiente forma.

$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \mathbf{C} \label{33} \tag{33}$$

para alguna matriz constante $\mathbf{C}$.

Tomemos $t = 0$, por un lado

$$e^{\mathbf{A} 0} = e^{\mathbf{0}} = \mathbf{I}$$

Por otro lado, de (\ref{33})

$$e^{\mathbf{A} 0} = \hat{\mathbf{Y}}(0) \mathbf{C}$$

De ambas ecuaciones tenemos que

$$\hat{\mathbf{Y}}(0) \mathbf{C} = \mathbf{I} \label{34} \tag{34}$$

Esta ecuación obliga que

$$\mathbf{C} = \hat{\mathbf{Y}}^{-1}(0) \label{35} \tag{35}$$

Sustituyendo en (\ref{33}) concluimos que

$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0)$$

$\square$

Finalicemos con un ejemplo.

Ejemplo: Determinar la matriz $e^{\mathbf{A} t}$, donde

$$\mathbf{A} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix}$$

Solución: Imagina lo complicado que sería este problema si lo intentáramos resolver usando la definición (\ref{11}).

En la entrada anterior vimos que una matriz fundamental de soluciones del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

es

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$

Determinemos la matriz $e^{\mathbf{A} t}$ usando la expresión (\ref{32}).

Calcular la matriz inversa puede ser una tarea larga y debido a que no es el objetivo llevar a cabo estas operaciones se puede comprobar que la matriz inversa de $\hat{\mathbf{Y}}(t)$ es

$$\hat{\mathbf{Y}}^{-1}(t) = \begin{pmatrix}
\dfrac{1}{2} & -\dfrac{1}{2} & 0 \\ \dfrac{1}{2 e^{2t}} & \dfrac{1}{2 e^{2t}} & 0 \\ 0 & 0 & \dfrac{1}{e^{3t}}
\end{pmatrix}$$

Basta probar que $\hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(t) = \mathbf{I}$. Para calcular la inversa se puede hacer uso de algún programa computacional. Si en la matriz inversa evaluamos en $t = 0$, se tiene

$$\hat{\mathbf{Y}}^{-1}(0) = \begin{pmatrix}
\dfrac{1}{2} & -\dfrac{1}{2} & 0 \\ \dfrac{1}{2} & \dfrac{1}{2} & 0 \\ 0 & 0 & 1
\end{pmatrix}$$

Por lo tanto,

$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix} \begin{pmatrix}
\dfrac{1}{2} & -\dfrac{1}{2} & 0 \\ \dfrac{1}{2} & \dfrac{1}{2} & 0 \\ 0 & 0 & 1
\end{pmatrix}$$

Haciendo la multiplicación de matrices correspondiente obtenemos finalmente que

$$e^{\mathbf{A} t} = \begin{pmatrix}
\dfrac{e^{2t} + 1}{2} & \dfrac{e^{2t} -1}{2} & 0 \\ \dfrac{e^{2t} -1}{2} & \dfrac{e^{2t} + 1}{2} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$

$\square$

Existen otras formas de calcular la exponencial de una matriz, una de ellas es usando la transformada de Laplace y otra puede ser diagonalizando matrices. Si lo deseas puedes investigar sobre estos métodos en la literatura, por nuestra parte serán temas que no revisaremos ya que, más que obtener exponenciales de matrices, estamos interesados en obtener soluciones de sistemas de ecuaciones diferenciales, aunque como vimos, están estrechamente relacionados.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Sea

    $\mathbf{A}(t) = \begin{pmatrix} \sin(2t) \\ e^{3t} \\ 8t -1 \end{pmatrix}$
  • Demostrar que la derivada de la matriz $\mathbf{A}$ es

    $\dfrac{d}{dt} \mathbf{A}(t) = \begin{pmatrix} 2 \cos(2t) \\ 3e^{3t} \\ 8 \end{pmatrix}$
  • Demostrar que la integral de $0$ a $t$ de la matriz $\mathbf{A}$ es

    $\int_{0}^{t} \mathbf{A}(s) ds = \begin{pmatrix} -\dfrac{1}{2} \cos(2t) + \dfrac{1}{2} \\ \dfrac{1}{3} e^{3t} -\dfrac{1}{3} \\ 4t^{2} -t \end{pmatrix}$
  1. Demostrar que

    $\int{\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} ds} = t \mathbf{I} + \mathbf{C}$

    Donde,

    $\mathbf{I} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C} = \begin{pmatrix} 0 & c & c \\ c & 0 & c \\ c & c & 0 \end{pmatrix}$

    con $c$ una constante.
  1. Obtener la matriz $e^{\mathbf{A}t}$ para los siguientes casos:
  • $\mathbf{A} = \begin{pmatrix} 1 & 2 \\ 2 & 1 \end{pmatrix}$
  • $\mathbf{A} = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}$
  • $\mathbf{A} = \begin{pmatrix} 1 & 2 \\ 2 & 4 \end{pmatrix}$
  1. Sea $\hat{\mathbf{Y}}(t)$ una matriz fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. Demostrar que $$e^{\mathbf{A} (t -t_{0})} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(t_{0})$$
  1. Una matriz fundamental del sistema

    $\mathbf{Y}^{\prime} = \begin{pmatrix} 1 & -1 \\ 1 & 3 \end{pmatrix} \mathbf{Y} = \mathbf{AY}$

    es

    $\hat{\mathbf{Y}}(t) = \begin{pmatrix} e^{2t} & te^{2t} \\ -e^{2t} & -(1 + t) e^{2t} \end{pmatrix}$
  • Demostrar que la matriz anterior en efecto es una matriz fundamental de soluciones del sistema.
  • Demostrar que la matriz $e^{\mathbf{A} t}$ está dada por

    $e^{\mathbf{A} t} = \begin{pmatrix} (1 -t) e^{2t} & -te^{2t} \\ te^{2t} & (1 + t) e^{2t} \end{pmatrix}$

Más adelante…

En estas tres primeras entradas de la unidad 3 establecimos la teoría básica que debemos conocer sobre los sistemas lineales de primer orden compuestos por $n$ ecuaciones diferenciales lineales de primer orden. En particular, esta entrada es de interés, pues más adelante la exponencial de una matriz volverá a aparecer cuando estudiemos métodos de resolución y cuando justifiquemos los teoremas de existencia y unicidad.

En las siguientes entradas comenzaremos a desarrollar los distintos métodos de resolución de estos sistemas lineales. En particular, en la siguiente entrada desarrollaremos el método de eliminación de variables, éste método en realidad es muy sencillo, útil y práctico en muchas ocasiones, aunque también es un método muy limitado.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: La exponencial de una matriz

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos a resolver algunos sistemas de ecuaciones lineales con coeficientes constantes. Sin embargo como pudimos advertir, el método de eliminación de variables funciona para casos muy sencillos con pocas ecuaciones en el sistema. Además, necesitamos previo conocimiento de cómo resolver ecuaciones diferenciales de orden superior pues dicho método nos lleva a resolver una ecuación de este tipo. Por tanto, quisiéramos un nuevo método que nos permita resolver los mismos sistemas y algunos más complejos.

Antes de presentar tal método, lo que quisiéramos conocer es si existe una fórmula explícita para las funciones solución al problema de condición inicial $$\dot{\textbf{X}}=\textbf{A}\textbf{X}+\textbf{Q}$$ con condición inicial $\textbf{X}(t_{0})=\textbf{C}$, que sea muy parecida a la fórmula que encontramos para ecuaciones lineales de primer orden $\frac{dy}{dt}+p(t)y=q(t)$ con condición inicial $y(t_{0})=y_{0}$, la cual es de la forma $$y(t)=e^{-\int p(t) dt} \left[\int e^{\int p(t) dt}q(t)+k_{0}\right]$$ para cierta constante $k_{0}$. Intercambiando las respectivas funciones, nuestra hipotética solución al sistema quedaría de la forma $$\textbf{X}(t)=\textbf{e}^{-\int \textbf{A}(t) dt} \left[\int \textbf{e}^{\int \textbf{A}(t) dt}\textbf{Q}(t)+\textbf{B}\right]$$ con cierta matriz constante $\textbf{B}$. Por supuesto, no sabemos qué significa $\int \textbf{A}(t) dt$ ni mucho menos la exponencial de esta última expresión.

En esta entrada responderemos a estas preguntas. Daremos las definiciones auxiliares necesarias para construir el concepto de exponencial de una matriz cuadrada de tamaño $n \times n$ con coeficientes constantes, que denotaremos por $\textbf{e}^{\textbf{A}}$. Posteriormente, demostraremos las principales propiedades que cumple $\textbf{e}^{\textbf{A}}$, entre ellas su relación con los sistemas de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ con condición inicial $\textbf{X}(0)=\textbf{C}$. Finalmente, dado $t \in \mathbb{R}$ relacionaremos a la exponencial de $t \textbf{A}$ con la matriz fundamental de soluciones al sistema lineal homogéneo $\dot{\textbf{X}}=\textbf{A}\textbf{X}$.

¡Manos a la obra!

La exponencial de una matriz

En el primer video de esta entrada definimos la exponencial de una matriz $\textbf{A}$ de tamaño $n \times n$ con coeficientes constantes.

Propiedades de la exponencial de una matriz

En este video probamos las principales propiedades que satisface la exponencial de una matriz, entre ellas la relación que guarda con los sistemas lineales de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ con condición inicial $\textbf{X}(0)=\textbf{C}$.

La exponencial de una matriz $\textbf{A}$ y la matriz fundamental de soluciones de $\dot{\textbf{X}}=\textbf{A}\textbf{X}$

En el último video de esta entrada relacionamos el nuevo concepto de exponencial de una matriz $\textbf{A}$ con la matriz fundamental de soluciones al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Supongamos que $$\textbf{A}=\begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix}.$$ Demuestra que $$\textbf{e}^{t \textbf{A}}=\begin{pmatrix} \cos{t} & \sin{t} \\ -\sin{t} & \cos{t} \end{pmatrix}.$$
  • Considera las matrices $$\textbf{A}=\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} \, \, \, \, \, \, \, \, \, \, ; \, \, \, \, \, \, \, \, \, \, \textbf{B}=\begin{pmatrix} 1 & -1 \\ 0 & 0 \end{pmatrix}.$$ Muestra que $\textbf{A}\textbf{B} \neq \textbf{B}\textbf{A}$, calcula $\textbf{e}^{\textbf{A}+\textbf{B}}$ y $\textbf{e}^{\textbf{A}}e^{\textbf{B}}$. ¿Contradice este ejemplo el teorema 4 del segundo video?
  • Calcula $\textbf{e}^{t \textbf{A}}$ si $$\textbf{A}=\begin{pmatrix} -1 & 0 \\ 0 & 1 \end{pmatrix}.$$
  • Supongamos que $\textbf{A}$ es una matriz diagonal, es decir, una matriz cuyos únicos coeficientes distintos de cero se encuentran en la diagonal. Prueba que $\textbf{e}^{t \textbf{A}}$ es una matriz diagonal.
  • Supongamos que $\textbf{X}_{f}(t)$ es una matriz fundamental de soluciones al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$. Prueba que $\textbf{e}^{(t-t_{0}) \textbf{A}}=\textbf{X}_{f}(t)\textbf{X}^{-1}_{f}(t_{0})$.

Más adelante

Ahora que hemos definido a la exponencial de una matriz y visto sus principales propiedades, podremos enunciar y demostrar el teorema de existencia y unicidad para sistemas lineales de primer orden con coeficientes constantes. Dividiremos el teorema en dos casos: cuando nuestro sistema es homogéneo, es decir, el sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$; y cuando el sistema es no homogéneo, es decir, de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}+\textbf{Q}$ con su respectiva condición inicial $\textbf{X}(t_{0})=\textbf{C}$.

Esto es lo que haremos en la próxima entrada. ¡No se la pierdan!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»