Las matemáticas son el arte de dar el mismo nombre a diferentes cosas.
– Henri Poincare
Introducción
Ya conocemos las propiedades de los sistemas de ecuaciones diferenciales lineales de primer orden, así como las de sus soluciones. Mucho de lo que vimos en las dos entradas anteriores es bastante similar a lo que desarrollamos en las dos primeras entradas de la unidad 2, sin embargo en esta entrada aprenderemos algo completamente nuevo, definiremos una herramienta matemática que nos será de bastante utilidad. ¡Se trata de la exponencial de una matriz!.
En esta entrada definiremos lo que significa $e^{\mathbf{A}t}$, donde $\mathbf{A}$ es una matriz de $n \times n$ con componentes reales constantes.
$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{1} \tag{1}$$
Así mismo, estudiaremos algunas de sus propiedades y su utilidad en la resolución de sistemas lineales.
Operaciones sobre componentes de matrices
Muchas de las operaciones que se pueden hacer hacía una matriz son aplicables sobre cada una de las componentes que conforman a dicha matriz. Para comprender este hecho es conveniente definir lo que significa la derivada e integral de una matriz, esto nos permitirá ganar intuición.
Consideremos por un momento una matriz de $n \times n$ compuesta de funciones.
$$\mathbf{A}(t) = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \label{2} \tag{2}$$
donde $a_{i, j}(t)$, $i, j \in \{1, 2, 3, \cdots, n \}$ son funciones sobre algún intervalo común $\delta$. Comencemos por definir la derivada de una matriz.
Definición: Sea $\mathbf{A}(t)$ una matriz de $n \times n$ con componentes $a_{ij}(t)$, $i, j \in \{1, 2, 3, \cdots, n \}$. Si cada componente $a_{ij}(t)$ es derivable en un intervalo $\delta$, entonces se define la derivada de la matriz $\mathbf{A}(t)$ como la matriz con entradas conformadas por las derivadas de las funciones $a_{ij}(t)$, es decir,
$$\dfrac{d}{dt}a_{ij}(t), \hspace{1cm} i, j \in \{1, 2, 3, \cdots, n \} \label{3} \tag{3}$$ y se denota por
$$\dfrac{d}{dt}\mathbf{A}(t) = \left( \dfrac{d}{dt}a_{ij}(t) \right) \label{4} \tag{4}$$
Algunas reglas de derivación se enuncian a continuación.
Teorema: Sean $\mathbf{A}(t)$ y $\mathbf{B}(t)$ matrices con componentes dependientes de $t$ y sea $\mathbf{C}$ una matriz constante. Entonces se cumplen las siguientes operaciones.
$\dfrac{d}{dt}(\mathbf{CA}) = \mathbf{C} \dfrac{d\mathbf{A}}{dt}$
$\dfrac{d}{dt}(\mathbf{A} + \mathbf{B}) = \dfrac{d\mathbf{A}}{dt} + \dfrac{d\mathbf{B}}{dt}$
$\dfrac{d}{dt}(\mathbf{AB}) = \mathbf{A} \dfrac{d\mathbf{B}}{dt} + \dfrac{d\mathbf{A}}{dt} \mathbf{B}$
De manera equivalente se puede definir la integral de una matriz.
Definición: Sea $\mathbf{A}(t)$ una matriz de $n \times n$ con componentes $a_{ij}(t)$, $i, j \in \{1, 2, 3, \cdots, n \}$. Si cada componente $a_{ij}(t)$ es integrable en un intervalo $\delta = [s_{1}, s_{2}]$, entonces se define la integral de la matriz $\mathbf{A}(t)$ como la matriz con entradas conformadas por las integrales de las funciones $a_{ij}(t)$, es decir,
$$\int_{s_{1}}^{s_{2}} a_{ij}(t) dt, \hspace{1cm} i, j \in \{1, 2, 3, \cdots, n \} \label{5} \tag{5}$$ y se denota por
$$\int_{s_{1}}^{s_{2}} \mathbf{A}(t)dt = \left( \int_{s_{1}}^{s_{2}} a_{ij}(t) dt \right) \label{6} \tag{6}$$
Ejemplo: Calcular la derivada de la matriz
$$\mathbf{A}(t) = \begin{pmatrix}
\cos(t) & \sin(t) \\ \sin^{2}(t) & \cos^{2}(t)
\end{pmatrix}$$
Solución: Aplicamos la derivada sobre cada componente de la matriz.
$$\dfrac{d}{dt} \mathbf{A}(t) = \begin{pmatrix}
\dfrac{d}{dt} \cos(t) & \dfrac{d}{dt} \sin(t) \\ \dfrac{d}{dt} \sin^{2}(t) & \dfrac{d}{dt} \cos^{2}(t)
\end{pmatrix} = \begin{pmatrix}
-\sin(t) & \cos(t) \\ 2 \sin(t) \cos(t) & -2 \cos(t) \sin(t)
\end{pmatrix}$$
$\square$
De manera similar se puede hacer la integral de una matriz.
Definamos lo que es una serie de matrices. En este caso consideremos matrices constantes.
Definición: Se define una serie de matrices $\mathbf{A}_{k}$ de tamaño $n \times n$ con coeficientes constantes $(a{ij})_{k}$ como la matriz de series
$$\sum_{k = 1}^{\infty}(a_{ij})_{k}, \hspace{1cm} i, j \in \{1, 2, 3, \cdots, n \} \label{7} \tag{7}$$ donde $(a_{ij})_{k}$ es la entrada $ij$ de la matriz $\mathbf{A}_{k}$ y se denota por
$$\sum_{k = 1}^{\infty}\mathbf{A}_{k} \label{8} \tag{8}$$
Si tenemos series de matrices es claro que algunas pueden o no converger. A continuación definimos la convergencia en matrices.
Definición: Si cada serie $\sum_{k = 1}^{\infty}(a_{ij})_{k}$ es convergente, diremos que la serie $\sum_{k = 1}^{\infty}\mathbf{A}_{k}$ converge a la matriz conformada por los valores a los cuales convergen las series $\sum_{k = 1}^{\infty}(a_{ij})_{k}$.
Con esto en mente puede resultar más comprensible la definición de la exponencial de una matriz.
Exponencial de una matriz
Recordemos que la función escalar de la exponencial se define como
$$e^{\alpha t} = 1 + \alpha t + \alpha^{2} \dfrac{t^{2}}{2!} + \cdots + \alpha^{k} \dfrac{t^{k}}{k!} = \sum_{k = 0}^{\infty} \alpha^{k} \dfrac{t^{k}}{k!} \label{9} \tag{9}$$
Con las definiciones anteriores podemos extender la serie de la exponencial anterior a una serie de matrices.
Definición: Sea $\mathbf{A}$ una matriz de $n \times n$ con coeficientes constantes (\ref{1}). Se define la exponencial de $\mathbf{A}$ como la serie convergente
$$\sum_{k = 0}^{\infty} \dfrac{\mathbf{A}^{k}}{k!} = e^{\mathbf{A}} \label{10} \tag{10}$$
Se puede demostrar que la serie (\ref{10}) converge, sin embargo se requiere de un poco más de teoría que queda fuera de nuestro interés.
Definición: Si la exponencial depende de $t$, se define la exponencial de la matriz $\mathbf{A}t$ como
$$e^{\mathbf{A}t} = \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty}\mathbf{A}^{k} \dfrac{t^{k}}{k!} \label{11} \tag{11}$$ Con $\mathbf{I}$ la matriz identidad, también $\mathbf{A}^{0} = \mathbf{I}$ y recordemos que $\mathbf{A}^{2} = \mathbf{AA}, \mathbf{A}^{3} = \mathbf{AA}^{2}$, etcétera.
Veamos un ejemplo en el que determinemos la exponencial de una matriz.
Ejemplo: Determinar la matriz $e^{\mathbf{A}}$, en donde
$$\mathbf{A} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}$$
Solución: Para determinar la matriz $e^{\mathbf{A}}$ usemos directamente la definición (\ref{10}). Sabemos que
$$\mathbf{A}^{0} = \begin{pmatrix}
1 & 0 \\ 0 & 1
\end{pmatrix} = \mathbf{I} \hspace{1cm} y \hspace{1cm} \mathbf{A}^{1} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} = \begin{pmatrix}
2^{0} & 2^{0} \\ 2^{0} & 2^{0}
\end{pmatrix}$$
Ahora bien,
$$\mathbf{A}^{2} = \mathbf{AA} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} = \begin{pmatrix}
2 & 2 \\ 2 & 2
\end{pmatrix} = \begin{pmatrix}
2^{1} & 2^{1} \\ 2^{1} & 2^{1}
\end{pmatrix}$$
$$\mathbf{A}^{3} = \mathbf{AA}^{2} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
2 & 2 \\ 2 & 2
\end{pmatrix} = \begin{pmatrix}
4 & 4 \\ 4 & 4
\end{pmatrix} = \begin{pmatrix}
2^{2} & 2^{2} \\ 2^{2} & 2^{2}
\end{pmatrix}$$
$$\mathbf{A}^{4} = \mathbf{AA}^{3} = \begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix} \begin{pmatrix}
4 & 4 \\ 4 & 4
\end{pmatrix} = \begin{pmatrix}
8 & 8 \\ 8 & 8
\end{pmatrix} = \begin{pmatrix}
2^{3} & 2^{3} \\ 2^{3} & 2^{3}
\end{pmatrix}$$
$$\vdots$$
$$\mathbf{A}^{k} = \mathbf{AA}^{k -1} = \begin{pmatrix}
2^{k -1} & 2^{k -1} \\ 2^{k -1} & 2^{k -1}
\end{pmatrix}$$
$$\mathbf{A}^{k + 1} = \mathbf{AA}^{k} = \begin{pmatrix}
2^{k} & 2^{k} \\ 2^{k} & 2^{k}
\end{pmatrix}$$
$$\vdots$$
Sustituimos en (\ref{10}).
\begin{align*} e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} &= \dfrac{1}{0!} \mathbf{A}^{0} + \dfrac{1}{1!} \mathbf{A}^{1} + \dfrac{1}{2!} \mathbf{A}^{2} + \dfrac{1}{3!} \mathbf{A}^{3} + \dfrac{1}{4!} \mathbf{A}^{4} + \cdots + \dfrac{1}{k!} \mathbf{A}^{k} + \cdots \\
&= \dfrac{1}{0!} \begin{pmatrix}
1 & 0 \\ 0 & 1
\end{pmatrix} + \dfrac{1}{1!} \begin{pmatrix}
2^{0} & 2^{0} \\ 2^{0} & 2^{0}
\end{pmatrix} + \dfrac{1}{2!} \begin{pmatrix}
2^{1} & 2^{1} \\ 2^{1} & 2^{1}
\end{pmatrix} + \dfrac{1}{3!} \begin{pmatrix}
2^{2} & 2^{2} \\ 2^{2} & 2^{2}
\end{pmatrix} + \dfrac{1}{4!} \begin{pmatrix}
2^{3} & 2^{3} \\ 2^{3} & 2^{3}
\end{pmatrix} + \cdots + \dfrac{1}{k!} \begin{pmatrix}
2^{k -1} & 2^{k -1} \\ 2^{k -1} & 2^{k -1}
\end{pmatrix} \\
&= \begin{pmatrix}
\dfrac{1}{0!}(1) & \dfrac{1}{0!}(0) \\ \dfrac{1}{0!}(0) & \dfrac{1}{0!}(1)
\end{pmatrix} + \begin{pmatrix}
\dfrac{1}{1!}(2^{0}) & \dfrac{1}{1!}(2^{0}) \\ \dfrac{1}{1!}(2^{0}) & \dfrac{1}{1!}(2^{0})
\end{pmatrix} + \begin{pmatrix}
\dfrac{1}{2!}(2^{1}) & \dfrac{1}{2!}(2^{1}) \\ \dfrac{1}{2!}(2^{1}) & \dfrac{1}{2!}(2^{1})
\end{pmatrix} + \begin{pmatrix}
\dfrac{1}{3!}(2^{2}) & \dfrac{1}{3!}(2^{2}) \\ \dfrac{1}{3!}(2^{2}) & \dfrac{1}{3!}(2^{2})
\end{pmatrix} + \cdots + \begin{pmatrix}
\dfrac{1}{k!}(2^{k -1}) & \dfrac{1}{k!}(2^{k -1}) \\ \dfrac{1}{k!}(2^{k -1}) & \dfrac{1}{k!}(2^{k -1})
\end{pmatrix} \\
&= \begin{pmatrix}
\dfrac{1}{0!}(1) + \dfrac{1}{1!}(2^{0}) + \dfrac{1}{2!}(2^{1}) + \dfrac{1}{3!}(2^{2}) + \cdots + \dfrac{1}{k!}(2^{k -1}) & \dfrac{1}{0!}(0) + \dfrac{1}{1!}(2^{0}) + \dfrac{1}{2!}(2^{1}) + \dfrac{1}{3!}(2^{2}) + \cdots + \dfrac{1}{k!}(2^{k -1}) \\ \dfrac{1}{0!}(0) + \dfrac{1}{1!}(2^{0}) + \dfrac{1}{2!}(2^{1}) + \dfrac{1}{3!}(2^{2}) + \cdots + \dfrac{1}{k!}(2^{k -1}) & \dfrac{1}{0!}(1) + \dfrac{1}{1!}(2^{0}) + \dfrac{1}{2!}(2^{1}) + \dfrac{1}{3!}(2^{2}) + \cdots + \dfrac{1}{k!}(2^{k -1})
\end{pmatrix} \\
&= \dfrac{1}{2}\begin{pmatrix}
\dfrac{1}{0!}(2) + \dfrac{1}{1!}(2^{1}) + \dfrac{1}{2!}(2^{2}) + \dfrac{1}{3!}(2^{3}) + \cdots + \dfrac{1}{k!}(2^{k}) & \dfrac{1}{0!}(0) + \dfrac{1}{1!}(2^{1}) + \dfrac{1}{2!}(2^{2}) + \dfrac{1}{3!}(2^{3}) + \cdots + \dfrac{1}{k!}(2^{k}) \\ \dfrac{1}{0!}(0) + \dfrac{1}{1!}(2^{1}) + \dfrac{1}{2!}(2^{2}) + \dfrac{1}{3!}(2^{3}) + \cdots + \dfrac{1}{k!}(2^{k}) & \dfrac{1}{0!}(2) + \dfrac{1}{1!}(2^{1}) + \dfrac{1}{2!}(2^{2}) + \dfrac{1}{3!}(2^{3}) + \cdots + \dfrac{1}{k!}(2^{k})
\end{pmatrix}
\end{align*}
¡Uff!. En la última igualdad lo que hicimos fue multiplicar por un uno en la forma $1 = \dfrac{2}{2}$, esto nos permitió hacer que la potencia de los $2$ sea la misma que en el factorial.
Escribamos la última matriz como series infinitas.
$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \dfrac{1}{2} \begin{pmatrix}
\dfrac{1}{0!}(2) + \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} & \dfrac{1}{0!}(0) + \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} \\ \dfrac{1}{0!}(0) + \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} & \dfrac{1}{0!}(2) + \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!}
\end{pmatrix}$$
Nos gustaría hacer que las series comiencen en $k = 0$. Notemos que, de acuerdo a la forma de la serie, el termino $k = 0$ daría como resultado un $1$, considerando esto la expresión anterior la podemos escribir como
$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \dfrac{1}{2} \begin{pmatrix}
1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} & \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} \\ \sum_{k = 1}^{\infty} \dfrac{2^{k}}{k!} & 1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!}
\end{pmatrix}$$
Para las componentes de la matriz en las que la serie aún no comienza en $k = 0$ sumamos y restamos un $1$, así el $+1$ puede ser incluido en la serie.
$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \dfrac{1}{2} \begin{pmatrix}
1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} & -1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} \\ -1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} & 1 + \sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!}
\end{pmatrix}$$
Ahora todas las series comienzan en $k = 0$. Sabemos que la serie converge a un número.
$$\sum_{k = 0}^{\infty} \dfrac{2^{k}}{k!} = e^{2}$$
Por definición de convergencia en matrices, se tiene
$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \dfrac{1}{2} \begin{pmatrix}
1 + e^{2} & -1 + e^{2} \\ -1 + e^{2} & 1 + e^{2}
\end{pmatrix}$$
Por lo tanto, la matriz que buscamos es
$$e^{\begin{pmatrix}
1 & 1 \\ 1 & 1
\end{pmatrix}} = \begin{pmatrix}
\dfrac{e^{2} + 1}{2} & \dfrac{e^{2} -1}{2} \\ \dfrac{e^{2} -1}{2} & \dfrac{e^{2} + 1}{2}
\end{pmatrix}$$
$\square$
Como se puede notar, calcular la exponencial de una matriz usando la definición puede ser una tarea bastante tediosa. Por su puesto existen métodos que nos permiten calcular este tipo de matrices de forma más sencilla, más adelante revisaremos uno de ellos.
Algunas propiedades de la exponencial de una matriz se enuncian a continuación.
Teorema: Sean $\mathbf{A}$ y $\mathbf{B}$ matrices constantes de $n \times n$ y sean $\alpha$ y $\beta$ constantes, entonces
$e^{\mathbf{0}} = \mathbf{I}. \hspace{1cm}$ Con $\mathbf{0}$ el vector cero e $\mathbf{I}$ la matriz identidad.
$e^{\mathbf{A} t}e^{-\mathbf{A} t} = e^{-\mathbf{A} t}e^{\mathbf{A} t} = \mathbf{I}. \hspace{1cm}$ Con $\mathbf{I}$ la matriz identidad.
$e^{\mathbf{A}(\alpha + \beta)} = e^{\mathbf{A} \alpha} e^{\mathbf{A} \beta}$
$\mathbf{A}e^{\mathbf{A}t} = e^{\mathbf{A}t} \mathbf{A}$
$\left( e^{\mathbf{A}t} \right)^{-1} = e^{-\mathbf{A} t}$
$e^{(\mathbf{A + B}) t} = e^{\mathbf{A}t} e^{\mathbf{B}t}. \hspace{1cm}$ Siempre que $\mathbf{AB} = \mathbf{BA}$.
No demostraremos este teorema ya que nuestro principal interés está en conocer como estos conceptos y propiedades se pueden aplicar en nuestro estudio sobre sistemas lineales.
A continuación mostraremos un resultado importante e interesante y es que la función (\ref{11}) ¡es solución del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$!.
La exponencial de una matriz y los sistemas lineales
Teorema: Sea $\mathbf{A}$ una matriz de $n \times n$ con coeficientes constantes. La función $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es solución del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$.
Demostración: Consideremos la función $\mathbf{Y}(t) = e^{\mathbf{A} t}$. Apliquemos la derivada término a término de la definición (\ref{11}).
\begin{align*}
\dfrac{d}{dt} e^{\mathbf{A}t} &= \dfrac{d}{dt} \left[ \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k}\dfrac{t^{k}}{k!} + \cdots \right] \\
&= \dfrac{d}{dt} \mathbf{I} + \dfrac{d}{dt} \left( \mathbf{A}t \right) + \dfrac{d}{dt} \left( \mathbf{A}^{2} \dfrac{t^{2}}{2!} \right) + \cdots + \dfrac{d}{dt} \left( \mathbf{A}^{k}\dfrac{t^{k}}{k!} \right) + \cdots
\end{align*}
Como las matrices $\mathbf{I}$ y $\mathbf{A}$ son constantes, entonces se tiene lo siguiente.
\begin{align*}
\dfrac{d}{dt} e^{\mathbf{A}t} &= \mathbf{0} + \mathbf{A} + \mathbf{A}^{2}t + \dfrac{1}{2!}\mathbf{A}^{3}t^{2} + \cdots + \mathbf{A}^{k} \dfrac{t^{k -1}}{(k -1)!} + \mathbf{A}^{k + 1}\dfrac{t^{k}}{k!} + \cdots \\
&= \mathbf{A} \left[ \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k}\dfrac{t^{k}}{k!} + \cdots \right] \\
&= \mathbf{A} e^{\mathbf{A}t}
\end{align*}
Con esto hemos mostrado que
$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t} \label{12} \tag{12}$$
Es decir,
$$\mathbf{Y}^{\prime} = \mathbf{AY}$$
$\square$
La ecuación (\ref{12}) no sólo prueba que es solución del sistema lineal, sino que además muestra cuál es la derivada de la matriz $e^{\mathbf{A} t}$.
Veamos un problema de valores iniciales.
Teorema: Sea $\mathbf{A}$ una matriz de $n \times n$ con coeficientes constantes. La función
$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0}$$ es solución del problema de valores iniciales
$$\mathbf{Y}^{\prime} = \mathbf{AY}; \hspace{1cm} \mathbf{Y}(0) = \mathbf{Y}_{0} \label{13} \tag{13}$$ Donde $\mathbf{Y}_{0}$ es un vector de constantes.
Demostración: Consideremos la función
$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0}$$
con $\mathbf{Y}_{0}$ un vector constante, si la derivamos obtenemos lo siguiente.
$$\mathbf{Y}^{\prime} = \dfrac{d}{dt}(e^{\mathbf{A}t} \mathbf{Y}_{0}) = \left( \mathbf{A} e^{\mathbf{A}t} \right) \mathbf{Y}_{0} = \mathbf{A} \left( e^{\mathbf{A}t} \mathbf{Y}_{0} \right) = \mathbf{AY}$$
En donde se ha hecho uso del resultado (\ref{12}). Esto muestra que la función $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0}$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$.
Si tomamos $t = 0$ y considerando que $e^{\mathbf{A}0} = e^{\mathbf{0}} = \mathbf{I}$, se tiene
$$\mathbf{Y}(0) = e^{\mathbf{A}0} \mathbf{Y}_{0} = \mathbf{IY}_{0} = \mathbf{Y}_{0}$$
Es decir, se satisface la condición inicial $\mathbf{Y}(0) = \mathbf{Y}_{0}$.
$\square$
Nota: Es claro que la matriz $e^{\mathbf{A} t}$ es una matriz de $n \times n$, mientras que el vector constante $\mathbf{Y}_{0}$ es un vector de $n \times 1$, así que es importante el orden de las matrices, la función del teorema anterior es $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0}$ la cual esta bien definida y el resultado es una matriz de $n \times n$, mientras que la operación $\mathbf{Y}_{0} e^{\mathbf{A} t}$ no está definida de acuerdo al algoritmo de multiplicación de matrices. Cuidado con ello.
Para concluir esta entrada retomaremos el concepto de matriz fundamental de soluciones visto en la entrada anterior.
Matriz fundamental de soluciones
Retomemos la definición de matriz fundamental de soluciones.
Definición: Sean $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$, $n$ soluciones linealmente independientes del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$. Se le denomina matriz fundamental de soluciones del sistema a la matriz conformada por los vectores solución.
$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1}(t) & \mathbf{Y}_{2}(t) & \cdots & \mathbf{Y}_{n}(t) \end{pmatrix} = \begin{pmatrix}
y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{14} \tag{14}$$
En esta sección denotaremos por $\hat{\mathbf{Y}}(t)$ a una matriz fundamental de soluciones.
El objetivo de esta sección es mostrar que se puede determinar directamente la matriz $e^{\mathbf{A}t}$ a partir de cualquier matriz fundamental de soluciones. Antes de llegar a este resultado veamos unos resultados previos.
Teorema: Una matriz $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones de $\mathbf{Y}^{\prime} = \mathbf{AY}$ si y sólo si satisface al sistema y el Wronskiano es distinto de cero.
$$W( \mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(0) \neq 0$$
Demostración:
$\Rightarrow$) Por demostrar: $\hat{\mathbf{Y}}(t)$ satisface al sistema y se cumple que $W(0) \neq 0$.
Supongamos que $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ conformada por los vectores solución $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$, es decir,
$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1} & \mathbf{Y}_{2} & \cdots & \mathbf{Y}_{n} \end{pmatrix} = \begin{pmatrix}
y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix}$$
Si $\mathbf{A}$ es la matriz de coeficientes (\ref{1}), entonces
$$\mathbf{A} \hat{\mathbf{Y}} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \begin{pmatrix}
y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{15} \tag{15}$$
La $i$-ésima columna del resultado de multiplicar estas matrices es
$$\mathbf{A} \mathbf{Y}_{i} = \begin{pmatrix}
a_{11}y_{1i}(t) + a_{12}y_{2i}(t) + \cdots + a_{1n}y_{ni}(t) \\
a_{21}y_{1i}(t) + a_{22}y_{2i}(t) + \cdots + a_{2n}y_{ni}(t) \\
\vdots \\
a_{n1}y_{1i}(t) + a_{n2}y_{2i}(t) + \cdots + a_{nn}y_{ni}(t)
\end{pmatrix} \label{16} \tag{16}$$
Identificamos que esta matriz corresponde a la derivada $\mathbf{Y}^{\prime}_{i}$ ya que cada $\mathbf{Y}_{i}$ es solución del sistema, es decir,
$$\mathbf{Y}^{\prime}_{i} =\mathbf{AY}_{i}, \hspace{1cm} i = 1, 2, \cdots, n \label{17} \tag{17}$$
Entonces $\mathbf{A\hat{Y}}(t)$ tiene por columnas a los vectores $\mathbf{Y}^{\prime}_{1}, \mathbf{Y}^{\prime}_{2}, \cdots, \mathbf{Y}^{\prime}_{n}$. Por lo tanto
$$\hat{\mathbf{Y}}^{\prime} = \mathbf{A\hat{Y}}$$
es decir, la matriz fundamental $\hat{\mathbf{Y}}(t)$ satisface al sistema.
Como $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones, entonces los vectores que la componen $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes, de manera que $\forall$ $t \in \mathbb{R}$ el Wronskiano es distinto de cero.
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(t) \neq 0 \label{18} \tag{18}$$
en particular se cumple para $t = 0$, es decir,
$$W( \mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(0) \neq 0$$
Demostremos el regreso.
$\Leftarrow$) Por demostrar: $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones.
Sea $\hat{\mathbf{Y}}(t)$ una matriz compuesta por los vectores $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$ y cuya derivada es
$$\hat{\mathbf{Y}}^{\prime} = \mathbf{A \hat{Y}}$$
entonces las columnas satisfacen
$$\mathbf{AY}_{i} = \mathbf{Y}^{\prime}_{i}$$
así $\mathbf{Y}_{i}(t)$ es solución del sistema
$$\mathbf{Y}^{\prime} = \mathbf{AY}$$
para $i = 1, 2, \cdots, n$.
Por otro lado, por hipótesis
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(0) \neq 0$$
Como es distinto de cero en un punto, entonces lo debe ser en todo el dominio, es decir, $\forall$ $t \in \mathbb{R}$ se cumple que
$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(t) \neq 0$$
lo que significa que $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes.
De ambos resultados concluimos que la matriz $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones.
$\square$
Veamos un resultado interesante. Ya vimos que la matriz $e^{\mathbf{A} t}$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$, pero no solo resulta ser solución, sino que además ¡es una matriz fundamental de soluciones!.
Teorema: La función $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es una matriz fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$.
Demostración: Anteriormente mostramos que
$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t}$$
lo que prueba que $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$.
Supongamos que $e^{\mathbf{A} t}$ está compuesta por la matriz de vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$. Si $t = 0$, se tiene que
$$e^{\mathbf{A} 0} = e^{\mathbf{0}} = \mathbf{I}$$
y además el determinante es distinto de cero.
$$|e^{\mathbf{A} 0}| = |\mathbf{I}| = 1 \neq 0 \label{19} \tag{19}$$
o bien,
$$|e^{\mathbf{A} 0}| = W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n})(0) \neq 0 \label{20} \tag{20}$$
Por el teorema anterior concluimos que $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es una matriz fundamental de soluciones del sistema lineal.
$\square$
Veamos un resultado más antes de llegar a nuestro objetivo.
Teorema: Si $\hat{\mathbf{Y}}(t)$ y $\hat{\mathbf{Z}}(t)$ son matrices fundamentales de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$, entonces existe una matriz constante $\mathbf{C}$, tal que
$$\hat{\mathbf{Y}}(t) = \hat{\mathbf{Z}}(t) \mathbf{C} \label{21} \tag{21}$$
Demostración: Sean $\hat{\mathbf{Y}}(t)$ y $\hat{\mathbf{Z}}(t)$ matrices fundamentales del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. Supongamos que
$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1} & \mathbf{Y}_{2} & \cdots & \mathbf{Y}_{n} \end{pmatrix} \label{22} \tag{22}$$
y
$$\hat{\mathbf{Z}}(t) = \begin{pmatrix} \mathbf{Z}_{1} & \mathbf{Z}_{2} & \cdots & \mathbf{Z}_{n} \end{pmatrix} \label{23} \tag{23}$$
Donde la $i$-ésima columna de las matrices anteriores son
$$\mathbf{Y}_{i} = \begin{pmatrix}
y_{1i} \\ y_{2i} \\ \vdots \\ y_{ni}
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{Z}_{i} = \begin{pmatrix}
z_{1i} \\ z_{2i} \\ \vdots \\ z_{ni}
\end{pmatrix} \label{24} \tag{24}$$
Como ambas matrices son matrices fundamentales de soluciones, entonces cada $\mathbf{Y}_{i}$ y cada $\mathbf{Z}_{i}$ $i = 1, 2, 3, \cdots, n$ son linealmente independientes. Esto nos permite escribir cualquier columna de $\hat{\mathbf{Y}}(t)$ como combinación lineal de las columnas de $\hat{\mathbf{Z}}(t)$, es decir, existen constantes $c_{1i}, c_{2i}, \cdots, c_{ni}$, tales que
$$\mathbf{Y}_{i}(t) = c_{1i} \mathbf{Z}_{1}(t) + c_{2i} \mathbf{Z}_{2}(t) + \cdots + c_{ni} \mathbf{Z}_{n}(t) \label{25} \tag{25}$$
Donde el índice $i$ de las constantes indica el número de columna de la matriz $\hat{\mathbf{Y}}(t)$, es decir, si definimos el vector
$$\mathbf{c}_{i} = \begin{pmatrix}
c_{1i} \\ c_{2i} \\ \vdots \\ c_{ni}
\end{pmatrix} \label{26} \tag{26}$$
podemos escribir la combinación lineal (\ref{25}) como
$$\mathbf{Y}_{i}(t) = \begin{pmatrix} \mathbf{Z}_{1} & \mathbf{Z}_{2} & \cdots & \mathbf{Z}_{n} \end{pmatrix} \begin{pmatrix}
c_{1i} \\ c_{2i} \\ \vdots \\ c_{ni}
\end{pmatrix} = \begin{pmatrix}
c_{1i}z_{11} + c_{2i}z_{12} + \cdots + c_{ni}z_{1n} \\
c_{1i}z_{21} + c_{2i}z_{22} + \cdots + c_{ni}z_{2n} \\
\vdots \\
c_{1i}z_{n1} + c_{2i}z_{n2} + \cdots + c_{ni}z_{nn}
\end{pmatrix} \label{27} \tag{27}$$
Definamos la matriz constante $\mathbf{C}$ como
$$\mathbf{C} = \begin{pmatrix} \mathbf{c_{1}} & \mathbf{c_{2}} & \cdots & \mathbf{c_{n}} \end{pmatrix} = \begin{pmatrix}
c_{11} & c_{12} & \cdots & c_{1n} \\
c_{21} & c_{22} & \cdots & c_{2n} \\
\vdots & & & \vdots \\
c_{n1} & c_{n2} & \cdots & c_{nn}
\end{pmatrix} \label{28} \tag{28}$$
En forma matricial la operación $\hat{\mathbf{Z}}(t) \mathbf{C}$ corresponde al producto de las siguientes matrices de $n \times n$.
$$\hat{\mathbf{Z}}(t) \mathbf{C} = \begin{pmatrix}
z_{11} & z_{12} & \cdots & z_{1n} \\
z_{21} & z_{22} & \cdots & z_{2n} \\
\vdots & & & \vdots\\
z_{n1} & z_{n2} & \cdots & z_{nn}
\end{pmatrix} \begin{pmatrix}
c_{11} & c_{12} & \cdots & c_{1n} \\
c_{21} & c_{22} & \cdots & c_{2n} \\
\vdots & & & \vdots \\
c_{n1} & c_{n2} & \cdots & c_{nn}
\end{pmatrix} \label{29} \tag{29}$$
Observemos con cuidado que el resultado (\ref{27}) corresponde a la $i$-ésima columna de hacer el producto $\hat{\mathbf{Z}}(t) \mathbf{C}$. Por lo tanto, las $n$ ecuaciones (\ref{25}) son equivalentes al sistema
$$\hat{\mathbf{Y}}(t) = \hat{\mathbf{Z}}(t) \mathbf{C}$$
$\square$
Hemos llegado al resultado final. Dicho resultado involucra el concepto de matriz inversa, recordemos este concepto de álgebra lineal.
Definición: Sean $\mathbf{A}$ y $\mathbf{B}$ dos matrices de $n \times n$ con componentes constantes. Suponiendo que
$$\mathbf{AB} = \mathbf{BA} = \mathbf{I} \label{30} \tag{30}$$ Con $\mathbf{I}$ la matriz identidad. Entonces $\mathbf{B}$ se llama la matriz inversa de $\mathbf{A}$ y se denota por $\mathbf{A}^{-1}$.
La ecuación anterior queda como
$$\mathbf{AA}^{-1} = \mathbf{A}^{-1} \mathbf{A} = \mathbf{I} \label{31} \tag{31}$$
Demostremos el resultado que nos muestra cómo obtener la matriz $e^{\mathbf{A}t}$ a partir de una matriz fundamental de soluciones.
Teorema: Si $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$, entonces
$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0) \label{32} \tag{32}$$ donde $\hat{\mathbf{Y}}^{-1}(0)$ es la matriz inversa de $\hat{\mathbf{Y}}(t)$ evaluada en $t = 0$.
Demostración: Sabemos que $e^{\mathbf{A} t}$ y $\hat{\mathbf{Y}}(t)$ son matrices fundamentales de soluciones de $\mathbf{Y}^{\prime} = \mathbf{AY}$, de acuerdo al teorema anterior ambas funciones se relacionan de la siguiente forma.
$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \mathbf{C} \label{33} \tag{33}$$
para alguna matriz constante $\mathbf{C}$.
Tomemos $t = 0$, por un lado
$$e^{\mathbf{A} 0} = e^{\mathbf{0}} = \mathbf{I}$$
Por otro lado, de (\ref{33})
$$e^{\mathbf{A} 0} = \hat{\mathbf{Y}}(0) \mathbf{C}$$
De ambas ecuaciones tenemos que
$$\hat{\mathbf{Y}}(0) \mathbf{C} = \mathbf{I} \label{34} \tag{34}$$
Esta ecuación obliga que
$$\mathbf{C} = \hat{\mathbf{Y}}^{-1}(0) \label{35} \tag{35}$$
Sustituyendo en (\ref{33}) concluimos que
$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0)$$
$\square$
Finalicemos con un ejemplo.
Ejemplo: Determinar la matriz $e^{\mathbf{A} t}$, donde
$$\mathbf{A} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix}$$
Solución: Imagina lo complicado que sería este problema si lo intentáramos resolver usando la definición (\ref{11}).
En la entrada anterior vimos que una matriz fundamental de soluciones del sistema lineal
$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$
es
$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$
Determinemos la matriz $e^{\mathbf{A} t}$ usando la expresión (\ref{32}).
Calcular la matriz inversa puede ser una tarea larga y debido a que no es el objetivo llevar a cabo estas operaciones se puede comprobar que la matriz inversa de $\hat{\mathbf{Y}}(t)$ es
$$\hat{\mathbf{Y}}^{-1}(t) = \begin{pmatrix}
\dfrac{1}{2} & -\dfrac{1}{2} & 0 \\ \dfrac{1}{2 e^{2t}} & \dfrac{1}{2 e^{2t}} & 0 \\ 0 & 0 & \dfrac{1}{e^{3t}}
\end{pmatrix}$$
Basta probar que $\hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(t) = \mathbf{I}$. Para calcular la inversa se puede hacer uso de algún programa computacional. Si en la matriz inversa evaluamos en $t = 0$, se tiene
$$\hat{\mathbf{Y}}^{-1}(0) = \begin{pmatrix}
\dfrac{1}{2} & -\dfrac{1}{2} & 0 \\ \dfrac{1}{2} & \dfrac{1}{2} & 0 \\ 0 & 0 & 1
\end{pmatrix}$$
Por lo tanto,
$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix} \begin{pmatrix}
\dfrac{1}{2} & -\dfrac{1}{2} & 0 \\ \dfrac{1}{2} & \dfrac{1}{2} & 0 \\ 0 & 0 & 1
\end{pmatrix}$$
Haciendo la multiplicación de matrices correspondiente obtenemos finalmente que
$$e^{\mathbf{A} t} = \begin{pmatrix}
\dfrac{e^{2t} + 1}{2} & \dfrac{e^{2t} -1}{2} & 0 \\ \dfrac{e^{2t} -1}{2} & \dfrac{e^{2t} + 1}{2} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$
$\square$
Existen otras formas de calcular la exponencial de una matriz, una de ellas es usando la transformada de Laplace y otra puede ser diagonalizando matrices. Si lo deseas puedes investigar sobre estos métodos en la literatura, por nuestra parte serán temas que no revisaremos ya que, más que obtener exponenciales de matrices, estamos interesados en obtener soluciones de sistemas de ecuaciones diferenciales, aunque como vimos, están estrechamente relacionados.
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
- Sea
$\mathbf{A}(t) = \begin{pmatrix} \sin(2t) \\ e^{3t} \\ 8t -1 \end{pmatrix}$
- Demostrar que la derivada de la matriz $\mathbf{A}$ es
$\dfrac{d}{dt} \mathbf{A}(t) = \begin{pmatrix} 2 \cos(2t) \\ 3e^{3t} \\ 8 \end{pmatrix}$
- Demostrar que la integral de $0$ a $t$ de la matriz $\mathbf{A}$ es
$\int_{0}^{t} \mathbf{A}(s) ds = \begin{pmatrix} -\dfrac{1}{2} \cos(2t) + \dfrac{1}{2} \\ \dfrac{1}{3} e^{3t} -\dfrac{1}{3} \\ 4t^{2} -t \end{pmatrix}$
- Demostrar que
$\int{\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} ds} = t \mathbf{I} + \mathbf{C}$
Donde,
$\mathbf{I} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C} = \begin{pmatrix} 0 & c & c \\ c & 0 & c \\ c & c & 0 \end{pmatrix}$
con $c$ una constante.
- Obtener la matriz $e^{\mathbf{A}t}$ para los siguientes casos:
- $\mathbf{A} = \begin{pmatrix} 1 & 2 \\ 2 & 1 \end{pmatrix}$
- $\mathbf{A} = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}$
- $\mathbf{A} = \begin{pmatrix} 1 & 2 \\ 2 & 4 \end{pmatrix}$
- Sea $\hat{\mathbf{Y}}(t)$ una matriz fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. Demostrar que $$e^{\mathbf{A} (t -t_{0})} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(t_{0})$$
- Una matriz fundamental del sistema
$\mathbf{Y}^{\prime} = \begin{pmatrix} 1 & -1 \\ 1 & 3 \end{pmatrix} \mathbf{Y} = \mathbf{AY}$
es
$\hat{\mathbf{Y}}(t) = \begin{pmatrix} e^{2t} & te^{2t} \\ -e^{2t} & -(1 + t) e^{2t} \end{pmatrix}$
- Demostrar que la matriz anterior en efecto es una matriz fundamental de soluciones del sistema.
- Demostrar que la matriz $e^{\mathbf{A} t}$ está dada por
$e^{\mathbf{A} t} = \begin{pmatrix} (1 -t) e^{2t} & -te^{2t} \\ te^{2t} & (1 + t) e^{2t} \end{pmatrix}$
Más adelante…
En estas tres primeras entradas de la unidad 3 establecimos la teoría básica que debemos conocer sobre los sistemas lineales de primer orden compuestos por $n$ ecuaciones diferenciales lineales de primer orden. En particular, esta entrada es de interés, pues más adelante la exponencial de una matriz volverá a aparecer cuando estudiemos métodos de resolución y cuando justifiquemos los teoremas de existencia y unicidad.
En las siguientes entradas comenzaremos a desarrollar los distintos métodos de resolución de estos sistemas lineales. En particular, en la siguiente entrada desarrollaremos el método de eliminación de variables, éste método en realidad es muy sencillo, útil y práctico en muchas ocasiones, aunque también es un método muy limitado.
Entradas relacionadas
Agradecimientos
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»