Archivo de la etiqueta: problema con valores iniciales

Ecuaciones Diferenciales I: Teorema de existencia y unicidad para sistemas lineales

Por Omar González Franco

El estudio profundo de la naturaleza es la fuente
más fértil de descubrimientos matemáticos.
– Fourier

Introducción

Nos estamos acercando al final de la unidad 3 del curso.

En esta unidad estudiamos los sistemas lineales de primer orden con coeficientes constantes tanto homogéneos como no homogéneos, es por ello que en esta entrada demostraremos los teoremas de existencia y unicidad para estos sistemas lineales en particular.

Es interesante la enorme utilidad que tiene definir la exponencial de una matriz, este concepto nos ha permitido desarrollar distintos métodos de resolución y no solo ello, ahora nos permitirá demostrar estos teoremas de existencia y unicidad.

Comencemos con el caso homogéneo.

Teorema de existencia y unicidad para sistemas lineales homogéneos

Recordemos que estamos estudiando sistemas lineales homogéneo con coeficientes constantes, es decir, la matriz $\mathbf{A}$ es de la forma

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{1} \tag{1}$$

con $a_{ij}$, $i, j \in \{ 1, 2, 3, \cdots, n \}$ constantes.

Demostración: Recordemos que ya demostramos que la función (\ref{3}) es solución del sistema homogéneo para el caso $t_{0} = 0$, lo mismo podemos hacer para cualquier $t_{0}$, con ello estaremos mostrando la existencia. Consideremos la función (\ref{3}).

$$\mathbf{Y}(t) = e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0}$$

Con $t_{0} \in \mathbb{R}$. La derivada de esta función vectorial es

$$\mathbf{Y}^{\prime} = \mathbf{A} e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} = \mathbf{A} \left( e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} \right) = \mathbf{AY}$$

Esto muestra que es solución del sistema, veamos que efectivamente satisface los valores iniciales evaluando en $t_{0}$.

$$\mathbf{Y}(t_{0}) = e^{(t_{0} -t_{0}) \mathbf{A}} \mathbf{Y}_{0} = e^{\mathbf{0}} \mathbf{Y}_{0} = \mathbf{I} \cdot \mathbf{Y}_{0} = \mathbf{Y}_{0}$$

Con esto queda demostrado que la función $\mathbf{Y}(t) = e^{(t -t_{0})\mathbf{A}} \mathbf{Y}_{0}$ es solución del problema con valores iniciales, es decir, existe.

Para demostrar la unicidad supongamos que $\mathbf{X}(t)$ es otra solución del problema de valores iniciales. Consideremos una función derivable dada de la siguiente forma.

$$\mathbf{Z}(t) = e^{-(t -t_{0}) \mathbf{A}} \mathbf{X}(t) \label{4} \tag{4}$$

Si derivamos esta función obtenemos lo siguiente.

$$\mathbf{Z}^{\prime} = -\mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} + e^{-(t -t_{0}) \mathbf{A}} \mathbf{X}^{\prime} \label{5} \tag{5}$$

Como $\mathbf{X}$ es solución del sistema, entonces se satisface que $\mathbf{X}^{\prime} = \mathbf{AX}$. Sustituimos en la ecuación anterior.

\begin{align*}
\mathbf{Z}^{\prime} &= -\mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} + e^{-(t -t_{0}) \mathbf{A}} \left( \mathbf{AX} \right) \\
&= -\mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} + \left( e^{-(t -t_{0}) \mathbf{A}} \mathbf{A} \right) \mathbf{X} \\
&= -\mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} + \mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} \\
&= \mathbf{0}
\end{align*}

En donde hemos hecho uso de la propiedad

$$e^{-(t -t_{0}) \mathbf{A}} \mathbf{A} = \mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \label{6} \tag{6}$$

Justifica este hecho.

El calculo anterior muestra que $\mathbf{Z}^{\prime}(t) = \mathbf{0}$, esto implica que $\mathbf{Z}(t)$ es una matriz constante. Evaluemos $t_{0}$ en (\ref{4}).

$$\mathbf{Z}(t_{0}) = e^{-(t_{0} -t_{0}) \mathbf{A}} \mathbf{X}(t_{0})$$

Como $\mathbf{X}$ satisface el problema de valores iniciales, entonces $\mathbf{X}(t_{0}) = \mathbf{Y}_{0}$. Sustituimos en el resultado anterior.

$$\mathbf{Z}(t_{0}) = e^{\mathbf{0}} \mathbf{Y}_{0} = \mathbf{I} \cdot \mathbf{Y}_{0} = \mathbf{Y}_{0} \label{7} \tag{7}$$

Hemos probado que $\mathbf{Z}$ es una matriz constante y que $\mathbf{Z}(t_{0}) = \mathbf{Y}_{0}$, entonces

$$\mathbf{Z}(t) = \mathbf{Y}_{0} \label{8} \tag{8}$$

para todo $t \in \mathbb{R}$. Sustituyendo (\ref{4}) en (\ref{8}), se tiene

$$e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} = \mathbf{Y}_{0} \label{9} \tag{9}$$

Multipliquemos $e^{(t -t_{0}) \mathbf{A}}$ en ambos lados de esta ecuación por el lado izquierdo.

$$e^{(t -t_{0}) \mathbf{A}} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} = e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} \label{10} \tag{10}$$

Por un lado,

$$e^{(t -t_{0}) \mathbf{A}} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} = \mathbf{I} \cdot \mathbf{X} = \mathbf{X}(t) \label{11} \tag{11}$$

Por otro lado, de (\ref{3}) se tiene que

$$e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} = \mathbf{Y}(t) \label{12} \tag{12}$$

Entonces (\ref{10}) queda como

$$\mathbf{X}(t) = \mathbf{Y}(t) \label{13} \tag{13}$$

Es decir, la solución es única.

$\square$

Con este teorema queda justificado el método de valores y vectores propios que presentamos en esta unidad para resolver sistemas lineales homogéneos con coeficientes constantes.

Ahora demostremos el teorema de existencia y unicidad para el caso no homogéneo.

Teorema de existencia y unicidad para sistemas lineales no homogéneos

Demostración: Sea $\mathbf{Y}(t)$ una función arbitraría definida en un intervalo común $\delta$ que es solución del problema de valores iniciales (\ref{14}), entonces

$$\mathbf{Y}^{\prime} = \mathbf{AY} + \mathbf{G} \label{16} \tag{16}$$

y

$$\mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{17} \tag{17}$$

Multipliquemos ambos lados de la ecuación (\ref{16}) por $e^{-t \mathbf{A}}$ por el lado izquierdo.

\begin{align*}
e^{-t \mathbf{A}} \mathbf{Y}^{\prime} &= e^{-t \mathbf{A}} \mathbf{AY} + e^{-t \mathbf{A}} \mathbf{G} \\
e^{-t \mathbf{A}} \mathbf{Y}^{\prime} -e^{-t \mathbf{A}} \mathbf{AY} &= e^{-t \mathbf{A}} \mathbf{G} \\
e^{-t \mathbf{A}} \mathbf{Y}^{\prime} -\mathbf{A} e^{-t \mathbf{A}} \mathbf{Y} &= e^{-t \mathbf{A}} \mathbf{G} \label{18} \tag{18}
\end{align*}

Notemos que

$$\left( e^{-t \mathbf{A}} \mathbf{Y} \right)^{\prime} = e^{-t \mathbf{A}} \mathbf{Y}^{\prime} -\mathbf{A} e^{-t \mathbf{A}} \mathbf{Y} \label{19} \tag{19}$$

Entonces el resultado (\ref{18}) se puede escribir como

$$\left( e^{-t \mathbf{A}} \mathbf{Y} \right)^{\prime} = e^{-t \mathbf{A}} \mathbf{G} \label{20} \tag{20}$$

Integremos de $t_{0}$ a $t$ y usemos el teorema fundamental del cálculo.

$$e^{-t \mathbf{A}} \mathbf{Y}(t) -e^{-t_{0} \mathbf{A}} \mathbf{Y}(t_{0}) = \int_{t_{0}}^{t}e^{-s \mathbf{A}} \mathbf{G}(s) ds \label{21} \tag{21}$$

Multipliquemos ambos lados de esta ecuación por $e^{t \mathbf{A}}$ por el lado izquierdo y sustituyamos los valores iniciales (\ref{17}).

\begin{align*}
e^{t \mathbf{A}} e^{-t \mathbf{A}} \mathbf{Y}(t) -e^{t \mathbf{A}} e^{-t_{0} \mathbf{A}} \mathbf{Y}_{0} &= e^{t \mathbf{A}} \int_{t_{0}}^{t} e^{-s \mathbf{A}} \mathbf{G}(s) ds \\
\mathbf{Y}(t) -e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} &= e^{t \mathbf{A}} \int_{t_{0}}^{t} e^{-s \mathbf{A}} \mathbf{G}(s) ds
\end{align*}

Si despejamos a la función $\mathbf{Y}(t)$ obtenemos finalmente que

$$\mathbf{Y}(t) = e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} + e^{t \mathbf{A}} \int_{t_{0}}^{t} e^{-s \mathbf{A}} \mathbf{G}(s) ds \label{22} \tag{22}$$

Como la función $\mathbf{Y}(t)$ fue arbitraría, con el proceso realizado estamos mostrando tanto la existencia como la unicidad de esta solución.

$\square$

Con este teorema queda justificado el método de variación de parámetros visto en la entada anterior.

Hemos concluido con esta entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
    1 & 10 \\ 6 & -3
    \end{pmatrix} \mathbf{Y}(t), \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    2 \\ 0
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
    1 & 1 & 1 \\ 1 & 1 & 1 \\ -2 & -2 & -2
    \end{pmatrix} \mathbf{Y}(t), \hspace{1cm} \mathbf{Y}(0) =\begin{pmatrix}
    1 \\ -4 \\ 6
    \end{pmatrix}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
    3 & -1 \\ -1 & 3
    \end{pmatrix} \mathbf{Y}(t) + \begin{pmatrix}
    4 e^{2t} \\ 4 e^{4t}
    \end{pmatrix}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
    1 & -1 \\ 1 & -1
    \end{pmatrix} \mathbf{Y}(t) + \begin{pmatrix}
    1/t \\ 1/t
    \end{pmatrix}, \hspace{1cm} \mathbf{Y}(1) = \begin{pmatrix}
    2 \\ -1
    \end{pmatrix}$

Más adelante…

En la siguiente y última entrada de esta unidad justificaremos el teorema de existencia y unicidad de los sistemas de ecuaciones diferenciales de primer orden lineales y no lineales. Es decir, el resultado general de los sistemas de ecuaciones diferenciales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Sistemas lineales no homogéneos – Método de variación de parámetros

Por Omar González Franco

Las ciencias matemáticas exhiben particularmente orden, simetría
y límites; y esas son las más grandes formas de belleza.
– Aristóteles

Introducción

Ya sabemos resolver sistemas lineales homogéneos con coeficientes constantes, en esta entrada estudiaremos el caso no homogéneo.

Como hemos visto en las dos unidades anteriores, el método de variación de parámetros ha sido fundamental para resolver ecuaciones diferenciales en el caso no homogéneo. Éste mismo método es el que desarrollaremos en esta entrada para resolver sistemas lineales no homogéneos con coeficientes constantes.

Cabe mencionar que en esta entrada utilizaremos bastante el concepto de exponencial de una matriz y el de matriz fundamental de soluciones.

Sistemas lineales homogéneos

El sistema lineal que hemos estudiado es

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} \label{1} \tag{1}$$

Donde $\mathbf{A}$ es una matriz con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Ahora sabemos que la solución general del sistema lineal homogéneo (\ref{1}) es de la forma

$$\mathbf{Y}_{c}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) \label{3} \tag{3}$$

En donde las funciones $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$ son soluciones linealmente independientes del mismo sistema. Usamos el subíndice $c$ debido a que, como antes, al resolver el caso no homogéneo será necesario resolver primero el sistema homogéneo asociado y la solución general de dicho sistema será la solución complementaria del sistema no homogéneo.

Recordemos que la matriz que tiene por columnas a las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ de (\ref{3}) corresponde a la matriz fundamental de soluciones.

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1}(t) & \mathbf{Y}_{2}(t) & \cdots & \mathbf{Y}_{n}(t) \end{pmatrix} = \begin{pmatrix} y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{4} \tag{4}$$

Si definimos el vector de constantes

$$\mathbf{C} = \begin{pmatrix}
c_{1} \\ c_{2} \\ \vdots \\ c_{n}
\end{pmatrix} \label{5} \tag{5}$$

podemos escribir la solución (\ref{3}) como

$$\mathbf{Y}_{c}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} \label{6} \tag{6}$$

Recordemos este resultado para más adelante.

Sistemas lineales no homogéneos

El sistema lineal no homogéneo que intentaremos resolver es de la forma

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G} \label{7} \tag{7}$$

Donde $\mathbf{G} = \mathbf{G}(t)$ es una matriz de $n \times 1$ con componentes dependientes de $t$.

$$\mathbf{G}(t) = \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{8} \tag{8}$$

Dada la forma de la solución general de un sistema lineal homogéneo (\ref{3}), parecería natural pensar que el sistema lineal no homogéneo tiene por solución una función de la forma

$$\mathbf{Y}_{p}(t) = u_{1}(t) \mathbf{Y}_{1}(t) + u_{2}(t) \mathbf{Y}_{2}(t) + \cdots + u_{n}(t) \mathbf{Y}_{n}(t) \label{9} \tag{9}$$

En donde $u_{i}(t)$, $i = 1, 2, \cdots, n$ son funciones escalares de $t$ derivables y las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ forman una matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$. Si definimos el vector

$$\mathbf{U}(t) = \begin{pmatrix}
u_{1}(t) \\ u_{2}(t) \\ \vdots \\ u_{n}(t)
\end{pmatrix} \label{10} \tag{10}$$

Entonces la solución propuesta (\ref{9}) adquiere la forma

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \mathbf{U}(t) \label{11} \tag{11}$$

El método de variación de parámetros nos permitirá obtener la forma del vector $\mathbf{U}(t)$, una vez obtenida podremos formar la solución general del sistema lineal no homogéneo (\ref{7}) que, como siempre, será la superposición de la solución complementaria del sistema lineal homogéneo asociado $\mathbf{Y}_{c}(t)$ más la solución particular del sistema lineal no homogéneo $\mathbf{Y}_{p}(t)$, esto es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t) \label{12} \tag{12}$$

Variación de parámetros

Comencemos a desarrollar el método de variación de parámetros, como mencionamos antes, el objetivo es encontrar la forma explícita del vector (\ref{10}) para formar la solución particular del sistema lineal no homogéneo.

Consideremos la función propuesta (\ref{11}) y derivémosla.

$$\mathbf{Y}_{p}^{\prime}(t) = \hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) \label{13} \tag{13}$$

Si sustituimos (\ref{11}) y (\ref{13}) en el sistema lineal no homogéneo (\ref{7}), se tiene

$$\hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} [\hat{\mathbf{Y}}(t) \mathbf{U}(t)] + \mathbf{G}(t) \label{14} \tag{14}$$

Como $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones sabemos que satisface el sistema homogéneo, es decir,

$$\hat{\mathbf{Y}}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \label{15} \tag{15}$$

Si sustituimos en (\ref{14}) la ecuación queda como

$$\mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \mathbf{G}(t)$$

O bien,

$$\hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{G}(t) \label{16} \tag{16}$$

La matriz fundamental es no singular, de manera que siempre existe su inversa, esto nos permite establecer que

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) \label{17} \tag{17}$$

Esta ecuación es matricial y sabemos que es posible integrar sobre matrices, así que integremos la ecuación anterior con el objetivo de hallar la forma de $\mathbf{U}$.

$$\mathbf{U}(t) = \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{18} \tag{18}$$

Ahora que conocemos la forma de $\mathbf{U}(t)$, sustituimos en la solución propuesta (\ref{11}), de forma que una solución particular del sistema lineal no homogéneo es

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{19} \tag{19}$$

Por lo tanto, de (\ref{6}) y el resultado (\ref{19}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{20} \tag{20}$$

Si $\hat{\mathbf{Y}}(t)$ es la matriz fundamental de soluciones $e^{\mathbf{A} t}$ y considerando que $\hat{\mathbf{Y}}^{-1}(t) = e^{-\mathbf{A} t}$, el resultado anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{C} + e^{\mathbf{A}t} \int e^{-\mathbf{A} t} \mathbf{G}(t) dt \label{21} \tag{21}$$

Problema con valores iniciales

Consideremos el problema con valores iniciales

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G}; \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{22} \tag{22}$$

De nuestro desarrollo anterior consideremos la relación (\ref{17}).

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t)$$

En esta ocasión integremos de $t_{0}$ a $t$ y usemos el teorema fundamental del cálculo.

$$\mathbf{U}(t) = \mathbf{U}(t_{0}) + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{23} \tag{23}$$

Notemos que si aplicamos la condición inicial $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$ sobre la función (\ref{11}), se obtiene

$$\mathbf{Y}_{p}(t_{0}) = \hat{\mathbf{Y}}(t_{0}) \mathbf{U}(t_{0}) = \mathbf{Y}_{0} \label{24} \tag{24}$$

De donde,

$$\mathbf{U}(t_{0}) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} \label{25} \tag{25}$$

Sustituimos este resultado en la ecuación (\ref{23}).

$$\mathbf{U}(t) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{26} \tag{26}$$

Aquí debemos tener cuidado, si sustituimos la función (\ref{26}) en (\ref{11}), se obtiene

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{27} \tag{27}$$

Pero $\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0}$ es una matriz de constantes, digamos

$$\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} = \mathbf{C}$$

Entonces el resultado (\ref{27}) queda como

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{28} \tag{28}$$

Este resultado se parece a la ecuación (\ref{20}), es decir, a pesar de que sustituimos (\ref{26}) en (\ref{11}) esperando obtener la solución particular $\mathbf{Y}_{p}(t)$, en realidad estamos obteniendo la solución general, la solución general del problema de valores iniciales.

Si consideramos nuevamente que $\hat{\mathbf{Y}}(t) = e^{\mathbf{A} t}$, el resultado (\ref{27}) se reduce significativamente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} e^{-\mathbf{A} t_{0}} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{t_{0}}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{29} \tag{29}$$

O bien,

$$\mathbf{Y}(t) = e^{\mathbf{A}(t -t_{0})} \mathbf{Y}_{0} + \int_{t_{0}}^{t}e^{\mathbf{A} (t -s)} \mathbf{G}(s) ds \label{30} \tag{30}$$

Por otro lado, si $t_{0} = 0$, de (\ref{27}) se obtiene que

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(0) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds$$

Pero recordemos que

$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0) \label{31} \tag{31}$$

Entonces la solución anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{32} \tag{32}$$

Si nuestro propósito es determinar la solución general de un sistema lineal no homogéneo (\ref{7}), primero resolvemos el sistema lineal homogéneo asociado para obtener la solución complementaria en la forma (\ref{3}). Con las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ obtenidas formamos una matriz fundamental $\hat{\mathbf{Y}}(t)$, se calcula su inversa y se sustituyen las matrices correspondientes en la solución particular (\ref{19}). Una vez obtenidas ambas soluciones, la solución general del sistema lineal no homogéneo será

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

Sin embargo, si lo que tenemos es un problema de valores iniciales, debemos nuevamente obtener la solución del sistema lineal homogéneo asociado ya que eso es lo que nos permite formar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$, una vez obtenida esta función calculamos su inversa y se sustituyen las matrices correspondientes en la ecuación (\ref{27}), esto nos dará la solución completa del problema de valores iniciales, es decir, no es necesario aplicar las condiciones iniciales en la solución complementaria para obtener los valores de las constantes $c_{1}, c_{2}, \cdots, c_{n}$.

Para concluir con esta entrada realicemos dos ejemplos, en el primero de ellos obtendremos la solución general de un sistema lineal no homogéneo y en el segundo ejemplo resolveremos un problema con valores iniciales. Con estos ejemplos se espera que el método quede claro.

Ejemplo: Obtener la solución general del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
1 \\ -1
\end{pmatrix} e^{t}$$

Solución: Resolvamos primero el sistema homogéneo asociado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y}$$

En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz.

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
-\lambda & 2 \\ -1 & 3 -\lambda
\end{vmatrix} = 0$$

La ecuación característica es

$$\lambda^{2} -3 \lambda + 2 = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios son

$$\lambda_{1} = 1\hspace{1cm} y \hspace{1cm} \lambda_{2} = 2$$

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \begin{pmatrix}
-1 & 2 \\ -1 & 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + 2 k_{2} = 0$$

Es decir, $2 k_{2} = k_{1}$. Elegimos $k_{2} = 1$, entonces $k_{1} = 2$. Por lo tanto el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 2$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
-2 & 2 \\ -1 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + k_{2} = 0$$

Es decir, $k_{1} = k_{2}$. Elegimos $k_{1} = k_{2} = 1$. Por lo tanto, el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Con estos resultados concluimos que la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Para determinar la solución particular $\mathbf{Y}_{p}(t)$, formemos, con el resultado anterior, la matriz fundamental de soluciones (\ref{4}).

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix}$$

Como también requerimos de la matriz inversa, verifica que

$$\hat{\mathbf{Y}}^{-1}(t) = \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix}$$

La matriz $\mathbf{G}$ en este caso es

$$ \mathbf{G}(t) = \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix}$$

Sustituyamos estas matrices en la solución particular (\ref{19}).

\begin{align*}
\mathbf{Y}_{p}(t) &= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix} \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix} dt \\
&= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt
\end{align*}

Resolviendo la integral (sin considerar constantes de integración), se obtiene

$$\int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt = \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix} = \begin{pmatrix}
4t e^{t} + 3e^{t} \\ 2te^{t} + 3e^{t}
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}_{p}(t) =\begin{pmatrix}
4 \\ 2
\end{pmatrix} te^{t} + \begin{pmatrix}
3 \\ 3
\end{pmatrix} e^{t}$$

Por lo tanto, la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix} + \begin{pmatrix}
3 \\ 3
\end{pmatrix}e^{t} + \begin{pmatrix}
4 \\ 2
\end{pmatrix} t e^{t}$$

$\square$

Realicemos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix}$$

Solución: Primero debemos obtener la solución del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y}$$

Ello nos permitirá obtener la matriz fundamental de soluciones. En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz. La ecuación característica se obtendrá de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
1-\lambda & 0 & 0 \\ 2 & 1 -\lambda & -2 \\ 3 & 2 & 1 -\lambda
\end{vmatrix} = 0$$

Desarrollando el determinante obtendremos que

$$(1 -\lambda )(\lambda ^{2} -2 \lambda + 5) = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios de $\mathbf{A}$ son

$$\lambda_{1} = 1 \hspace{1cm} y \hspace{1cm} \lambda_{2} = 1 + 2i, \hspace{1cm} \lambda_{3} = 1 -2i$$

De acuerdo a los valores propios obtenidos, la manera de resolver el sistema homogéneo será aplicando la teoría vista en la entrada sobre valores propios complejos.

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \left[ \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} -\begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \right] \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 2 & 0 & -2 \\ 3 & 2 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema que se obtiene es

\begin{align*}
2 k_{1} -2 k_{3} &= 0 \\
3 k_{1} + 2 k_{2} &= 0
\end{align*}

De este sistema se observa que

\begin{align*}
k_{1} &= k_{3} \\
k_{2} &= -\dfrac{3k_{1}}{2}
\end{align*}

Elegimos $k_{1} = 2 = k_{3}$, de tal manera que $k_{2} = -3$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + 2i$.

Buscamos un vector $\mathbf{K}$, diferente de cero, tal que

$$[\mathbf{A} -(1 + 2i) \mathbf{I}] \mathbf{K} = \begin{pmatrix}
-2i & 0 & 0 \\ 2 & -2i & -2 \\ 3 & 2 & -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-2i k_{1} &= 0 \\
2k_{1} -2i k_{2} -2k_{3} &= 0 \\
3k_{1} + 2k_{2} -2i k_{3} &= 0
\end{align*}

De este sistema se observa que $k_{1} = 0$ y $k_{3} = -ik_{2}$. Elegimos $k_{2} = 1$, de manera que el segundo vector propio sea

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Caso 3: $\lambda_{2} = 1 -2i$.

Sabemos que este caso es el conjugado del caso anterior, por lo que directamente establecemos que el tercer vector propio es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

La solución general del sistema lineal homogéneo asociado, en su forma compleja, es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} + c_{3} e^{(1 -2i) t} \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

Sin embargo esta solución no nos sirve de mucho, pues desearíamos construir la matriz fundamental de soluciones con valores reales. Recordando lo visto en la entrada sobre valores propios complejos, podemos encontrar dos funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$, tal que la solución general sea de la forma

$$\mathbf{Y}_{c}(t) = c_{1} e^{\lambda_{1} t} + c_{2} \mathbf{W}_{1}(t) + c_{3} \mathbf{W}_{2}(t) \label{33} \tag{33}$$

Recordemos que las funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ están dadas por

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] \label{34} \tag{34}$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{35} \tag{35}$$

Consideremos el caso 2 en el que $\lambda_{2} = 1 + 2i$ y

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} $$

De estos resultados obtenemos que $\alpha = 1$, $\beta = 2$ y

$$\mathbf{U} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix}$$

Sustituyamos en la funciones (\ref{34}) y (\ref{35}). Por un lado,

\begin{align*}
\mathbf{W}_{1}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \cos(2t) -\begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \sin(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} -\begin{pmatrix}
0 \\ 0 \\ -\sin(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix}$$

Por otro lado,

\begin{align*}
\mathbf{W}_{2}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \sin(2t) + \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \cos(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

Recordemos que estas funciones también se pueden obtener considerando la identidad de Euler. Del caso 2 la solución que se obtiene es

$$\mathbf{Y}_{2c}(t) = e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Así,

$$\mathbf{W}_{1}(t) = Re \{ \mathbf{Y}_{2c}(t) \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = Im \{ \mathbf{Y}_{2c}(t) \}$$

Usando la identidad de Euler sobre esta solución obtenemos lo siguiente.

\begin{align*}
e^{(1 + 2i)t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} &= e^{t}[\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -i \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] + i e^{t} \left[ \sin(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -\cos(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ \sin(2t)
\end{pmatrix} \right] + ie^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

De donde,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

De esta forma, la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix} \label{36} \tag{36}$$

Esta solución es de la forma (\ref{3}) por lo que la matriz fundamental de soluciones, formada por estos vectores linealmente independientes, es

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t} & e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix}$$

Para obtener la solución del problema con valores iniciales usaremos el resultado (\ref{29}) para $t_{0} = 0$.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{0}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{37} \tag{37}$$

Es decir, consideraremos a la matriz $e^{\mathbf{A} t}$ como la matriz fundamental de soluciones. También es posible usar la relación (\ref{32}) usando la matriz $\hat{\mathbf{Y}}(t)$ antes establecida. ¿Por qué son equivalentes ambas formas?.

Determinemos la matriz $e^{\mathbf{A} t}$ usando la relación (\ref{31}). Si evaluamos $t = 0$ en la matriz $\hat{\mathbf{Y}}(t)$ se obtiene la matriz

$$\hat{\mathbf{Y}}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}$$

Comprueba que la matriz inversa es

$$\hat{\mathbf{Y}}^{ -1}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}^{ -1} = \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix}$$

Sustituyamos en (\ref{31}).

\begin{align*}
e^{\mathbf{A}t} &= \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t}& e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix} \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}
\end{align*}

Por lo tanto, la matriz que consideraremos como matriz fundamental de soluciones es

$$e^{\mathbf{A}t} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}$$

Como también requerimos de la inversa de esta matriz, verifica que

$$e^{-\mathbf{A}t} = e^{-t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) -\sin(2t) & \cos(2t) & \sin(2t) \\ 1 -\dfrac{3}{2} \sin(2t) -\cos(2t) & -\sin(2t) & \cos(2t)
\end{pmatrix}$$

En este caso la matriz $\mathbf{G}(t)$ es

$$\mathbf{G}(t) = \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}$$

Sustituyamos todos estos resultados en la solución (\ref{37}).

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{s} \cos(2s)
\end{pmatrix}ds$$

Por un lado,

$$e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix}$$

De tarea moral, determina las constantes $c_{1}$, $c_{2}$ y $c_{3}$ aplicando los valores iniciales sobre la solución complementaria (\ref{36}). ¿Qué relación tiene tu resultado con la operación anterior?.

Por otro lado,

$$e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} e^{s} \begin{pmatrix}
0 \\ 0 \\ \cos(2s)
\end{pmatrix} = \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix}$$

Sustituimos estas matrices en $\mathbf{Y}(t)$.

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds$$

Resolvamos la integral.

\begin{align*}
\int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds &= \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{t} – \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{0} \\
&= \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4t) \\ \dfrac{t}{2} + \dfrac{\sin(4t)}{8}
\end{pmatrix} -\begin{pmatrix}
0 \\ -\dfrac{1}{8} \\ 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}
\end{align*}

Entonces,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}$$

Ahora realicemos el producto del segundo sumando.

\begin{align*}
e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} &= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ \cos(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) -\sin(2t) \left( \dfrac{4t + \sin(4t)}{8} \right) \\ \sin(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) + \cos(2t) \left( \dfrac{4t + \sin(4t)}{8} \right)
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}
\end{align*}

Así,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}$$

Haciendo las operaciones correspondientes se obtiene finalmente que la solución al problema con valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\left( 1+ \dfrac{1}{2}t \right) \sin(2t) \\ \left( 1 + \dfrac{1}{2}t \right) \cos(2t) + \dfrac{5}{4} \sin(2t)
\end{pmatrix}$$

$\square$

Vemos que este método puede ser bastante largo y complicado, de hecho se puede volver una tarea imposible de hacer a mano si se tienen sistemas con matriz $\mathbf{A}$ de $3 \times 3$ o más. Se recomienda, en la medida de lo posible, usar algún programa computacional para llevar a cabo algunas de las operaciones, lo importante es entender como llevar a cabo el método.

Con esto concluimos lo que corresponde al estudio de los distintos métodos para resolver sistemas lineales. Prácticamente hemos concluido con la unidad 3 del curso.

En las siguientes dos entradas de esta unidad trataremos de justificar los teoremas de existencia y unicidad en el caso de los sistemas lineales, esto con el propósito de justificar toda la teoría desarrollada a lo largo de la unidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de los siguientes sistemas lineales no homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \cos(t) \\ \sin(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 \\ -\dfrac{1}{2} & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \csc(t) \\ \sec(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    e^{t} \\ e^{2t} \\ te^{3t}
    \end{pmatrix}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix} e^{2t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 & -2 \\ 1 & 1 & 1 \\ 2 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 0
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 0 \\ 0
    \end{pmatrix}$

Más adelante…

En la siguiente entrada demostraremos los teoremas de existencia y unicidad para el caso de los sistemas lineales de primer orden con coeficientes constantes homogéneos y no homogéneos y posteriormente, en la última entrada de esta unidad, justificaremos el teorema de existencia y unicidad en el caso general, es decir, para sistemas lineales y no lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Ecuaciones diferenciales homogéneas con coeficientes constantes

Por Omar González Franco

La esencia de las matemáticas no es hacer las cosas simples complicadas,
sino hacer las cosas complicadas simples.
– S. Gudder

Introducción

Continuando con nuestro desarrollo de métodos de resolución de ecuaciones diferenciales de orden superior, en particular de segundo orden, en esta entrada estudiaremos un método aplicado sólo a ecuaciones diferenciales lineales homogéneas de segundo orden con coeficientes constantes, es decir, de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = 0$$

Con $a, b$ y $c$ contantes.

Antes de comenzar motivemos el análisis que desarrollaremos a lo largo de la entrada considerando primero las ecuaciones diferenciales de primer orden.

Ecuaciones diferenciales lineales homogéneas de primer orden con coeficientes constantes

En la primera unidad estudiamos las ecuaciones diferenciales lineales homogéneas de la forma

$$a_{1}(x) \dfrac{dy}{dx} + a_{0}(x) y = 0 \label{1} \tag{1}$$

Si $a_{1}(x) \neq 0$ podemos definir

$$P(x) = \dfrac{a_{0}(x)}{a_{1}(x)}$$

y reescribir la ecuación anterior en su forma canónica como

$$\dfrac{dy}{dx} + P(x) y = 0 \label{2} \tag{2}$$

Cuando estudiamos su método de resolución concluimos que la solución general de la ecuación (\ref{2}) es

$$y(x) = k e^{-\int{P(x) dx}} \label{3} \tag{3}$$

Consideremos ahora el caso en el que $a_{1}(x) = a \neq 0$ y $a_{0}(x) = b$ son números constantes, con esto la ecuación (\ref{1}) se puede escribir como

$$a \dfrac{dy}{dx} + b y = 0 \label{4} \tag{4}$$

Si definimos la constante $c = \dfrac{b}{a}$ podremos escribir la ecuación anterior en su forma canónica como

$$\dfrac{dy}{dx} + cy = 0 \label{5} \tag{5}$$

En la unidad anterior vimos que esta ecuación se puede resolver ya sea por variables separables o con ayuda de un factor integrante, sin embargo hay un método de resolución que sólo implica hacer un poco de álgebra.

Definiendo $k = -c$ la ecuación (\ref{5}) la podemos escribir de la siguiente manera.

$$\dfrac{dy}{dx} = ky \label{6} \tag{6}$$

La solución se puede intuir rápidamente, buscamos una función $y$, tal que su derivada sea igual a ella misma multiplicada por una constante, la función que satisface esto es

$$y(x) = e^{kx} \label{7} \tag{7}$$

Observamos que al derivarla recuperamos la ecuación (\ref{6}).

$$\dfrac{dy}{dx} = k e^{kx} = ky$$

Ahora que conocemos la solución, sustituyamos la función (\ref{7}) y su derivada en la ecuación (\ref{4}).

$$a k e^{kx} + b e^{kx} = 0$$

Factoricemos la función exponencial.

$$e^{kx} (ak + b) = 0$$

Como $e^{kx} \neq 0$, $\forall x \in \mathbb{R}$, entonces necesariamente

$$ak + b = 0 \label{8} \tag{8}$$

De donde

$$k = -\dfrac{b}{a}$$

Sustituyendo en la solución (\ref{7}), se tiene

$$y(x) = e^{-bx/a}$$

Por lo tanto, la solución general de la ecuación diferencial lineal homogénea de primer orden con coeficientes constantes (\ref{4}) es

$$y(x) = c_{1}e^{-bx/a} \label{9} \tag{9}$$

Ejemplo: Determinar la solución general de la ecuación diferencial

$$8 \dfrac{dy}{dx} + 16y = 0$$

Solución: Al ser una ecuación con coeficientes constantes, sabemos que la solución es de la forma (\ref{7}). Sustituimos $y$ y su derivada $\dfrac{dy}{dx}$ en la ecuación diferencial.

\begin{align*}
8ke^{kx} + 16e^{kx} &= 0 \\
e^{kx}(8k + 16) &= 0 \\
8k + 16 &= 0
\end{align*}

De la última relación despejamos a $k$, obteniendo

$$k = -\dfrac{16}{8} = -2$$

Una solución de la ecuación diferencial es

$$y(x) = e^{-2x}$$

Y por tanto su solución general en el intervalo $\delta = (-\infty, \infty)$ es

$$y(x) = c_{1} e^{-2x}$$

$\square$

Lo interesante es que esta idea de soluciones exponenciales se puede extender a ecuaciones diferenciales homogéneas de orden superior

$$a_{n} \dfrac{d^{n}y}{dx^{n}} + a_{n -1} \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{1} \dfrac{dy}{dx} + a_{0} y = 0 \label{10} \tag{10}$$

donde los coeficientes $a_{i}$, $i = 0, 1, 2, …, n$, son constantes reales y $a_{n} \neq 0$.

Este análisis nos sirvió para motivar el siguiente método de resolución de ecuaciones diferenciales de segundo orden.

Ecuaciones diferenciales lineales homogéneas de segundo orden con coeficientes constantes

La ecuación diferencial que queremos resolver es de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = 0 \label{11} \tag{11}$$

Con $a, b$ y $c$ constantes. Igual que antes, lo que intentamos es encontrar una solución de la forma

$$y(x) = e^{kx}$$

La primera y segunda derivada están dadas de la siguiente forma, respectivamente.

$$\dfrac{dy}{dx} = k e^{kx} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = k^{2} e^{kx}$$

Sustituimos en la ecuación (\ref{11}).

\begin{align*}
a(k^{2} e^{kx}) + b(ke^{kx}) + c(e^{kx}) &= 0 \\
e^{kx} (ak^{2} + bk + c) &= 0
\end{align*}

Como $e^{kx} \neq 0, \forall x \in \mathbb{R}$, entonces necesariamente

$$ak^{2} + bk + c = 0 \label{12} \tag{12}$$

El problema se ha reducido a obtener las raíces de esta ecuación, dicha ecuación tiene un nombre particular.

La dos raíces de la ecuación auxiliar son

$$k_{1} = \dfrac{-b + \sqrt{b^{2} -4ac}}{2a} \hspace{1cm} y \hspace{1cm} k_{2} = \dfrac{-b -\sqrt{b^{2} -4ac}}{2a} \label{13} \tag{13}$$

El discriminante puede ser positivo, cero o negativo, en cada caso ocurre lo siguiente.

  • Si $\Delta > 0$, entonces $k_{1}$ y $k_{2}$ son reales y distintos.
  • Si $\Delta = 0$, entonces $k_{1}$ y $k_{2}$ son reales e iguales, y
  • Si $\Delta < 0$, entonces $k_{1}$ y $k_{2}$ son números conjugados complejos.

Estudiemos cada caso y veamos el tipo de solución que se obtiene en cada uno.

Caso 1: Discriminante positivo

La solución de la ecuación (\ref{11}) es de la forma

$$y = e^{kx}$$

Si el discriminante es positivo, entonces al resolver la ecuación auxiliar obtendremos dos raíces reales y distintas $k_{1}$ y $k_{2}$, de manera que se tendrán dos soluciones de la ecuación diferencial (\ref{11}), dichas soluciones son

$$y_{1}(x) = e^{k_{1} x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{k_{2} x}$$

Notemos lo siguiente.

\begin{align*}
W(y_{1}, y_{2}) &= \begin{vmatrix}
e^{k_{1} x} & e^{k_{2} x} \\
k_{1} e^{k_{1} x} & k_{2} e^{k_{2} x} \end{vmatrix} \\
&= k_{2} e^{k_{2} x} e^{k_{1} x} -k_{1} e^{k_{1} x} e^{k_{2} x} \\
&= (k_{2} -k_{1}) e^{(k_{1} + k_{2}) x} \neq 0
\end{align*}

Como el Wronskiano es distinto de cero $\forall x \in \mathbb{R}$, entonces ambas funciones son linealmente independientes en $\mathbb{R}$, por tanto forman un conjunto fundamental de soluciones y la solución general de la ecuación diferencial (\ref{11}), en el caso en el que el discriminante es positivo, es

$$y(x) = c_{1} e^{k_{1} x} + c_{2} e^{k_{2} x} \label{15} \tag{15}$$

Con

$$k_{1} = \dfrac{-b + \sqrt{b^{2} -4ac}}{2a} \hspace{1cm} y \hspace{1cm} k_{2} = \dfrac{-b -\sqrt{b^{2} -4ac}}{2a}$$

Caso 2: Discriminante igual a cero

En este caso como

$$\Delta = b^{2} -4ac = 0$$

entonces,

$$k_{1} = k_{2} = -\dfrac{b}{2a}$$

De esta manera sólo obtendremos una solución exponencial.

$$y_{1}(x) = e^{k_{1} x} = e^{k_{2} x} = e^{-bx/2a} \label{16} \tag{16}$$

Para obtener la segunda solución vamos a aplicar el método de reducción de orden visto en la entrada anterior, en donde obtuvimos que una segunda solución linealmente independiente es de la forma

$$y_{2}(x) = y_{1}(x) \int{\dfrac{e^{-\int{P(x) dx}}}{y_{1}^{2}(x)} dx} \label{17} \tag{17}$$

En este caso de coeficientes constantes si la ecuación (\ref{11}) la dividimos por la constante $a \neq 0$ obtenemos

$$\dfrac{d^{2}y}{dx^{2}} + \dfrac{b}{a} \dfrac{dy}{dx} + \dfrac{c}{a}y = 0$$

Si definimos las constantes

$$P = \dfrac{b}{a} \hspace{1cm} y \hspace{1cm} Q = \dfrac{c}{a}$$

la ecuación anterior se puede reescribir como

$$\dfrac{d^{2}y}{dx^{2}} + P \dfrac{dy}{dx} + Qy = 0 \label{18} \tag{18}$$

Sustituyamos $P(x) = P$ y $y_{1}(x)$ en la segunda solución (\ref{17}).

\begin{align*}
y_{2}(x) &= e^{-bx/2a} \int{\dfrac{e^{-\int{\frac{b}{a} dx}}}{\left( e^{-bx/2a} \right)^{2}} dx} \\
&= e^{-bx/2a} \int{\dfrac{e^{-bx/a}}{e^{-bx/a}} dx} \\
&= e^{-bx/2a} \int{dx} \\
&= x e^{-bx/2a}
\end{align*}

Con esto, la segunda solución de la ecuación diferencial (\ref{11}), para este segundo caso es

$$y_{2}(x) = xe^{k_{1}x} = xe^{k_{2}x} = x e^{-bx/2a} \label{19} \tag{19}$$

Usando (\ref{16}) y (\ref{19}), notamos que

\begin{align*}
W(y_{1}, y_{2}) &= \begin{vmatrix}
e^{k_{1} x} & xe^{k_{1} x} \\
k_{1} e^{k_{1} x} & e^{k_{1} x} + x k_{1} e^{k_{1} x} \end{vmatrix} \\
&= e^{k_{1} x}(e^{k_{1} x} + x k_{1} e^{k_{1} x}) -x e^{k_{1} x} (k_{1} e^{k_{1} x}) \\
&= e^{2k_{1} x} + x k_{1} e^{2k_{1} x} -x k_{1} e^{2k_{1} x} \\
&= e^{2k_{1} x} \neq 0
\end{align*}

Como el Wronskiano es distinto de cero $\forall x \in \mathbb{R}$, entonces ambas funciones son linealmente independientes en $\mathbb{R}$, por tanto forman un conjunto fundamental de soluciones y la solución general de la ecuación diferencial (\ref{11}), en el caso en el que el discriminante es cero, es

$$y(x) = c_{1}e^{k_{1}x} + c_{2} xe^{k_{1}x} \label{20} \tag{20}$$

Con $k_{1} = -\dfrac{b}{2a}$.

Revisemos el último caso.

Caso 3: Discriminante negativo

Sabemos que

$$k_{1} = \dfrac{-b + \sqrt{b^{2} -4ac}}{2a} \hspace{1cm} y \hspace{1cm} k_{2} = \dfrac{-b -\sqrt{b^{2} -4ac}}{2a}$$

Si el discriminante es menor a cero definimos

$$-w = b^{2} -4ac \label{21} \tag{21}$$

Con $w \in \mathbb{R}^{+}$, tal que

$$k_{1} = \dfrac{-b + \sqrt{-w}}{2a} = -\dfrac{b}{2a} + i\dfrac{\sqrt{w}}{2a} \label{22} \tag{22}$$

y

$$k_{2} = \dfrac{-b -\sqrt{-w}}{2a} = -\dfrac{b}{2a} -i\dfrac{\sqrt{w}}{2a} \label{23} \tag{23}$$

Donde $i^{2} = -1$, definimos

$$\alpha = -\dfrac{b}{2a} \hspace{1cm} y \hspace{1cm} \beta = \dfrac{\sqrt{w}}{2a} \label{24} \tag{24}$$

De esta forma las raíces de la ecuación auxiliar son los números complejos conjugados

$$k_{1} = \alpha + i\beta \hspace{1cm} y \hspace{1cm} k_{2} = \alpha -i\beta \label{25} \tag{25}$$

Donde $\alpha$ y $\beta$ son números reales positivos. Dado que ambas raíces son distintas, similar al caso 1, tendremos dos soluciones dadas por

$$y_{1}(x) = e^{(\alpha + i\beta) x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{(\alpha -i\beta) x} \label{26} \tag{26}$$

De tarea moral demuestra que

$$W(y_{1}, y_{2}) = -2i \beta e^{2 \alpha x} \neq 0 \label{27} \tag{27}$$

y por tanto $\{ y_{1}, y_{2} \}$ forma un conjunto fundamental de soluciones, es así que la solución general está dada por la combinación lineal

$$y(x) = c_{1}e^{(a + i\beta) x} + c_{2}e^{(a -i\beta) x} \label{28} \tag{28}$$

A pesar de que la función anterior es la solución de la ecuación diferencial (\ref{11}), es común trabajar con una solución que contenga funciones reales en lugar de exponenciales complejas. Con el propósito de hallar una expresión real para la solución $y(x)$, vamos a considerar la formula de Euler

$$e^{i\theta} = \cos \theta + i\sin \theta \label{29} \tag{29}$$

con $\theta \in \mathbb{R}$. De esta formula y considerando las propiedades

$$\cos (-\beta x) = \cos (\beta x) \hspace{1cm} y \hspace{1cm} \sin (-\beta x) = -\sin (\beta x) \label{30} \tag{30}$$

es que podemos escribir las siguientes expresiones.

$$e^{i\beta x} = \cos (\beta x) + i \sin (\beta x) \hspace{1cm} y \hspace{1cm} e^{-i\beta x} = \cos (\beta x) -i \sin (\beta x) \label{31} \tag{31}$$

De las ecuaciones anteriores observamos que se cumplen las siguientes relaciones.

$$e^{i\beta x} + e^{-i\beta x} = 2 \cos (\beta x) \hspace{1cm} y \hspace{1cm} e^{i\beta x} -e^{-i\beta x} = 2i \sin (\beta x) \label{32} \tag{32}$$

Estas ecuaciones nos servirán mas adelante ya que, dada la solución (\ref{28}), si ocurre que $c_{1} = c_{2} = 1$, entonces se obtiene la solución

\begin{align*}
y_{1}(x) &= e^{(a + i\beta )x} + e^{(a -i\beta )x} \\
&= e^{ax} (e^{i\beta x} + e^{-i\beta x}) \\
&= 2 e^{ax} \cos (\beta x)
\end{align*}

Y si ocurre que $c_{1} = 1$ y $c_{2} = -1$, entonces se obtiene la solución

\begin{align*}
y_{2}(x) &= e^{(a + i\beta )x} -e^{(a -i\beta )x} \\
&= e^{ax}(e^{i\beta x} -e^{-i\beta x}) \\
&= 2ie^{ax}\sin (\beta x)
\end{align*}

Con estos resultados vemos que las funciones

$$g(x) = e^{\alpha x} \cos(\beta x) \hspace{1cm} y \hspace{1cm} h(x) = e^{\alpha x} \sin(\beta x) \label{33} \tag{33}$$

son ahora funciones reales y además de ello son soluciones de la ecuación diferencial (\ref{11}).

En la primer entrada de esta segunda unidad demostramos que un múltiplo constante

$$y(x) = c y_{1}(x)$$

de una solución $y_{1}$ de una ecuación diferencial lineal homogénea es también una solución, usando este resultado es que podemos asegurar que las funciones $C_{1}g(x)$ y $C_{2}h(x)$ son también solución. De tarea moral muestra que

$$W(C_{1} e^{\alpha x} \cos (\beta x), C_{2} e^{\alpha x} \sin (\beta x)) = C_{1}C_{2} \beta e^{2 \alpha x} \neq 0 \label{34} \tag{34}$$

Es decir, el Wronskiano de las soluciones es distinto de cero. De esta manera podemos afirmar que ambas funciones forman un conjunto fundamental de soluciones en cierto intervalo $\delta$ y, por lo tanto, podemos concluir que la solución general real de la ecuación diferencial (\ref{11}) en el caso en el que el discriminante es negativo es

$$y(x) = C_{1} e^{ax} \cos (\beta x) + C_{2} e^{ax} \sin (\beta x) = e^{ax} (C_{1} \cos (\beta x) + C_{2}\sin (\beta x)) \label{35} \tag{35}$$

Ejemplos

Realicemos una serie de ejemplos en los que tengamos que identificar a que caso pertenecen las ecuaciones diferenciales y así poder obtener su solución.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\dfrac{d^{2}y}{dx^{2}} -4\dfrac{dy}{dx} -5y = 0; \hspace{1cm} y(1) = 0, \hspace{0.5cm} y^{\prime}(1) = 2$$

Solución: Consideremos la solución $y = e^{kx}$ y sus primeras dos derivadas

$$\dfrac{dy}{dx}= ke^{kx} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}}= k^{2}e^{kx}$$

Sustituimos en la ecuación diferencial.

$$k^{2} e^{kx} -4ke^{kx} -5e^{kx} = e^{kx}(k^{2} -4k -5) = 0$$

Como $e^{kx} \neq 0, \forall x \in \mathbb{R}$, entonces la ecuación auxiliar es

$$k^{2} -4k -5 = 0$$

Resolviendo para $k$, se tiene

$$k= \dfrac{4\pm \sqrt{16+20}}{2}= \dfrac{4\pm 6}{2}$$

De donde $k_{1} = 5$ y $k_{2} = -1$. Como ambas raíces son reales y distintas (y $\Delta = 36 > 0$), entonces la ecuación pertenece al caso 1 por lo que podemos afirmar que la solución es de la forma (\ref{15}).

$$y(x) = c_{1} e^{5x} + c_{2} e^{-x}$$

La derivada es

$$\dfrac{dy}{dx} = 5 c_{1} e^{5x} -c_{2}e^{-x}$$

Apliquemos las condiciones iniciales.

$$y(1) = c_{1}e^{5} + c_{2}e^{-1} = 0 \hspace{1cm} y \hspace{1cm} y^{\prime}(1) = 5 c_{1}e^{5} -c_{2}e^{-1} = 2$$

Resolviendo el sistema de ecuaciones obtendremos que

$$c_{1} = \dfrac{e^{-5}}{3} \hspace{1cm} y \hspace{1cm} c_{2} = -\dfrac{e^{1}}{3}$$

Por lo tanto, la solución particular del PVI es

$$y(x) = \dfrac{1}{3}e^{5(x -1)} -\dfrac{1}{3}e^{1 -x}$$

$\square$

Ejemplo: Resolver el siguiente problema con valores en la frontera.

$$\dfrac{d^{2}y}{dx^{2}} -10\dfrac{dy}{dx} + 25y = 0; \hspace{1cm} y(0) = 1, \hspace{0.5cm} y(1) = 0$$

Solución: Consideramos nuevamente la solución $y = e^{kx}$ y sus derivadas

$$\dfrac{dy}{dx}= ke^{kx} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}}= k^{2}e^{kx}$$

Sustituimos en la ecuación diferencial.

$$k^{2}e^{kx} -10ke^{kx} + 25e^{kx} = e^{kx}(k^{2} -10k + 25) = 0$$

Como $e^{kx} \neq 0, \forall x \in \mathbb{R}$, entonces la ecuación auxiliar es

$$k^{2} -10k +25 = 0$$

Resolviendo para $k$, se tiene

$$k = \dfrac{10 \pm \sqrt{100 -100}}{2} = \dfrac{10}{2} = 5$$

Notamos que $k_{1} = k_{2} = 5$, es decir, son raíces reales e iguales ($\Delta = 0$), por lo que estamos situados en el segundo caso y la solución está dada por la ecuación (\ref{20}).

$$y(x) = c_{1} e^{5x} + c_{2}x e^{5x}$$

Apliquemos las condiciones en la frontera.

$$y(0) = c_{1} = 1 \hspace{1cm} y \hspace{1cm} y(1) = c_{1}e^{5} + c_{2}e^{5} = 0$$

Obtenemos que $c_{1} = 1$ y $c_{2} = -1$. Por lo tanto, la solución particular del PVF es

$$y(x) = e^{5x} -x e^{5x}$$

Y además es única al no depender de ningún parámetro libre.

$\square$

Ejemplo: Obtener la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + 3y = 0$$

Solución: Considerando la solución $y= e^{kx}$, calculando su primera y segunda derivada y sustituyendo en la ecuación diferencial obtendremos que la ecuación auxiliar es

$$k^{2} + 2k + 3 = 0$$

Resolviendo para $k$, tenemos

$$k = \dfrac{-2 \pm \sqrt{4 -12}}{2} = \dfrac{-2 \pm \sqrt{-8}}{2} = \dfrac{-2 \pm 2i\sqrt{2}}{2} = -1 \pm i \sqrt{2}$$

Las raíces son

$$k_{1} = -1 + i \sqrt{2} \hspace{1cm} y \hspace{1cm} k_{2} = -1 -i \sqrt{2}$$

Así mismo, identificamos que $\alpha = -1$ y $\beta = \sqrt{2}$. Al tratarse de raíces complejas notamos que corresponde al caso 3 y su solución compleja esta dada, de acuerdo a la ecuación (\ref{28}), como

$$y(x) = c_{1} e^{(-1 + i \sqrt{2})x} + c_{2} e^{(-1 -i \sqrt{2})x}$$

Sin embargo, una solución real es mucho más práctica de forma que si consideramos la ecuación (\ref{35}) concluimos que la solución general real de la ecuación diferencial es

$$y(x) = e^{-x}(C_{1} \cos (\sqrt{2} x) + C_{2} \sin (\sqrt{2} x))$$

$\square$

Ejemplo: Obtener la solución general de la ecuación diferencial

$$2\dfrac{d^{2}y}{dx^{2}} + 2\dfrac{dy}{dx} + y = 0$$

Solución: Considerando la solución $y= e^{kx}$, calculando su primera y segunda derivada y sustituyendo en la ecuación es como obtendremos que la ecuación auxiliar es

$$2k^{2} + 2k + 1 = 0$$

Resolvamos para $k$.

$$k = \dfrac{-2 \pm \sqrt{4 -4}}{4} = -\dfrac{2}{4}$$

En este caso

$$k_{1} = k_{2} = -\dfrac{1}{2}$$

es decir, las raíces son reales e iguales, de manera que estamos en el caso dos y por lo tanto la solución general es

$$y(x) = c_{1}e^{-x/2} + c_{2}x e^{-x/2}$$

$\square$

Ejemplo: Obtener la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -6y = 0$$

Solución: Repitiendo el mismo paso de siempre obtenemos que la ecuación auxiliar es

$$k^{2} -k -6 = 0$$

Resolviendo para $k$, tenemos

$$k = \dfrac{1 \pm \sqrt{1 + 24}}{2} = \dfrac{1 \pm 5}{2}$$

Las raíces son $k_{1} = 3$ y $k_{2} = -2$. Al ser reales y distintas notamos que estamos en circunstancias del caso uno y por tanto la solución general es

$$y(x) = c_{1}e^{3x} + c_{2}e^{-2x}$$

$\square$

Uno más

Ejemplo: Obtener la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 8\dfrac{dy}{dx} + 16y = 0$$

Solución: La ecuación auxiliar en este caso es

$$k^{2} + 8k + 16= 0$$

Las raíces se obtienen de hacer

$$k = \dfrac{8 \pm \sqrt{64 -64}}{2} = \dfrac{8}{2} = 4$$

Las raíces son $k_{1} = k_{2} = 4$, al ser reales e iguales concluimos que la solución general es

$$y(x) = c_{1}e^{4x} + c_{2}x e^{4x}$$

$\square$

Revisemos dos ecuaciones con una forma particular.

Dos ecuaciones particulares

Las ecuaciones diferenciales

$$\dfrac{d^{2}y}{dx^{2}} + m^{2}y = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} -m^{2}y = 0$$

Con $m \in \mathbb{R}$, son importantes en matemáticas aplicadas. Vamos a obtener la forma de la solución de cada una de ellas.

Comencemos con la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + m^{2}y = 0 \label{36} \tag{36}$$

Como es una ecuación con coeficientes constantes, entonces la solución es de la forma $y(x) = e^{kx}$, así la ecuación auxiliar en este caso es

$$k^{2} + m^{2} = 0$$

cuyas raíces son complejas y están dadas por

$$k_{1} = im \hspace{1cm} y \hspace{1cm} k_{2} = -im$$

De donde $\alpha = 0$ y $\beta = m$. Por lo tanto, de la ecuación (\ref{35}) concluimos que la solución de la ecuación (\ref{36}) es

$$y(x) = c_{1} \cos (mx) + c_{2}\sin (mx) \label{37} \tag{37}$$

Ejemplo: Obtener la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 9y = 0$$

Solución: La ecuación a resolver es de la forma (\ref{36}) con $m = 3$. La ecuación auxiliar en este caso es

$$k^{2} + 9 = 0$$

De donde $k_{1} = i3$ y $k_{2} = -i3$, es decir, $\alpha = 0, \beta = m = 3$. De acuerdo a la ecuación (\ref{37}), la solución general de la ecuación diferencial es

$$y(x) = c_{1} \cos (3x) + c_{2} \sin (3x)$$

$\square$

Para el caso de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -m^{2}y = 0 \label{38} \tag{38}$$

La ecuación auxiliar es

$$k^{2} -m^{2} = 0$$

cuyas raíces son

$$k_{1} = m \hspace{1cm} y \hspace{1cm} k_{2} = -m$$

En este caso las raíces son reales y distintas, entonces la ecuación pertenece al caso 1 y por tanto la solución general está dada por la ecuación (\ref{15}), esto es

$$y(x) = c_{1} e^{mx} + c_{2} e^{-mx} \label{39} \tag{39}$$

Lo interesante de la ecuación (\ref{38}) es que si en su solución (\ref{39}) se elige $c_{1} = c_{2} = \dfrac{1}{2}$, se tiene

$$y_{1}(x) = \dfrac{1}{2} \left( e^{mx} + e^{-mx} \right) = \cosh (mx) \label{40} \tag{40}$$

Y si se elige $c_{1} = \dfrac{1}{2}$ y $c_{2} = -\dfrac{1}{2}$, entonces

$$y_{2}(x) = \dfrac{1}{2} \left( e^{mx} -e^{-mx} \right) = \sinh (mx) \label{41} \tag{41}$$

Se puede comprobar que $W(y_{1}, y_{2}) \neq 0$, lo que prueba que ambas soluciones son linealmente independientes en algún intervalo $\delta$. Este análisis nos permite establecer una forma alterna de la solución de la ecuación (\ref{38}), dada por

$$y(x) = c_{1} \cosh (mx) + c_{2} \sinh (mx) \label{42} \tag{42}$$

Ejemplo: Resolver el problema con valores iniciales

$$\dfrac{d^{2}y}{dx^{2}} -3y = 0; \hspace{1cm} y(0) = 1, \hspace{0.5cm} y^{\prime}(0) = 5$$

Usando primero la forma de la solución dada en (\ref{39}) y posteriormente resolverlo de nuevo usando la forma de la solución dada en (\ref{42}).

Solución: La ecuación a resolver es de la forma (\ref{38}) con $m = \sqrt{3}$. Considerando la solución $y = e^{kx}$, obtenemos que la ecuación auxiliar es

$$k^{2} -3 = 0$$

De donde $k_{1} = m = \sqrt{3}$ y $k_{2} = -m = -\sqrt{3}$. Usando la ecuación (\ref{39}) concluimos que la solución de la ecuación diferencial es

$$y(x) = c_{1} e^{\sqrt{3} x} + c_{2} e^{-\sqrt{3} x}$$

La derivada de la solución es

$$\dfrac{dy}{dx} = \sqrt{3} c_{1} e^{\sqrt{3} x} -\sqrt{3} c_{2} e^{-\sqrt{3} x}$$

Apliquemos las condiciones iniciales, por un lado

$$y(0) = c_{1} + c_{2} = 1 \hspace{1cm} \Rightarrow \hspace{1cm} c_{2} = 1 -c_{1}$$

por otro lado,

$$y^{\prime}(0) = \sqrt{3} c_{1} -\sqrt{3} c_{2} = 5$$

Si sustituimos el valor de $c_{2}$, tenemos

\begin{align*}
\sqrt{3} c_{1} -\sqrt{3} (1 -c_{1}) &= 5 \\
{\sqrt{3}}(c_{1} -1 +c_{1}) &= 5 \\
2 c_{1} -1 &= \dfrac{5}{\sqrt{3}} \\
2c_{1} &= \dfrac{5}{\sqrt{3}} +1 \\
c_{1} &= \dfrac{5}{2\sqrt{3}} + \dfrac{1}{2}
\end{align*}

Sustituyendo en $c_{2}$, se tiene

$$c_{2} = 1 -\left( \dfrac{5}{2\sqrt{3}} -\dfrac{1}{2} \right) = \dfrac{1}{2} -\dfrac{5}{2\sqrt{3}}$$

Por lo tanto, la solución particular del PVI es

$$y(x) = \dfrac{1}{2} \left( 1 + \dfrac{5}{\sqrt{3}} \right) e^{\sqrt{3} x} + \dfrac{1}{2} \left(1 -\dfrac{5}{\sqrt{3}} \right) e^{-\sqrt{3} x}$$

Si por otro lado consideramos la forma de la solución (\ref{42}), obtenemos que

$$y(x) = c_{1} \cosh(\sqrt{3} x) + c_{2} \sinh(\sqrt{3} x)$$

y su derivada

$$\dfrac{dy}{dx} = \sqrt{3} c_{1} \sinh(\sqrt{3} x) + \sqrt{3} c_{2} \cosh(\sqrt{3} x)$$

Aplicando las condiciones iniciales, se tiene

$$y(0) = c_{1} = 1 \hspace{1cm} y \hspace{1cm} y^{\prime}(0) = {\sqrt{3}c_{2}} = 5$$

De donde $c_{1} = 1$ y $c_{2} = \dfrac{5}{\sqrt{3}}$. Por lo tanto, la solución alterna del PVI es

$$y(x) = \cosh (\sqrt{3} x) + \dfrac{5}{\sqrt{3}} \sinh(\sqrt{3} x)$$

¿Qué relación hay entre las constantes $c_{1}$ y $c_{2}$ obtenidas en cada caso?.

$\square$

Para concluir la entrada revisemos brevemente estos mismos resultados para el caso de las ecuaciones de orden superior a dos.

Ecuaciones de orden superior

Es posible aplicar éste método de resolución para el caso de las ecuaciones diferenciales lineales homogéneas de orden superior a dos con coeficientes constantes, sin embargo desarrollar esta teoría desde cero puede ser muy complejo. Ahora que hemos sido muy detallados en el desarrollo de este método para el caso de las ecuaciones de segundo orden, vamos sólo a enunciar los posibles resultados para las ecuaciones de orden superior.

Es importante recordar que estamos estudiando las ecuaciones homogéneas y lineales con coeficientes constantes por lo que una ecuación de orden $n > 2$ con estas características tiene la siguiente forma.

$$a_{n} \dfrac{d^{n}y}{dx^{n}} + a_{n -1} \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{2} \dfrac{d^{2}y}{dx^{2}} + a_{1} \dfrac{dy}{dx} + a_{0}y = 0 \label{43} \tag{43}$$

Donde $a_{i}, i = 0, 1, \cdots, n$ son constantes.

Igual que antes, se considera la solución $y(x) = e^{kx}$. Al sustituir esta función y las correspondientes derivadas en la ecuación (\ref{43}) obtendremos la siguiente ecuación auxiliar.

$$a_{n} k^{n} + a_{n -1} k^{n -1} + \cdots + a_{2} k^{2} + a_{1} k + a_{0} =0 \label{44} \tag{44}$$

Esta ecuación tendrá $n$ raíces, estas raíces, como sabemos, pueden ser reales o complejas, iguales o distintas. La solución general para caso está dada de la siguiente manera.

  • Si las raíces son reales y distintas, la solución estará dada por

$$y(x) = c_{1} e^{k_{1} x} + c_{2} e^{k_{2} x} + \cdots + c_{n} e^{k_{n}x} \label{45} \tag{45}$$

  • Si las raíces son reales e iguales, la solución estará dada por

$$y(x) = e^{kx}(c_{1} + c_{2}x + c_{3}x^{2} + \cdots + c_{n}x^{n -1}) \label{46} \tag{46}$$

En el caso de orden superior es posible tener raíces reales y de ellas que unas sean iguales y otras diferentes, en este caso se usan los dos puntos anteriores respectivamente.

Por ejemplo, supongamos que de una ecuación de sexto orden se obtienen seis raíces, tales que

$$k_{1} \neq k_{2} = k_{3} \neq k_{4} \hspace{1cm} y \hspace{1cm} k_{1} \neq k_{4} = k_{5} = k_{6}$$

Entonces la solución estaría dada por

$$y(x) = c_{1} e^{k_{1} x} + c_{2} e^{k_{2} x} + c_{3}x e^{k_{3} x} + c_{4} e^{k_{4} x} + c_{5}x e^{k_{5} x} + c_{6}x^{2} e^{k_{6} x}$$

Ya que, el par de raíces $k_{1} \neq k_{2}$ al ser diferentes genera la solución $c_{1} e^{k_{1} x} + c_{2} e^{k_{2} x}$, el par de raíces $k_{2} = k_{3}$ al ser iguales genera la solución $c_{2} e^{k_{2} x} + c_{3}x e^{k_{3} x}$, el par de raíces $k_{1} \neq k_{4}$ genera la solución $c_{1} e^{k_{1} x} + c_{4} e^{k_{4} x}$ y finalmente las raíces $k_{4} = k_{5} = k_{6}$ genera la solución $c_{4} e^{k_{4} x} + c_{5}x e^{k_{5} x} + c_{6}x^{2} e^{k_{6} x}$, esto de acuerdo a los dos puntos anteriores (\ref{45}) y (\ref{46}).

Finalmente,

  • Si las raíces son complejas, para cada par conjugado la solución es: $$y(x) = e^{\alpha x}(C_{1} \cos (\beta x) + C_{2} \sin (\beta x))$$ Si hay otro par igual, la función $$y(x) = e^{\alpha x}x (C_{1} \cos (\beta x) + C_{2} \sin (\beta x))$$ será solución y si hay otro par igual, la función $$y(x) = e^{\alpha x}x^{2} (C_{1} \cos (\beta x) + C_{2} \sin (\beta x))$$ será solución y así sucesivamente.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\dfrac{d^{3}y}{dx^{3}} -7 \dfrac{d^{2}y}{dx^{2}} + 4\dfrac{dy}{dx} + 12y = 0$$

Con $y(0) = 1$, $y^{\prime}(0) = 0$ y $y^{\prime \prime}(0) = 36$.

Solución: Proponiendo la solución $y = e^{kx}$ la ecuación auxiliar que se obtiene es

$$k^{3} -7k^{2} +4k +12 = 0$$

Factorizando esta ecuación, se obtiene

$$(k + 1)(k -2)(k -6) = 0$$

De donde $k_{1} = -1$, $k_{2} = 2$ y $k_{3} = 6$. Como las raíces son reales y diferentes, entonces la solución de la ecuación diferencial es de la forma (\ref{45}).

$$y(x) = c_{1} e^{-x} + c_{2} e^{2x} + c_{3} e^{6x}$$

Para aplicar las condiciones iniciales calculemos la primera y segunda derivada de la solución.

$$\dfrac{dy}{dx} = -c_{1} e^{-x} + 2c_{2} e^{2x} + 6c_{3} e^{6x} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = c_{1} e^{-x} + 4c_{2} e^{2x} + 36c_{3} e^{6x}$$

Apliquemos las condiciones iniciales.

$$y(0) = c_{1} e^{0} + c_{2} e^{0} + c_{3} e^{0} = c_{1} + c_{2} + c_{3} = 1$$

$$y^{\prime}(0) = -c_{1} e^{0} + 2c_{2} e^{0} + 6c_{3} e^{0} = -c_{1} + 2c_{2} + 6c_{3} = 0$$

$$y^{\prime \prime}(0) = c_{1} e^{0} + 4c_{2} e^{0} + 36c_{3} e^{0} = c_{1} + 4c_{2} + 36c_{3} = 36$$

El sistema que se obtiene es

\begin{align*}
c_{1} + c_{2} + c_{3} &= 1 \\
-c_{1} + 2c_{2} + 6c_{3} &= 0 \\
c_{1} + 4c_{2} + 36c_{3} &= 36 \\
\end{align*}

Resolviendo el sistema obtendremos que

$$c_{1} = \dfrac{16}{7}, \hspace{1cm} c_{2} = -\dfrac{5}{2} \hspace{1cm} y \hspace{1cm} c_{3} = \dfrac{17}{14}$$

Por lo tanto, la solución particular de la ecuación diferencial de orden 3 es

$$y(x) = \dfrac{16}{7} e^{-x} -\dfrac{5}{2} e^{2x} + \dfrac{17}{14} e^{6x}$$

$\square$

La dificultad de resolver ecuaciones de orden mayor a 2 realmente radica en que se vuelve más complicado encontrar las raíces de la ecuación auxiliar y resolver el sistema de ecuaciones que se genere en problemas con valores iniciales o con valores en la frontera. Un método para factorizar la ecuación auxiliar y obtener las raíces puede ser la división sintética, así como el método de Gauss – Jordan para obtener las soluciones de un sistema de ecuaciones lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de las siguientes ecuaciones diferenciales con coeficientes constantes.
  • $4 \dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} = 0$
  • $3 \dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 13y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -2 \sqrt{3} \dfrac{dy}{dx} + 3y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} + 4 \dfrac{dy}{dx} -y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 5y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 13y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -\dfrac{4}{3} \dfrac{dy}{dx} + \dfrac{4}{9} y = 0$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\dfrac{d^{2}y}{dx^{2}} + y = 0; \hspace{1cm} y \left( \dfrac{\pi}{3} \right) = 0, \hspace{0.5cm} y^{\prime} \left( \dfrac{\pi}{3} \right) = 2$
  • $\dfrac{d^{3}y}{dx^{3}} + 2 \dfrac{d^{2}y}{dx^{2}} -5 \dfrac{dy}{dx} -6y = 0; \hspace{1cm} y(0) = y^{\prime}(0) = 0, \hspace{0.5cm} y^{\prime \prime} (0) = 1$
  1. Resolver los siguientes problemas con valores en la frontera.
  • $\dfrac{d^{2}y}{dx^{2}} + 4y = 0; \hspace{1cm} y(0) = 0, \hspace{0.5cm} y(\pi) = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = 0; \hspace{1cm} y(0) = 1, \hspace{0.5cm} y(\pi) = 1$
  1. Resolver el siguiente problema con valores iniciales usando primero la forma de la solución dada en (\ref{39}) y posteriormente resolverlo de nuevo usando la forma de la solución dada en (\ref{42}).
  • $\dfrac{d^{2}y}{dx^{2}} -y = 0; \hspace{1cm} y(0) = 1, \hspace{0.5cm} y^{\prime}(1) = 0$

Más adelante…

Ahora sabemos resolver ecuaciones diferenciales lineales y homogéneas de orden superior con coeficientes constantes, en la siguiente entrada estudiaremos este mismo tipo de ecuaciones, pero en el caso no homogéneo.

Para resolver ecuaciones no homogéneas existen dos métodos, el primero de ellos se denomina coeficientes indeterminados, este método suele no ser tan complicado, sin embargo esta limitado a ciertas funciones $g(x)$. Un segundo método se conoce como variación de parámetros siendo una extensión del método visto en la unidad anterior y que sirve para cualquier función $g(x)$, es decir, es un método general. En la siguiente entrada comenzaremos presentando el primer método.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Ecuaciones diferenciales de orden superior

Por Omar González Franco

Las matemáticas expresan valores que reflejan el cosmos, incluyendo
el orden, equilibrio, armonía, lógica y belleza abstracta.
– Deepak Chopra

Introducción

¡Bienvenidos a la segunda unidad del curso de Ecuaciones Diferenciales I!.

En la primera unidad estudiamos las ecuaciones diferenciales lineales y no lineales de primer orden, en esta unidad estudiaremos las ecuaciones diferenciales de orden superior a uno, en particular las ecuaciones lineales de segundo orden.

Anteriormente vimos que las ecuaciones diferenciales se pueden clasificar por orden, el cual corresponde al orden de la derivada más alta presente en la ecuación diferencial. A las ecuaciones diferenciales de orden mayor a uno se le conocen como ecuaciones diferenciales de orden superior. Nuestro enfoque en esta unidad serán las ecuaciones diferenciales lineales de segundo orden, pero antes de desarrollar los distintos métodos de resolución es necesario establecer una serie de conceptos y teoremas que sustentarán a dichos métodos.

Si bien, la segunda unidad tratará sobre las ecuaciones diferenciales lineales de segundo orden, gran parte de esta teoría preliminar la desarrollaremos para el caso general en el que el orden de la ecuación es $n$, con $n$ un número entero mayor a uno, así sólo será suficiente fijar $n = 2$ para referirnos a las ecuaciones de segundo orden.

Ecuaciones Diferenciales lineales de orden superior

Recordemos que una ecuación diferencial de $n$-ésimo orden en su forma general es

$$F(x, y, y^{\prime}, \cdots, y^{(n)}) = 0 \label{1} \tag{1}$$

Donde $F$ es una función con valores reales de $n + 2$ variables. La ecuación (\ref{1}) se puede escribir en su forma normal como

$$\dfrac{d^{n}y}{dx^{n}} = f(x, y, y^{\prime}, \cdots, y^{(n -1)}) \label{2} \tag{2}$$

Con $f$ una función continua con valores reales. Para el caso en el que la ecuación es lineal, una ecuación diferencial de $n$-ésimo orden se puede escribir como

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{3} \tag{3}$$

Satisfaciendo las propiedades que ya conocemos. La ecuación (\ref{3}) es una ecuación no homogénea, en el caso en el que $g(x) = 0$, decimos que la ecuación es homogénea.

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{4} \tag{4}$$

Las ecuaciones (\ref{3}) y (\ref{4}) serán, entonces, el tipo de ecuaciones sobre la cual desarrollaremos esta teoría preliminar.

Para comenzar estudiemos los problemas con valores iniciales y problemas con valores en la frontera en el caso de las ecuaciones diferenciales lineales de orden superior.

Problema con valores iniciales para ecuaciones lineales

En la unidad anterior definimos lo que es un problema con valores iniciales, esta definición fue general, definamos ahora lo que es un problema con valores iniciales para el caso en el que la ecuación es lineal.

Para el caso de segundo orden ya hemos mencionado que geométricamente un PVI involucra obtener una curva solución que pase por el punto $(x_{0}, y_{0})$ y la pendiente en dicho punto sea $m = y_{1}$.

Enunciaremos, sin demostrar, el teorema de existencia y unicidad que contiene las condiciones suficientes para la existencia y unicidad de una solución de un PVI de $n$-ésimo orden para el caso de las ecuaciones lineales.

Podemos enunciar el teorema de existencia y unicidad para el caso de las ecuaciones diferenciales lineales de segundo orden ($n = 2$) de la siguiente manera.

No demostraremos este teorema, pero es importante notar que dentro del enunciado hemos escrito la definición de PVI para el caso $n = 2$ (segundo orden). Veamos un ejemplo en donde apliquemos este último teorema.

Ejemplo: Probar que la función

$$y(x) = 3 e^{2x} + e^{-2x} -3x$$

es solución al PVI

$$\dfrac{d^{2}y}{dx^{2}} -4y = 12x; \hspace{1cm} y(0) = 4, \hspace{0.5cm} y^{\prime}(0) = 1$$

y además es única.

Solución: Primero probemos que es solución al PVI, para ello veamos que satisface la ecuación diferencial y además cumple con las condiciones iniciales.

La función dada es

$$y(x) = 3 e^{2x} + e^{-2x} -3x$$

La primera y segunda derivada de esta función son, respectivamente

$$\dfrac{dy}{dx} = y^{\prime}(x) = 6 e^{2x} -2 e^{-2x} -3 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = y^{\prime \prime}(x) = 12 e^{2x} + 4e^{-2x}$$

Notemos que

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} -4y &= (12 e^{2x} + 4e^{-2x}) -4(3 e^{2x} + e^{-2x} -3x) \\
&= 12 e^{2x} + 4e^{-2x} -12 e^{2x} -4e^{-2x} + 12x \\
&= 12x
\end{align*}

Esto es,

$$\dfrac{d^{2}y}{dx^{2}} -4y = 12x$$

La función satisface la ecuación diferencial. Verifiquemos que satisface las condiciones iniciales.

En la solución evaluemos $x = 0$.

$$y(0) = 3 e^{0} + e^{0} -0 = 3 + 1 = 4 \hspace{1cm} \Rightarrow \hspace{1cm} y(0) = 4$$

Se cumple la primera condición inicial. Ahora, en la derivada de la función evaluemos en $x = 0$.

$$y^{\prime}(0) = 6 e^{0} -2 e^{0} -3 = 6 -2 -3 = 1 \hspace{1cm} \Rightarrow \hspace{1cm} y^{\prime}(0) = 1$$

Se cumple la segunda condición inicial. Por lo tanto, la función dada es solución al PVI.

Es claro que el intervalo de solución es $\delta = (-\infty, \infty)$ y que $x_{0} = 0 \in \delta.$ Como $a_{2}(x) = 1 \neq 0, a_{0}(x) = -4$ y $g(x) = 12x$ son funciones continuas en $\delta$, por el teorema de existencia y unicidad para ecuaciones diferenciales lineales de segundo orden concluimos que la función $y(x) = 3 e^{2x} + e^{-2x} -3x$ es una solución única.

$\square$

Al haber aumentado el orden de las ecuaciones diferenciales aparece un nuevo problema que estudiaremos a continuación.

Problema con valores en la frontera

En el estudio de las ecuaciones diferenciales de orden superior existe otro problema similar al PVI conocido como problema con valores en la frontera (PVF) en el que se busca resolver una ecuación diferencial de orden dos o mayor, tal que la variable dependiente y/o sus derivadas se especifican en distintos puntos.

Para que quede claro este concepto definiremos un problema con valores en la frontera para el caso de una ecuación diferencial lineal de segundo orden y siguiendo esta misma idea es que se puede definir para una ecuación de orden superior a dos.

Así, resolver un PVF es hallar una función $y(x)$ que satisfaga la ecuación diferencial en algún intervalo $\delta$ que contiene a $a$ y $b$ y que cuya curva solución pase por los puntos $(a, y_{0})$ y $(b, y_{1})$.

La razón por la que definimos un PVF para el caso de una ecuación diferencial de segundo orden es porque es posible hacer notar que otros pares de condiciones en la frontera pueden ser

$$y^{\prime}(a) = y_{0} \hspace{1cm} y \hspace{1cm} y(b) = y_{1}$$

$$y(a) = y_{0} \hspace{1cm} y \hspace{1cm} y^{\prime}(b) = y_{1}$$

$$y^{\prime}(a) = y_{0} \hspace{1cm} y \hspace{1cm} y^{\prime}(b) = y_{1}$$

Sin embargo, las condiciones en la frontera presentadas son sólo casos particulares de las condiciones en la frontera generales

\begin{align*}
\alpha_{1} y(a) + \beta_{1} y^{\prime}(a) &= \gamma_{1} \\
\alpha_{2} y(b) + \beta_{2} y^{\prime}(b) &= \gamma_{2}
\end{align*}

Es así que aumentando el orden de la ecuación, las combinaciones de pares de condiciones en la frontera aumentan.

A diferencia de un PVI en el que si existe una solución, entonces ésta es única, en un PVF pueden existir varias soluciones distintas que satisfacen las mismas condiciones en la frontera, o bien, puede sólo existir una solución única o no tener ninguna solución. Veamos un ejemplo que muestre este hecho.

Ejemplo: Probar que la función general

$$y(x) = c_{1}x^{2} + c_{2}x^{4} + 3$$

es solución de la ecuación diferencial

$$x^{2} \dfrac{d^{2}y}{dx^{2}} -5x \dfrac{dy}{dx} + 8y = 24$$

y además, de acuerdo a las condiciones en la frontera dadas a continuación, se cumplen las siguientes propiedades:

  • $y(-1) = 0, \hspace{0.5cm} y(1) = 4 \hspace{0.5cm} \Rightarrow \hspace{0.5cm}$ No existe una solución.
  • $y(0) = 3, \hspace{0.8cm} y(1) = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm}$ Existen infinitas soluciones.
  • $y(1) = 3, \hspace{0.8cm} y(2) = 15 \hspace{0.3cm} \Rightarrow \hspace{0.5cm}$ Existe una única solución.

Solución: De tarea moral verifica que la función dada es solución de la ecuación diferencial. Más adelante estudiaremos los métodos de resolución de este tipo de ecuaciones diferenciales, de manera que seremos capaces de obtener esta función y probar, de hecho, que es la solución general. Por ahora sólo verifica que es solución.

Una vez comprobado que $y(x)$ es solución apliquemos las condiciones de frontera de cada caso y veamos que ocurre con la solución.

  • Caso 1: $\hspace{0.5cm} y(-1) = 0, \hspace{0.5cm} y(1) = 4$

$$y(-1) = c_{1}(-1)^{2} + c_{2}(-1)^{4} + 3 = c_{1} + c_{2} + 3 = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = -3$$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 4 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = 1$$

De ambas condiciones de la frontera obtenemos que $c_{1} + c_{2} = -3$ y a la vez $c_{1} + c_{2} = 1$ lo cual es imposible, por lo tanto en este caso NO existe una solución al PVF.

  • Caso 2: $\hspace{0.5cm} y(0) = 3, \hspace{0.5cm} y(1) = 0$

$$y(0) = c_{1}(0)^{2} + c_{2}(0)^{4} + 3 = 3 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} y(0) = 3$$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = -3$$

Vemos que la primer condición de frontera se cumple y aplicando la segunda obtenemos que $c_{1} + c_{2} = -3$ de donde $c_{2} = -(c_{1} +3)$, sustituyendo en la solución $y(x)$ obtenemos la función

$$y(x) = c_{1}x^{2} -(c_{1} +3) x^{4} + 3$$

Donde $c_{1}$ es un parámetro libre, lo que indica que en este caso existen infinitas soluciones, una por cada posible valor de $c_{1}$.

  • Caso 3: $\hspace{0.5cm} y(1) = 3, \hspace{0.5cm} y(2) = 15$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 3 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = 0$$

$$y(2) = c_{1}(2)^{2} + c_{2}(2)^{4} + 3 = 4c_{1} + 16c_{2} + 3 = 15 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + 4c_{2} = 3$$

De ambas condiciones de frontera obtenemos el sistema de ecuaciones

\begin{align*}
c_{1} + c_{2} &= 0 \\
c_{1} + 4c_{2} &= 3
\end{align*}

De la primer ecuación obtenemos que $c_{1} = -c_{2}$, sustituyendo en la segunda ecuación obtenemos

$$-c_{2} + 4c_{2} = 3c_{2} = 3$$

de donde $c_{2} = 1$ y por tanto $c_{1} = -1$. Sustituyendo en la solución $y(x)$ obtenemos la función

$$y(x) = -x^{2} + x^{4} + 3$$

Por lo tanto, al ser una función sin parámetros, la solución es única.

$\square$

A continuación estudiaremos algunos operadores importantes que nos ayudarán en las posteriores demostraciones de algunos teoremas importantes, además de que nos serán de utilidad en cuestiones de notación.

Operadores Diferenciales

Comencemos por definir el operador de derivada.

Con ayuda del operador diferencial podemos escribir la derivada de una función $y(x)$ como

$$Dy = \dfrac{dy}{dx} = y^{\prime}(x) \label{7} \tag{7}$$

En el entendido que $D$ opera sobre la variable independiente de $y$, en este caso de $x$.

Por ejemplo, ahora podemos escribir

$$D \{ 2x \sin(x) \} = 2 \sin(x) + 2x \cos(x)$$

Usando el operador diferencial, las expresiones de las derivadas de orden superior se pueden escribir como

$$\dfrac{d}{dx} \left( \dfrac{dy}{dx} \right) = \dfrac{d^{2}y}{dx^{2}} = D(Dy) = D^{2}y \label{8} \tag{8}$$

Y de manera general

$$\dfrac{d^{n}y}{dx^{n}} = D^{n}y \label{9} \tag{9}$$

Sabemos que la derivada es lineal (en el contexto del álgebra lineal), por tanto el operador diferencial también satisface las propiedades de linealidad:

  • $D \{ f(x) + g(x) \} = D \{f(x) \} + D \{g(x) \}$
  • $D \{cf(x) \} = cD \{f(x) \}$

Por otro lado, una ecuación diferencial como

$$\dfrac{d^{2}y}{dx^{2}} -2\dfrac{dy}{dx} + 5y = 0$$

se puede escribir en términos del operador diferencial como

$$D^{2}y -2Dy +5y = (D^{2} -2D +5)y = 0$$

Observamos que el lado izquierdo de ésta última expresión corresponde a una expresión polinomial en la que interviene el operador $D$, estas expresiones polinomiales son también un operador diferencial y tiene un nombre particular.

Debido a que el operador polinomial esta definido con operadores diferenciales $D$, las propiedades de linealidad de $D$ le atribuyen a $\mathcal{L}$ linealidad. Más general, $\mathcal{L}$ operando sobre una combinación lineal de dos funciones derivables es lo mismo que la combinación lineal de $\mathcal{L}$ operando en cada una de las funciones, esto es

$$\mathcal{L} \{ \alpha f(x) + \beta g(x) \} = \alpha \mathcal{L} \{f(x) \} + \beta \mathcal{L} \{g(x) \} \label{11} \tag{11}$$

Una primera ventaja de usar el operador polinomial es que las ecuaciones (\ref{3}) y (\ref{4}) se pueden escribir como

$$\mathcal{L}(y) = g(x) \hspace{1cm} y \hspace{1cm} \mathcal{L}(y) = 0$$

respectivamente.

A continuación el operador polinomial nos será de mucha utilidad.

Principio de superposición

Es posible obtener varias soluciones de una ecuación diferencial lineal homogénea (\ref{4}) y si sumamos o superponemos todas estas soluciones veremos que dicha función es también solución de la ecuación diferencial. Este hecho se muestra en el siguiente resultado conocido como principio de superposición para ecuaciones homogéneas.

Demostración: Sea $\mathcal{L}$ el operador polinomial (\ref{10}) de $n$-ésimo orden y sean $y_{1}, y_{2}, \cdots, y_{k}$ soluciones de la ecuación homogénea (\ref{4}) en el intervalo $\delta$. Definamos la combinación lineal

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$$

con $c_{i}$, $i = 1,2, \cdots, k$ constantes arbitrarias. Notemos que

$$\mathcal{L}(y) = \mathcal{L} \{ c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x) \}$$

Por la linealidad de $\mathcal{L}(y)$ (\ref{11}), se tiene

$$\mathcal{L}(y) = c_{1} \mathcal{L} \{ y_{1}(x) \} + c_{2} \mathcal{L} \{ y_{2}(x) \} + \cdots + c_{k} \mathcal{L} \{ y_{k}(x) \}$$

Pero cada $y_{i}$, $i = 1, 2, \cdots, k$ es solución de (\ref{4}), entonces

$$\mathcal{L}(y_{i}) = 0$$

para todo $i = 1, 2, \cdots, k$, así la expresión anterior se reduce a lo siguiente.

$$\mathcal{L}(y) = c_{1} 0 + c_{2} 0 + \cdots + c_{k} 0 = 0$$

Por lo tanto

$$\mathcal{L}(y) = 0$$

es decir, la combinación lineal

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$$

es también solución de la ecuación diferencial homogénea (\ref{4}).

$\square$

Dos corolarios importantes del teorema anterior son los siguientes.

Demostración: Consideremos la función $y = c_{1}y_{1}(x)$, aplicando el operador polinomial $\mathcal{L}$, tenemos

$$\mathcal{L}(y) = \mathcal{L} \{ c_{1}y_{1}(x) \} = c_{1} \mathcal{L} \{ y_{1}(x) \} = 0$$

Ya que $y_{1}(x)$ es solución de la ecuación homogénea, es decir, $\mathcal{L} \{y_{1} \} = 0 $. Por lo tanto la función $y(x) =c_{1}y_{1}(x)$ es también solución de la ecuación diferencial homogénea.

$\square$

Usando el teorema anterior y la definición de $\mathcal{L}$ es clara la demostración, inténtalo.

Realicemos un ejemplo sobre el principio de superposición.

Ejemplo: Mostrar que las funciones

$$y_{1}(x) = x^{2} \hspace{1cm} y \hspace{1cm} y_{2}(x) = x^{2} \ln(x)$$

son soluciones de la ecuación diferencial lineal homogénea

$$x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y = 0$$

en el intervalo $\delta = (0, \infty)$. Y mostrar que la combinación lineal

$$y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$$

es también solución de la ecuación diferencial en el mismo intervalo.

Solución: De tarea moral verifica que las funciones por separado

$$y_{1}(x) = x^{2} \hspace{1cm} y \hspace{1cm} y_{2}(x) = x^{2} \ln(x)$$

son soluciones de la ecuación diferencial en el intervalo $\delta = (0, \infty)$.

Una vez asegurado que ambas funciones son solución, de acuerdo al principio de superposición, la combinación lineal de ambas funciones

$$y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$$

debe ser también solución de la ecuación diferencial, veamos que es así. Para ello calculemos la primera, segunda y tercera derivada. Para la primer derivada tenemos

$$\dfrac{dy}{dx} = 2c_{1}x + 2c_{2}x \ln(x) + c_{2} x$$

La segunda derivada es

$$\dfrac{d^{2}y}{dx^{2}} = 2c_{1} + 2c_{2} \ln(x) + 3c_{2}$$

Finalmente, la tercer derivada es

$$\dfrac{d^{3}y}{dx^{3}} = \dfrac{2c_{2}}{x}$$

Sustituyendo los valores correspondientes en la ecuación diferencial, tenemos

\begin{align*}
x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y &= x^{3} \left( \dfrac{2c_{2}}{x} \right) -2x \left( 2c_{1}x + 2c_{2}x \ln(x) + c_{2} x \right) + 4 \left( c_{1} x^{2} + c_{2} x^{2} \ln(x) \right) \\
&= 2c_{2}x^{2} -4c_{1}x^{2} -4c_{2}x^{2} \ln(x) -2c_{2} x^{2} + 4c_{1} x^{2} + 4c_{2} x^{2} \ln(x) \\
&= c_{1}(4x^{2} -4x^{2}) + c_{2} \left( 2x^{2} -2x^{2} + 4x^{2}\ln(x) -4x^{2}\ln(x) \right) \\
&= c_{1}(0) + c_{2}(0) \\
&= 0
\end{align*}

Hemos recuperado la ecuación diferencial

$$x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y = 0$$

por lo tanto, la combinación lineal

$$y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$$

es también solución de la ecuación diferencial verificando así el principio de superposición.

Es claro que la función $\ln(x)$ restringe los valores de $x$, de manera que el intervalo $\delta = (0, \infty)$ es el intervalo en el que la función $y(x)$ es continua.

$\square$

Dependencia e independencia lineal

El principio de superposición trae consigo el concepto de combinación lineal y, de álgebra lineal, sabemos que si un elemento de un espacio vectorial se puede escribir como combinación lineal de otros elementos del mismo espacio vectorial, decimos que dicho elemento es linealmente dependiente y si no es dependiente, entonces decimos que es linealmente independiente. Ahora es necesario definir estos conceptos en el contexto de las ecuaciones diferenciales lineales.

Podemos decir que un conjunto de funciones es linealmente independiente en un intervalo $\delta$ si las únicas constantes para las que

$$c_{1}f_{1}(x) + c_{2}f_{2}(x) + \cdots +c_{n}f_{n}(x) = 0, \hspace{1cm} \forall x \in \delta$$

son $c_{1} = c_{2} = \cdots = c_{n} = 0$.

Realicemos algunas observaciones para el caso $n = 2$.

Dos funciones $f_{1}(x), f_{2}(x)$ son linealmente dependientes en el intervalo $\delta$, donde ambas están definidas, si en dicho intervalo son proporcionales, esto es, si

$$f_{1}(x) = c_{1}f_{2}(x) \hspace{1cm} o \hspace{1cm} f_{2}(x) = c_{2}f_{1}(x) \label{14} \tag{14}$$

donde $c_{1}$ y $c_{2}$ son constantes distintas de cero, de esta manera, si $f_{1}(x)$ y $f_{2}(x)$ no son proporcionales en el intervalo $\delta$, entonces ambas funciones son linealmente independientes en dicho intervalo.

De las relaciones de proporcionalidad (\ref{14}) notamos que

$$\dfrac{f_{1}(x)}{f_{2}(x)} = c_{1} \hspace{1cm} y \hspace{1cm} \dfrac{f_{2}(x)}{f_{1}(x)} = c_{2} \label{15} \tag{15}$$

Con estas relaciones podemos establecer que $f_{1}(x)$ y $f_{2}(x)$ son linealmente dependientes en el intervalo $\delta$ si cada cociente es una constante a lo largo de todo el intervalo $\delta$ y, por otro lado, si los cocientes dependen de $x$ en el intervalo $\delta$, entonces las funciones $f_{1}(x)$ y $f_{2}(x)$ son linealmente independientes.

En definitiva, las funciones $f_{1}(x), f_{2}(x), \cdots, f_{n}(x)$ son linealmente dependientes en el intervalo $\delta$ si al menos una de ellas puede expresarse como combinación lineal de las otras. En caso contrario, las funciones son linealmente independientes.

Por ejemplo, dado el conjunto de funciones

$$f_{1}(x) = 4x^{3}, \hspace{0.5cm} f_{2}(x) = 2x^{2}, \hspace{0.5cm} f_{3}(x) = 8x^{3} + 12x^{2}$$

es sencillo darse cuenta que

$$f_{3}(x) = 2f_{1}(x) + 6f_{2}(x)$$

Por lo tanto, el conjunto de funciones es linealmente dependiente.

Ejemplo: Determinar si las funciones

$$y_{1}(x) = c_{1} e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = c_{2}x e^{-x}$$

son linealmente dependientes o linealmente independientes. Probar además que dichas funciones por separado son solución de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

y verificar que la combinación lineal

$$y(x) = c_{1} e^{-x} + c_{2}x e^{-x}$$

es también solución de la ecuación diferencial.

Solución: Como vimos, hay distintas formas de verificar si las funciones son linealmente dependientes o linealmente independientes, quizá la forma más práctica es observar si el cociente $\dfrac{y_{1}}{y_{2}}$ o $\dfrac{y_{2}}{y_{1}}$ es constante o dependiente de $x$ en el intervalo $\delta$ en el que ambas están definidas.

Observamos primero que ambas funciones

$$y_{1}(x) = c_{1} e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = c_{2}x e^{-x}$$

están definidas en todo $\mathbb{R}$, por tanto

$$\delta = (-\infty, \infty)$$

Ahora bien, notamos que

$$\dfrac{y_{1}}{y_{2}} = \dfrac{c_{1}}{c_{2} x}$$

O bien,

$$\dfrac{y_{2}}{y_{1}} = \dfrac{c_{2} x}{c_{1}}$$

Como podemos ver, ambos cocientes son dependientes de la variable independiente $x$. Por lo tanto, las funciones son linealmente independientes.

Ahora verifiquemos que cada función $y_{1}(x)$ y $y_{2}(x)$ es solución de la ecuación diferencial dada.

Para la primer función tenemos

$$y_{1}(x) = c_{1} e^{-x} \hspace{0.8cm} \Rightarrow \hspace{0.8cm} \dfrac{dy_{1}}{dx} = -c_{1} e^{-x} \hspace{0.8cm} \Rightarrow \hspace{0.8cm} \dfrac{d^{2}y_{1}}{dx^{2}} = c_{1} e^{-x}$$

Sustituimos en la ecuación diferencial.

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y &= c_{1} e^{-x} + 2(-c_{1} e^{-x}) + c_{1} e^{-x} \\
&= 2c_{1} e^{-x} -2c_{1} e^{-x} \\
&= 0
\end{align*}

Esto es,

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

Por lo tanto, la función $y_{1}(x) = c_{1} e^{-x}$ satisface la ecuación diferencial.

Para la segunda función tenemos

$$y_{2}(x) = c_{2}x e^{-x} \hspace{0.5cm} \Rightarrow \hspace{0.5cm} \dfrac{dy_{2}}{dx} = c_{2} e^{-x} -c_{2}x e^{-x} \hspace{0.5cm} \Rightarrow \hspace{0.5cm} \dfrac{d^{2}y_{2}}{dx^{2}} = -2c_{2} e^{-x} + c_{2}x e^{-x}$$

Sustituimos en la ecuación diferencial.

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y &= (-2c_{2} e^{-x} + c_{2}x e^{-x}) + 2(c_{2} e^{-x} -c_{2}x e^{-x}) + c_{2}x e^{-x} \\
&= -2c_{2} e^{-x} + c_{2}x e^{-x} + 2c_{2} e^{-x} -2c_{2}x e^{-x} + c_{2}x e^{-x} \\
&= (2c_{2} e^{-x} -2c_{2} e^{-x}) + (2c_{2}x e^{-x} -2c_{2}x e^{-x}) \\
&= 0
\end{align*}

Nuevamente

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

Por lo tanto, la función $y_{2}(x) = c_{2}x e^{-x}$ es también solución de la ecuación diferencial.

Ahora que sabemos que ambas funciones son solución de la ecuación diferencial, podemos aplicar el principio de superposición y concluir que la combinación lineal

$$y(x) = c_{1} e^{-x} + c_{2}x e^{-x}$$

es también solución de la ecuación diferencial. De tarea moral verifica que en efecto es solución.

$\square$

Para finalizar esta entrada definiremos un concepto sumamente importante y el cual estudiaremos con mayor detalle en la siguiente entrada.

En el ejemplo anterior mostramos que las funciones

$$y_{1}(x) = c_{1} e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = c_{2}x e^{-x}$$

son linealmente independientes y ambas por separado son solución de la ecuación diferencial homogénea

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

En general, al conjunto de $n$ soluciones linealmente independientes de una ecuación diferencial lineal homogénea de $n$-ésimo orden se le da el nombre de conjunto fundamental de soluciones.

Así, el conjunto $\{ y_{1}(x) = c_{1} e^{-x}, y_{2}(x) = c_{2}x e^{-x} \}$ es un conjunto fundamental de soluciones de la ecuación diferencial homogénea

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

en el intervalo $\delta = (-\infty, \infty)$.

En la siguiente entrada retomaremos este concepto.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Problemas con valores iniciales.
  • La solución general de la ecuación diferencial $$\dfrac{d^{2}y}{dx^{2}} -y = 0$$ es $$y(x) = c_{1} e^{x} + c_{2} e^{-x}$$ definida en $\delta = (-\infty, \infty)$. Determinar la solución particular que es solución al PVI dadas las condiciones iniciales $$y(0) = 0, \hspace{1cm} y^{\prime}(0) = 1$$
  • Dado que $$x(t) = c_{1} \cos(\omega t) + c_{2} \sin(\omega t)$$ es la solución general de $$x^{\prime \prime} + \omega^{2} x = 0$$ en el intervalo $(-\infty, \infty)$, demostrar que la solución que satisface las condiciones iniciales $x(0) = x_{0}$ y $x^{\prime}(0) = x_{1}$ esta dada por $$x(t) = x_{0} \cos(\omega t) + \dfrac{x_{1}}{\omega} \sin(\omega t)$$
  1. Problema con condiciones en la frontera.
  • La función $$y(x) = c_{1} e^{x} \cos(x) + c_{2} e^{x} \sin(x)$$ es una solución de la ecuación diferencial $$\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = 0$$ en el intervalo $(-\infty, \infty)$. Determinar si se puede encontrar una solución que satisfaga las siguientes condiciones en la frontera.

$$a) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y^{\prime}(\pi) = 0; \hspace{1.5cm} b) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y(\pi) = -1$$

$$c) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y \left( \dfrac{\pi}{2} \right) = 1; \hspace{1.2cm} d) \hspace{0.1cm} y(0) = 0, \hspace{0.4cm} y(\pi) = 0$$

  1. Determinar si los siguientes conjuntos de funciones son linealmente independientes en el intervalo $(-\infty, \infty )$.
  • $f_{1}(x) = x, \hspace{0.5cm} f_{2}(x) = x^{2}, \hspace{0.5cm} f_{3}(x) = 4x -3x^{2}$
  • $f_{1}(x) = 1+ x, \hspace{0.5cm} f_{2}(x) = x, \hspace{0.5cm} f_{3}(x) = x^{2}$
  • $f_{1}(x) = e^{x}, \hspace{0.5cm} f_{2}(x) = e^{-x}, \hspace{0.5cm} f_{3}(x) = \sinh (x)$
  1. Comprobar que las funciones dadas forman un conjunto fundamental de soluciones de la ecuación diferencial en el intervalo que se indica y formar la solución general.
  • $\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -12y = 0; \hspace{1cm} y_{1} = e^{-3x}, \hspace{0.4cm} y_{2} = e^{4x}; \hspace{1cm} (-\infty, \infty)$
  • $4 \dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + y = 0; \hspace{1cm} y_{1} = e^{x/2}, \hspace{0.4cm} y_{2} = x e^{x/2}; \hspace{1cm} (-\infty, \infty)$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} -6x \dfrac{dy}{dx} + 12y = 0; \hspace{1cm} y_{1} = x^{3}, \hspace{0.4cm} y_{2} = x^{4}; \hspace{1cm} (0, \infty)$

Más adelante…

Hemos comenzado nuestro estudio sobre las ecuaciones diferenciales de orden superior, vimos que, además del problema con valores iniciales, ahora nos enfrentamos a un nuevo problema conocido como problema con valores en la frontera. Definimos algunos operadores de interés y demostramos el principio de superposición. Finalmente, vimos que si las soluciones son funciones linealmente independientes, entonces forman un conjunto fundamental de soluciones de la ecuación diferencial.

En la siguiente entrada estudiaremos algunas propiedades de las soluciones retomando el concepto de conjunto fundamental de soluciones. Veremos cuál es la forma de la solución general, la importancia de que las soluciones sean linealmente independientes y definiremos el concepto de Wronskiano, el cual será una herramienta muy importante para determinar la dependencia o independencia lineal de las soluciones.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»