Archivo de la etiqueta: solución particular

Ecuaciones Diferenciales I: Sistemas lineales no homogéneos – Método de variación de parámetros

Por Omar González Franco

Las ciencias matemáticas exhiben particularmente orden, simetría
y límites; y esas son las más grandes formas de belleza.
– Aristóteles

Introducción

Ya sabemos resolver sistemas lineales homogéneos con coeficientes constantes, en esta entrada estudiaremos el caso no homogéneo.

Como hemos visto en las dos unidades anteriores, el método de variación de parámetros ha sido fundamental para resolver ecuaciones diferenciales en el caso no homogéneo. Éste mismo método es el que desarrollaremos en esta entrada para resolver sistemas lineales no homogéneos con coeficientes constantes.

Cabe mencionar que en esta entrada utilizaremos bastante el concepto de exponencial de una matriz y el de matriz fundamental de soluciones.

Sistemas lineales homogéneos

El sistema lineal que hemos estudiado es

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} \label{1} \tag{1}$$

Donde $\mathbf{A}$ es una matriz con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Ahora sabemos que la solución general del sistema lineal homogéneo (\ref{1}) es de la forma

$$\mathbf{Y}_{c}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) \label{3} \tag{3}$$

En donde las funciones $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$ son soluciones linealmente independientes del mismo sistema. Usamos el subíndice $c$ debido a que, como antes, al resolver el caso no homogéneo será necesario resolver primero el sistema homogéneo asociado y la solución general de dicho sistema será la solución complementaria del sistema no homogéneo.

Recordemos que la matriz que tiene por columnas a las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ de (\ref{3}) corresponde a la matriz fundamental de soluciones.

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1}(t) & \mathbf{Y}_{2}(t) & \cdots & \mathbf{Y}_{n}(t) \end{pmatrix} = \begin{pmatrix} y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{4} \tag{4}$$

Si definimos el vector de constantes

$$\mathbf{C} = \begin{pmatrix}
c_{1} \\ c_{2} \\ \vdots \\ c_{n}
\end{pmatrix} \label{5} \tag{5}$$

podemos escribir la solución (\ref{3}) como

$$\mathbf{Y}_{c}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} \label{6} \tag{6}$$

Recordemos este resultado para más adelante.

Sistemas lineales no homogéneos

El sistema lineal no homogéneo que intentaremos resolver es de la forma

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G} \label{7} \tag{7}$$

Donde $\mathbf{G} = \mathbf{G}(t)$ es una matriz de $n \times 1$ con componentes dependientes de $t$.

$$\mathbf{G}(t) = \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{8} \tag{8}$$

Dada la forma de la solución general de un sistema lineal homogéneo (\ref{3}), parecería natural pensar que el sistema lineal no homogéneo tiene por solución una función de la forma

$$\mathbf{Y}_{p}(t) = u_{1}(t) \mathbf{Y}_{1}(t) + u_{2}(t) \mathbf{Y}_{2}(t) + \cdots + u_{n}(t) \mathbf{Y}_{n}(t) \label{9} \tag{9}$$

En donde $u_{i}(t)$, $i = 1, 2, \cdots, n$ son funciones escalares de $t$ derivables y las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ forman una matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$. Si definimos el vector

$$\mathbf{U}(t) = \begin{pmatrix}
u_{1}(t) \\ u_{2}(t) \\ \vdots \\ u_{n}(t)
\end{pmatrix} \label{10} \tag{10}$$

Entonces la solución propuesta (\ref{9}) adquiere la forma

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \mathbf{U}(t) \label{11} \tag{11}$$

El método de variación de parámetros nos permitirá obtener la forma del vector $\mathbf{U}(t)$, una vez obtenida podremos formar la solución general del sistema lineal no homogéneo (\ref{7}) que, como siempre, será la superposición de la solución complementaria del sistema lineal homogéneo asociado $\mathbf{Y}_{c}(t)$ más la solución particular del sistema lineal no homogéneo $\mathbf{Y}_{p}(t)$, esto es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t) \label{12} \tag{12}$$

Variación de parámetros

Comencemos a desarrollar el método de variación de parámetros, como mencionamos antes, el objetivo es encontrar la forma explícita del vector (\ref{10}) para formar la solución particular del sistema lineal no homogéneo.

Consideremos la función propuesta (\ref{11}) y derivémosla.

$$\mathbf{Y}_{p}^{\prime}(t) = \hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) \label{13} \tag{13}$$

Si sustituimos (\ref{11}) y (\ref{13}) en el sistema lineal no homogéneo (\ref{7}), se tiene

$$\hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} [\hat{\mathbf{Y}}(t) \mathbf{U}(t)] + \mathbf{G}(t) \label{14} \tag{14}$$

Como $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones sabemos que satisface el sistema homogéneo, es decir,

$$\hat{\mathbf{Y}}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \label{15} \tag{15}$$

Si sustituimos en (\ref{14}) la ecuación queda como

$$\mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \mathbf{G}(t)$$

O bien,

$$\hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{G}(t) \label{16} \tag{16}$$

La matriz fundamental es no singular, de manera que siempre existe su inversa, esto nos permite establecer que

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) \label{17} \tag{17}$$

Esta ecuación es matricial y sabemos que es posible integrar sobre matrices, así que integremos la ecuación anterior con el objetivo de hallar la forma de $\mathbf{U}$.

$$\mathbf{U}(t) = \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{18} \tag{18}$$

Ahora que conocemos la forma de $\mathbf{U}(t)$, sustituimos en la solución propuesta (\ref{11}), de forma que una solución particular del sistema lineal no homogéneo es

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{19} \tag{19}$$

Por lo tanto, de (\ref{6}) y el resultado (\ref{19}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{20} \tag{20}$$

Si $\hat{\mathbf{Y}}(t)$ es la matriz fundamental de soluciones $e^{\mathbf{A} t}$ y considerando que $\hat{\mathbf{Y}}^{-1}(t) = e^{-\mathbf{A} t}$, el resultado anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{C} + e^{\mathbf{A}t} \int e^{-\mathbf{A} t} \mathbf{G}(t) dt \label{21} \tag{21}$$

Problema con valores iniciales

Consideremos el problema con valores iniciales

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G}; \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{22} \tag{22}$$

De nuestro desarrollo anterior consideremos la relación (\ref{17}).

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t)$$

En esta ocasión integremos de $t_{0}$ a $t$ y usemos el teorema fundamental del cálculo.

$$\mathbf{U}(t) = \mathbf{U}(t_{0}) + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{23} \tag{23}$$

Notemos que si aplicamos la condición inicial $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$ sobre la función (\ref{11}), se obtiene

$$\mathbf{Y}_{p}(t_{0}) = \hat{\mathbf{Y}}(t_{0}) \mathbf{U}(t_{0}) = \mathbf{Y}_{0} \label{24} \tag{24}$$

De donde,

$$\mathbf{U}(t_{0}) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} \label{25} \tag{25}$$

Sustituimos este resultado en la ecuación (\ref{23}).

$$\mathbf{U}(t) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{26} \tag{26}$$

Aquí debemos tener cuidado, si sustituimos la función (\ref{26}) en (\ref{11}), se obtiene

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{27} \tag{27}$$

Pero $\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0}$ es una matriz de constantes, digamos

$$\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} = \mathbf{C}$$

Entonces el resultado (\ref{27}) queda como

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{28} \tag{28}$$

Este resultado se parece a la ecuación (\ref{20}), es decir, a pesar de que sustituimos (\ref{26}) en (\ref{11}) esperando obtener la solución particular $\mathbf{Y}_{p}(t)$, en realidad estamos obteniendo la solución general, la solución general del problema de valores iniciales.

Si consideramos nuevamente que $\hat{\mathbf{Y}}(t) = e^{\mathbf{A} t}$, el resultado (\ref{27}) se reduce significativamente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} e^{-\mathbf{A} t_{0}} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{t_{0}}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{29} \tag{29}$$

O bien,

$$\mathbf{Y}(t) = e^{\mathbf{A}(t -t_{0})} \mathbf{Y}_{0} + \int_{t_{0}}^{t}e^{\mathbf{A} (t -s)} \mathbf{G}(s) ds \label{30} \tag{30}$$

Por otro lado, si $t_{0} = 0$, de (\ref{27}) se obtiene que

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(0) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds$$

Pero recordemos que

$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0) \label{31} \tag{31}$$

Entonces la solución anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{32} \tag{32}$$

Si nuestro propósito es determinar la solución general de un sistema lineal no homogéneo (\ref{7}), primero resolvemos el sistema lineal homogéneo asociado para obtener la solución complementaria en la forma (\ref{3}). Con las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ obtenidas formamos una matriz fundamental $\hat{\mathbf{Y}}(t)$, se calcula su inversa y se sustituyen las matrices correspondientes en la solución particular (\ref{19}). Una vez obtenidas ambas soluciones, la solución general del sistema lineal no homogéneo será

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

Sin embargo, si lo que tenemos es un problema de valores iniciales, debemos nuevamente obtener la solución del sistema lineal homogéneo asociado ya que eso es lo que nos permite formar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$, una vez obtenida esta función calculamos su inversa y se sustituyen las matrices correspondientes en la ecuación (\ref{27}), esto nos dará la solución completa del problema de valores iniciales, es decir, no es necesario aplicar las condiciones iniciales en la solución complementaria para obtener los valores de las constantes $c_{1}, c_{2}, \cdots, c_{n}$.

Para concluir con esta entrada realicemos dos ejemplos, en el primero de ellos obtendremos la solución general de un sistema lineal no homogéneo y en el segundo ejemplo resolveremos un problema con valores iniciales. Con estos ejemplos se espera que el método quede claro.

Ejemplo: Obtener la solución general del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
1 \\ -1
\end{pmatrix} e^{t}$$

Solución: Resolvamos primero el sistema homogéneo asociado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y}$$

En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz.

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
-\lambda & 2 \\ -1 & 3 -\lambda
\end{vmatrix} = 0$$

La ecuación característica es

$$\lambda^{2} -3 \lambda + 2 = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios son

$$\lambda_{1} = 1\hspace{1cm} y \hspace{1cm} \lambda_{2} = 2$$

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \begin{pmatrix}
-1 & 2 \\ -1 & 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + 2 k_{2} = 0$$

Es decir, $2 k_{2} = k_{1}$. Elegimos $k_{2} = 1$, entonces $k_{1} = 2$. Por lo tanto el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 2$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
-2 & 2 \\ -1 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + k_{2} = 0$$

Es decir, $k_{1} = k_{2}$. Elegimos $k_{1} = k_{2} = 1$. Por lo tanto, el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Con estos resultados concluimos que la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Para determinar la solución particular $\mathbf{Y}_{p}(t)$, formemos, con el resultado anterior, la matriz fundamental de soluciones (\ref{4}).

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix}$$

Como también requerimos de la matriz inversa, verifica que

$$\hat{\mathbf{Y}}^{-1}(t) = \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix}$$

La matriz $\mathbf{G}$ en este caso es

$$ \mathbf{G}(t) = \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix}$$

Sustituyamos estas matrices en la solución particular (\ref{19}).

\begin{align*}
\mathbf{Y}_{p}(t) &= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix} \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix} dt \\
&= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt
\end{align*}

Resolviendo la integral (sin considerar constantes de integración), se obtiene

$$\int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt = \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix} = \begin{pmatrix}
4t e^{t} + 3e^{t} \\ 2te^{t} + 3e^{t}
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}_{p}(t) =\begin{pmatrix}
4 \\ 2
\end{pmatrix} te^{t} + \begin{pmatrix}
3 \\ 3
\end{pmatrix} e^{t}$$

Por lo tanto, la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix} + \begin{pmatrix}
3 \\ 3
\end{pmatrix}e^{t} + \begin{pmatrix}
4 \\ 2
\end{pmatrix} t e^{t}$$

$\square$

Realicemos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix}$$

Solución: Primero debemos obtener la solución del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y}$$

Ello nos permitirá obtener la matriz fundamental de soluciones. En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz. La ecuación característica se obtendrá de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
1-\lambda & 0 & 0 \\ 2 & 1 -\lambda & -2 \\ 3 & 2 & 1 -\lambda
\end{vmatrix} = 0$$

Desarrollando el determinante obtendremos que

$$(1 -\lambda )(\lambda ^{2} -2 \lambda + 5) = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios de $\mathbf{A}$ son

$$\lambda_{1} = 1 \hspace{1cm} y \hspace{1cm} \lambda_{2} = 1 + 2i, \hspace{1cm} \lambda_{3} = 1 -2i$$

De acuerdo a los valores propios obtenidos, la manera de resolver el sistema homogéneo será aplicando la teoría vista en la entrada sobre valores propios complejos.

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \left[ \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} -\begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \right] \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 2 & 0 & -2 \\ 3 & 2 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema que se obtiene es

\begin{align*}
2 k_{1} -2 k_{3} &= 0 \\
3 k_{1} + 2 k_{2} &= 0
\end{align*}

De este sistema se observa que

\begin{align*}
k_{1} &= k_{3} \\
k_{2} &= -\dfrac{3k_{1}}{2}
\end{align*}

Elegimos $k_{1} = 2 = k_{3}$, de tal manera que $k_{2} = -3$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + 2i$.

Buscamos un vector $\mathbf{K}$, diferente de cero, tal que

$$[\mathbf{A} -(1 + 2i) \mathbf{I}] \mathbf{K} = \begin{pmatrix}
-2i & 0 & 0 \\ 2 & -2i & -2 \\ 3 & 2 & -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-2i k_{1} &= 0 \\
2k_{1} -2i k_{2} -2k_{3} &= 0 \\
3k_{1} + 2k_{2} -2i k_{3} &= 0
\end{align*}

De este sistema se observa que $k_{1} = 0$ y $k_{3} = -ik_{2}$. Elegimos $k_{2} = 1$, de manera que el segundo vector propio sea

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Caso 3: $\lambda_{2} = 1 -2i$.

Sabemos que este caso es el conjugado del caso anterior, por lo que directamente establecemos que el tercer vector propio es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

La solución general del sistema lineal homogéneo asociado, en su forma compleja, es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} + c_{3} e^{(1 -2i) t} \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

Sin embargo esta solución no nos sirve de mucho, pues desearíamos construir la matriz fundamental de soluciones con valores reales. Recordando lo visto en la entrada sobre valores propios complejos, podemos encontrar dos funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$, tal que la solución general sea de la forma

$$\mathbf{Y}_{c}(t) = c_{1} e^{\lambda_{1} t} + c_{2} \mathbf{W}_{1}(t) + c_{3} \mathbf{W}_{2}(t) \label{33} \tag{33}$$

Recordemos que las funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ están dadas por

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] \label{34} \tag{34}$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{35} \tag{35}$$

Consideremos el caso 2 en el que $\lambda_{2} = 1 + 2i$ y

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} $$

De estos resultados obtenemos que $\alpha = 1$, $\beta = 2$ y

$$\mathbf{U} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix}$$

Sustituyamos en la funciones (\ref{34}) y (\ref{35}). Por un lado,

\begin{align*}
\mathbf{W}_{1}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \cos(2t) -\begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \sin(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} -\begin{pmatrix}
0 \\ 0 \\ -\sin(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix}$$

Por otro lado,

\begin{align*}
\mathbf{W}_{2}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \sin(2t) + \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \cos(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

Recordemos que estas funciones también se pueden obtener considerando la identidad de Euler. Del caso 2 la solución que se obtiene es

$$\mathbf{Y}_{2c}(t) = e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Así,

$$\mathbf{W}_{1}(t) = Re \{ \mathbf{Y}_{2c}(t) \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = Im \{ \mathbf{Y}_{2c}(t) \}$$

Usando la identidad de Euler sobre esta solución obtenemos lo siguiente.

\begin{align*}
e^{(1 + 2i)t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} &= e^{t}[\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -i \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] + i e^{t} \left[ \sin(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -\cos(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ \sin(2t)
\end{pmatrix} \right] + ie^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

De donde,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

De esta forma, la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix} \label{36} \tag{36}$$

Esta solución es de la forma (\ref{3}) por lo que la matriz fundamental de soluciones, formada por estos vectores linealmente independientes, es

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t} & e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix}$$

Para obtener la solución del problema con valores iniciales usaremos el resultado (\ref{29}) para $t_{0} = 0$.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{0}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{37} \tag{37}$$

Es decir, consideraremos a la matriz $e^{\mathbf{A} t}$ como la matriz fundamental de soluciones. También es posible usar la relación (\ref{32}) usando la matriz $\hat{\mathbf{Y}}(t)$ antes establecida. ¿Por qué son equivalentes ambas formas?.

Determinemos la matriz $e^{\mathbf{A} t}$ usando la relación (\ref{31}). Si evaluamos $t = 0$ en la matriz $\hat{\mathbf{Y}}(t)$ se obtiene la matriz

$$\hat{\mathbf{Y}}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}$$

Comprueba que la matriz inversa es

$$\hat{\mathbf{Y}}^{ -1}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}^{ -1} = \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix}$$

Sustituyamos en (\ref{31}).

\begin{align*}
e^{\mathbf{A}t} &= \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t}& e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix} \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}
\end{align*}

Por lo tanto, la matriz que consideraremos como matriz fundamental de soluciones es

$$e^{\mathbf{A}t} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}$$

Como también requerimos de la inversa de esta matriz, verifica que

$$e^{-\mathbf{A}t} = e^{-t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) -\sin(2t) & \cos(2t) & \sin(2t) \\ 1 -\dfrac{3}{2} \sin(2t) -\cos(2t) & -\sin(2t) & \cos(2t)
\end{pmatrix}$$

En este caso la matriz $\mathbf{G}(t)$ es

$$\mathbf{G}(t) = \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}$$

Sustituyamos todos estos resultados en la solución (\ref{37}).

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{s} \cos(2s)
\end{pmatrix}ds$$

Por un lado,

$$e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix}$$

De tarea moral, determina las constantes $c_{1}$, $c_{2}$ y $c_{3}$ aplicando los valores iniciales sobre la solución complementaria (\ref{36}). ¿Qué relación tiene tu resultado con la operación anterior?.

Por otro lado,

$$e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} e^{s} \begin{pmatrix}
0 \\ 0 \\ \cos(2s)
\end{pmatrix} = \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix}$$

Sustituimos estas matrices en $\mathbf{Y}(t)$.

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds$$

Resolvamos la integral.

\begin{align*}
\int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds &= \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{t} – \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{0} \\
&= \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4t) \\ \dfrac{t}{2} + \dfrac{\sin(4t)}{8}
\end{pmatrix} -\begin{pmatrix}
0 \\ -\dfrac{1}{8} \\ 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}
\end{align*}

Entonces,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}$$

Ahora realicemos el producto del segundo sumando.

\begin{align*}
e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} &= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ \cos(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) -\sin(2t) \left( \dfrac{4t + \sin(4t)}{8} \right) \\ \sin(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) + \cos(2t) \left( \dfrac{4t + \sin(4t)}{8} \right)
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}
\end{align*}

Así,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}$$

Haciendo las operaciones correspondientes se obtiene finalmente que la solución al problema con valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\left( 1+ \dfrac{1}{2}t \right) \sin(2t) \\ \left( 1 + \dfrac{1}{2}t \right) \cos(2t) + \dfrac{5}{4} \sin(2t)
\end{pmatrix}$$

$\square$

Vemos que este método puede ser bastante largo y complicado, de hecho se puede volver una tarea imposible de hacer a mano si se tienen sistemas con matriz $\mathbf{A}$ de $3 \times 3$ o más. Se recomienda, en la medida de lo posible, usar algún programa computacional para llevar a cabo algunas de las operaciones, lo importante es entender como llevar a cabo el método.

Con esto concluimos lo que corresponde al estudio de los distintos métodos para resolver sistemas lineales. Prácticamente hemos concluido con la unidad 3 del curso.

En las siguientes dos entradas de esta unidad trataremos de justificar los teoremas de existencia y unicidad en el caso de los sistemas lineales, esto con el propósito de justificar toda la teoría desarrollada a lo largo de la unidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de los siguientes sistemas lineales no homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \cos(t) \\ \sin(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 \\ -\dfrac{1}{2} & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \csc(t) \\ \sec(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    e^{t} \\ e^{2t} \\ te^{3t}
    \end{pmatrix}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix} e^{2t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 & -2 \\ 1 & 1 & 1 \\ 2 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 0
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 0 \\ 0
    \end{pmatrix}$

Más adelante…

En la siguiente entrada demostraremos los teoremas de existencia y unicidad para el caso de los sistemas lineales de primer orden con coeficientes constantes homogéneos y no homogéneos y posteriormente, en la última entrada de esta unidad, justificaremos el teorema de existencia y unicidad en el caso general, es decir, para sistemas lineales y no lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Soluciones a sistemas de ecuaciones diferenciales

Por Omar González Franco

Los errores y dificultades no resueltos en el pasado de las matemáticas
siempre han sido las oportunidades de su futuro.
– E. T. Bell

Introducción

En la entrada anterior vimos lo que es un sistema de ecuaciones diferenciales, en particular un sistema lineal de primer orden. Vimos también lo que es un problema de valores iniciales y establecimos la notación matricial.

Así mismo, vimos cómo es que una ecuación diferencial lineal de orden $n$ se puede transformar en un sistema lineal de primer orden, esto tiene bastante ventaja ya que, una vez que veamos cómo resolver sistemas de ecuaciones diferenciales, muchas veces será más sencillo resolver el sistema que resolver la ecuación de orden $n$ aplicando los métodos que ya conocemos.

En esta entrada estudiaremos las propiedades de las soluciones de los sistemas lineales de primer orden.

Cabe mencionar que mucho de lo que desarrollaremos en esta entrada es bastante similar a la teoría vista con las ecuaciones diferenciales de orden $n$, comenzando por la validez del principio de superposición.

A partir de ahora sólo usaremos la notación matricial y toda la teoría básica del álgebra lineal que éstas conllevan.

Soluciones de sistemas lineales de primer orden

Comencemos por estudiar el caso homogéneo. El sistema lineal de primer orden homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime} \\ y_{2}^{\prime} \\ \vdots \\ y_{n}^{\prime}
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1} \\ y_{2} \\ \vdots \\ y_{n}
\end{pmatrix} \label{1} \tag{1}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} \label{2} \tag{2}$$

En la entrada anterior definimos la solución de un sistema de ecuaciones diferenciales en el intervalo $\delta$ como el conjunto de $n$ funciones

$$S_{0} = \{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\} \label{3} \tag{3}$$

definidas en $\delta$ y diferenciables en el mismo intervalo, tales que satisfacen simultáneamente las $n$ ecuaciones diferenciables de un sistema lineal.

Las soluciones pueden ser escritas como el vector

$$\mathbf{Y} = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \label{4} \tag{4}$$

cuyos elementos son funciones derivables que satisfacen un sistema lineal en el intervalo $\delta$.

En las siguientes definiciones y teoremas se supondrá que los coeficientes $a_{ij}(t)$, $i, j \in \{1, 2, 3, \cdots, n\}$ y ,para el caso no homogéneo, las funciones $g_{i}(t)$, son continuas en algún intervalo común $\delta$.

Comencemos por mostrar que el principio de superposición también es valido para sistemas lineales.

Demostración: Consideremos la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

con

$$\mathbf{Y}_{i} = \begin{pmatrix}
y_{1i} \\ y_{2i} \\ \vdots \\ y_{ni}
\end{pmatrix}$$

para $i = 1, 2, \cdots, m$. La derivada de $\mathbf{Y}_{i}$ esta dada por

$$\mathbf{Y}_{i}^{\prime} = \begin{pmatrix}
y_{1i}^{\prime} \\ y_{2i}^{\prime} \\ \vdots \\ y_{ni}^{\prime}
\end{pmatrix}$$

Entonces la derivada de la combinación lineal es

\begin{align*}
\mathbf{Y}^{\prime} &= \begin{pmatrix}
c_{1}y_{11}^{\prime} + c_{2}y_{12}^{\prime} + \cdots + c_{m}y_{1m}^{\prime} \\
c_{1}y_{21}^{\prime} + c_{2}y_{22}^{\prime} + \cdots + c_{m}y_{2m}^{\prime} \\
\vdots \\
c_{1}y_{n1}^{\prime} + c_{2}y_{n2}^{\prime} + \cdots + c_{m}y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \begin{pmatrix}
y_{11}^{\prime} \\ y_{21}^{\prime} \\ \vdots \\ y_{n1}^{\prime}
\end{pmatrix} + c_{2} \begin{pmatrix}
y_{12}^{\prime} \\ y_{22}^{\prime} \\ \vdots \\ y_{n2}^{\prime}
\end{pmatrix} + \cdots + c_{m} \begin{pmatrix}
y_{1m}^{\prime} \\ y_{2m}^{\prime} \\ \vdots \\ y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \mathbf{Y}_{1}^{\prime} + c_{2} \mathbf{Y}_{2}^{\prime} + \cdots + c_{m} \mathbf{Y}_{m}^{\prime}
\end{align*}

Como cada $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, m$, es solución del sistema homogéneo (\ref{2}) en $\delta$, entonces

$$\mathbf{Y}_{i}^{\prime} = \mathbf{A} \mathbf{Y}_{i}$$

así

\begin{align*}
\mathbf{Y}^{\prime} &= c_{1} (\mathbf{AY}_{1}) + c_{2} (\mathbf{AY}_{2}) + \cdots + c_{m} (\mathbf{AY}_{m}) \\
&= \mathbf{A}(c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}) \\
&= \mathbf{AY}
\end{align*}

En donde se ha hecho uso de la propiedad distributiva de la matriz $\mathbf{A}$ y de la hipótesis (\ref{5}). Por lo tanto, la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

también es solución y los es en el mismo intervalo común $\delta$ ya que esta compuesta de soluciones definidas en dicho intervalo.

$\square$

Intenta hacer la demostración.

Realicemos un ejemplo.

Ejemplo: Probar que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

es solución del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

Solución: Probemos que cada uno de los vectores de la combinación lineal es solución y usemos el principio de superposición.

Los vectores son

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Por un lado, derivemos estos vectores.

$$\mathbf{Y}^{\prime}_{1} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{2} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{3} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos cada uno de los vectores en el sistema lineal y usemos los resultados anteriores.

$$\mathbf{AY}_{1} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
1 -1 \\ 1 -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{1}$$

$$\mathbf{AY}_{2} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
e^{2t} + e^{2t} \\ e^{2t} + e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{2}$$

y

$$\mathbf{AY}_{3} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix} = \mathbf{Y}^{\prime}_{3}$$

De esta manera queda mostrado que los tres vectores son solución, ya que satisfacen el sistema. Por el principio de superposición concluimos que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

también es solución del sistema lineal.

$\square$

El principio de superposición nos indica que un sistema lineal puede tener más de una solución, sin embargo, similar al caso de ecuaciones diferenciales de orden $n$, buscamos soluciones que sean linealmente independientes entre sí. A continuación definimos la dependencia e independencia lineal de las soluciones en este contexto.

En la unidad anterior definimos una herramienta muy útil que, además de ayudarnos a resolver ecuaciones diferenciales de orden superior en algunos métodos, nos ayuda a determinar si un conjunto de soluciones es linealmente independiente, dicha herramienta es el Wronskiano, la definición en el caso de los sistemas lineales de primer orden, es la siguiente.

Se puede demostrar que si el Wronskiano es distinto de cero, entonces las soluciones son linealmente independientes, igual que antes, esto es conocido como el criterio para soluciones linealmente independientes. Para demostrar este hecho es conveniente recordar algunos resultados de álgebra que podremos usar en la demostración.

Recordemos que un sistema lineal de $n$ ecuaciones con $n$ incógnitas es un conjunto de ecuaciones

$$\begin{matrix}
b_{11}u_{1} + b_{12}u_{2} + \cdots + b_{1n}u_{n} = d_{1} \\
b_{21}u_{1} + b_{22}u_{2} + \cdots + b_{2n}u_{n} = d_{2}\\
\vdots\\
b_{n1}u_{1} + b_{n2}u_{2} + \cdots + b_{nn}u_{n} = d_{n}
\end{matrix} \label{9} \tag{9}$$

Con $b_{i, j}$ y $d_{i}$, $i, j \in \{1,2, 3, \cdots, n\}$ números reales dados y $u_{i}$, $i = 1, 2, \cdots, n$ las incógnitas. Usando la notación matricial podemos escribir el sistema (\ref{9}) como

$$\mathbf{BU} = \mathbf{D} \label{10} \tag{10}$$

con

$$\mathbf{B} = \begin{pmatrix}
b_{11} & b_{12} & \cdots & b_{1n} \\
b_{21} & b_{22} & \cdots & b_{2n} \\
\vdots & & & \vdots \\
b_{n1} & b_{n2} & \cdots & b_{nn}
\end{pmatrix}, \hspace{1cm} \mathbf{U} = \begin{pmatrix}
u_{1} \\ u_{2} \\ \vdots \\ u_{n}
\end{pmatrix}, \hspace{1cm} \mathbf{D} = \begin{pmatrix}
d_{1} \\ d_{2} \\ \vdots \\ d_{n}
\end{pmatrix}$$

Los resultados que nos interesan son los siguientes.

Si $\mathbf{D} = \mathbf{0}$, el sistema (\ref{10}) también recibe el nombre de sistema homogéneo.

Con estos resultados podemos demostrar el criterio para soluciones linealmente independientes que se enuncia a continuación.

Demostración:

$\Rightarrow$) Por demostrar: $W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$.

Sea $t_{0} \in \delta$ en el que $W(t_{0}) = 0$, en donde $W(t_{0})$ denota al Wronskiano con cada vector solución evaluado en el punto $t_{0}$.

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0})) $$

En una combinación de ambos teoremas de los resultados de álgebra podemos deducir que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$, no todos cero, tal que

$$\mathbf{Y}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = 0 \label{11} \tag{11}$$

Lo que tenemos es un sistema lineal de $n$ ecuaciones homogéneo con $n$ incógnitas (sistema lineal en el contexto algebraico (\ref{10}) con $\mathbf{D} = \mathbf{0}$, no sistema lineal de ecuaciones diferenciales), dichas incógnitas son las constantes $c_{i}$, $i = 1, 2, \cdots, n$. La relación (\ref{11}) se cumple debido a que si el Wronskiano es igual a cero, entonces es posible que el sistema no tenga solución trivial y mucho menos una solución única, esto lo deducimos de los teoremas de álgebra que establecimos.

Por otro lado, sabemos por hipótesis que los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son solución del sistema homogéneo (\ref{2}) en el intervalo $\delta$, por el principio de superposición sabemos también que la combinación lineal

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n}$$

es solución de (\ref{2}) en $\delta$. Del resultado (\ref{11}) y de la unicidad de la solución se deduce que $\mathbf{Y}(t) = 0$ para algún punto $t = t_{0} \in \delta$, es decir,

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Pero por hipótesis los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes en $\delta$, lo que implica que

$$c_{1} = c_{2} = \cdots = c_{n} = 0$$

lo cual es una contradicción con lo que establecimos en (\ref{11}). Por lo tanto, el Wronskiano tiene que ser distinto de cero, es decir

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

$\Leftarrow$) Por demostrar: $S$ es linealmente independiente.

Este caso también lo demostraremos por contradicción. Supongamos que los vectores solución $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente dependientes en $\delta$, esto implica que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$ no todos cero, tal que

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Este sistema lo podemos escribir en la forma (\ref{9}) como

$$\begin{matrix}
c_{1}y_{11} + c_{2}y_{12} + \cdots + c_{n}y_{1n} = 0 \\
c_{1}y_{21} + c_{2}y_{22} + \cdots + c_{n}y_{2n} = 0 \\
\vdots\\
c_{1}y_{n1} + c_{2}y_{n2} + \cdots + c_{n}y_{nn} = 0
\end{matrix}$$

En donde las funciones $y_{ij}$, $i, j \in \{1, 2, 3, \cdots, n\}$ son los coeficientes y las constantes $c_{i}$, $i = 1, 2, \cdots, n$ son las incógnitas. Debido a que las $c_{i}$ no son todas cero implica que el sistema no tiene solución trivial y por el segundo teorema de los resultados de álgebra concluimos que

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = 0$$

Pero, por hipótesis

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

lo cual es una contradicción y todo nace de considerar a $S$ como un conjunto linealmente dependiente. Por lo tanto, el conjunto de soluciones

$$S = \{\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}\}$$

es linealmente independiente en $\delta$.

$\square$

Un resultado interesante se enuncia a continuación.

Este resultado nos garantiza que si $W \neq 0$ para algún punto $t_{0} \in \delta$, entonces $W \neq 0$ para toda $t \in \delta$ y por el criterio anterior las soluciones serán linealmente independientes en ese intervalo.

El conjunto de soluciones linealmente independientes del sistema lineal (\ref{2}) recibe un nombre especial.

El siguiente teorema nos garantiza la existencia de este conjunto.

El conjunto fundamental de soluciones está constituido por vectores que son linealmente independientes entre sí, con estos vectores es posible formar una matriz cuyas columnas están formadas con las entradas de dichos vectores, esta matriz tiene un nombre especial.

Un hecho interesante es que el determinante de la matriz fundamental de soluciones corresponde al Wronskiano.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = |\mathbf{M}(t)| \label{13} \tag{13}$$

Realicemos un ejemplo, para ello consideremos el sistema lineal del ejemplo anterior.

Ejemplo: Mostrar que las soluciones

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

son linealmente independientes.

Solución: En el ejemplo anterior ya comprobamos que efectivamente son solución del sistema lineal dado. Para determinar si son linealmente independientes veamos si el Wronskiano es distinto de cero.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \mathbf{Y}_{3}) = \begin{vmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{vmatrix} = e^{5t} + 0 + 0 -0 -0 -(-e^{5t}) = 2e^{5t} \neq 0$$

Como $W \neq 0$, $\forall$ $t \in \mathbb{R}$, entonces los vectores dados son linealmente independientes y por lo tanto forman un conjunto fundamental de soluciones en $\mathbb{R}$.

$$S = \left\{ \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} \right\}$$

La matriz fundamental de soluciones es

$$\mathbf{M}(t) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$

$\square$

Un buen ejercicio sería mostrar que un conjunto de soluciones del sistema lineal homogéneo (\ref{2}) forma un espacio vectorial, es relativamente sencillo probar cada una de las propiedades o axiomas que definen a un espacio vectorial. El resultado a demostrar de tarea moral es el siguiente.

Soluciones generales a sistemas lineales

Ahora que conocemos algunas propiedades de las soluciones de sistemas lineales, es momento de conocer la forma general de las soluciones de los sistemas lineales tanto homogéneos como no homogéneos.

Comencemos por enunciar el teorema que establece la forma de la solución general de un sistema lineal homogéneo (\ref{2}).

Demostración: Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema lineal homogéneo en el intervalo $\delta$, sea $t_{0} \in \delta$ y supongamos que

$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0}$$

Es decir, la función $\mathbf{Y}(t)$ satisface el problema de valores iniciales $\mathbf{Y}^{\prime} = \mathbf{AY}; \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$.

Por otro lado, por el principio de superposición sabemos que la combinación lineal

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

también es solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Donde $c_{i}$, $i = 1, 2, \cdots, n$ son constantes arbitrarias y las $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, n$ son las soluciones del conjunto fundamental de soluciones del sistema lineal. Supongamos que

$$\hat{\mathbf{Y}}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Lo que tenemos es el siguiente sistema de $n$ ecuaciones.

$$\begin{matrix}
c_{1}y_{11}(t_{0}) + c_{2}y_{12}(t_{0}) + \cdots + c_{n}y_{1n}(t_{0}) = b_{1} \\
c_{1}y_{21}(t_{0}) + c_{2}y_{22}(t_{0}) + \cdots + c_{n}y_{2n}(t_{0}) = b_{2} \\
\vdots \\
c_{1}y_{n1}(t_{0}) + c_{2}y_{n2}(t_{0}) + \cdots + c_{n}y_{nn}(t_{0}) = b_{n}
\end{matrix}$$

En donde las incógnitas son las contantes $c_{i}$, $i = 1, 2, \cdots, n$. Como las funciones $y_{ij}$, $i,j \in \{1, 2, 3, \cdots, n \}$ pertenecen a vectores del conjunto de soluciones, entonces sabemos que $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes y por el criterio para soluciones linealmente independientes inferimos que $W(t_{0}) \neq 0$, donde

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0}))$$

De los resultados de álgebra deducimos que el sistema de $n$ ecuaciones tiene solución única, esto significa que existen constantes únicas $c_{1}, c_{2}, \cdots, c_{n}$, tal que

$$c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Esto nos indica que

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

es solución del problema de valores iniciales. Por el teorema de existencia y unicidad para sistemas lineales homogéneas concluimos que $\mathbf{Y}(t) = \hat{\mathbf{Y}}(t)$, es decir,

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

Como $\mathbf{Y}(t)$ es una solución arbitraria, entonces debe ser la solución general del sistema lineal homogéneo en $\delta$.

$\square$

Para concluir la entrada estudiemos el caso no homogéneo.

Sistemas no homogéneos

El sistema lineal de primer orden no homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{15} \tag{15}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} + \mathbf{G} \label{16} \tag{16}$$

El vector de funciones que satisface el sistema (\ref{16}) es una solución y recibe un nombre.

A continuación se enuncia el teorema que nos muestra la forma general de la solución de un sistema lineal no homogéneo.

Demostración: Sea

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
y_{1p} \\ y_{2p} \\ \vdots \\ y_{np}
\end{pmatrix}$$

una solución particular de (\ref{16}) y sean $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$, $n$ soluciones linealmente independientes del sistema homogéneo asociado $\mathbf{Y^{\prime}} = \mathbf{AY}$.

Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema no homogéneo, notemos lo siguiente.

\begin{align*}
(\mathbf{Y}(t) -\mathbf{Y}_{p}(t))^{\prime} &= \mathbf{Y}^{\prime}(t) -\mathbf{Y}_{p}^{\prime}(t) \\
&= (\mathbf{AY}(t) + \mathbf{G}) -(\mathbf{AY}_{p}(t) + \mathbf{G}) \\
&= \mathbf{A} (\mathbf{Y}(t) -\mathbf{Y}_{p}(t))
\end{align*}

Este resultado nos indica que $\mathbf{Y}(t) -\mathbf{Y}_{p}(t)$ es solución del sistema homogéneo, eso significa que se puede escribir como

$$\mathbf{Y}(t) -\mathbf{Y}_{p}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t)$$

entonces, la solución $\mathbf{Y}$ tiene la forma

$$\mathbf{Y}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) \label{19} \tag{19}$$

La solución $\mathbf{Y}(t)$, al ser cualquier solución del sistema lineal no homogéneo, podemos deducir que la solución general debe tener la forma (\ref{19}), por lo que concluimos que $\mathbf{Y}(t)$ se trata de la solución general de (\ref{16}).

Considerando la hipótesis (\ref{17}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

$\square$

Cuando estamos trabajando con un sistema lineal no homogéneo, la solución general del sistema lineal homogéneo asociado (\ref{17}) recibe un nombre particular.

Concluyamos con un ejemplo.

Ejemplo: Probar que el vector

$$\mathbf{Y}_{p} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

es una solución particular del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Solución: Por un lado, derivemos el vector dado.

$$\mathbf{Y}^{\prime}_{p} = \begin{pmatrix}
-\dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ -e^{t} + \dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos directamente en el sistema al vector dado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Operando obtenemos lo siguiente.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} + e^{t} \\ -\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t}+e^{2t} \\ \dfrac{3}{2}t^{2}e^{3t} + te^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Los resultados obtenidos son los mismos, por lo tanto el vector $\mathbf{Y}_{p}$ es solución del sistema.

En los ejemplos anteriores de esta entrada probamos que el conjunto fundamental de soluciones del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

esta constituido por los vectores linealmente independientes

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

de manera que la función complementaria es

$$\mathbf{Y}_{c} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Como la solución general es

$$\mathbf{Y} = \mathbf{Y}_{c} + \mathbf{Y}_{p}$$

Entonces la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} + \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

$\square$

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Los siguientes vectores son soluciones de un sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$. Determinar si forman un conjunto fundamental de soluciones en $\mathbb{R}$.
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ -1
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    2 \\ 6
    \end{pmatrix}e^{t} + \begin{pmatrix}
    8 \\ -8
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ 6 \\ -13
    \end{pmatrix},\hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    1 \\ -2 \\ -1
    \end{pmatrix}e^{-4t}, \hspace{1cm} \mathbf{Y}_{3}= \begin{pmatrix}
    2 \\ 3 \\ -2
    \end{pmatrix}e^{3t}$
  1. Probar que el vector $\mathbf{Y}_{p}$ es una solución particular del sistema lineal dado.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 1 \\ 3 & 4
    \end{pmatrix} \mathbf{Y} -\begin{pmatrix}
    1 \\ 7
    \end{pmatrix}e^{t}, \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}e^{t} + \begin{pmatrix}
    1 \\ -1
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 & 3 \\
    -4 & 2 & 0 \\
    -6 & 1 & 0
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    -1 \\ 4 \\ 3
    \end{pmatrix} \sin(3t), \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    \sin(3t) \\ 0 \\ \cos (3t)
    \end{pmatrix}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 6 & 0 \\ 1 & 0 & 1 \\ 1 & 1 & 0
    \end{pmatrix} \mathbf{Y}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    6 \\ -1 \\ -5
    \end{pmatrix}e^{-t} + c_{2} \begin{pmatrix}
    -3 \\ 1 \\ 1
    \end{pmatrix}e^{-2t} + c_{3} \begin{pmatrix}
    2 \\ 1 \\ 1
    \end{pmatrix}e^{3t}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 \\ -1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}t^{2} + \begin{pmatrix}
    4 \\ -6
    \end{pmatrix}t + \begin{pmatrix}
    -1 \\ 5
    \end{pmatrix}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    1 \\ -1 -\sqrt{2}
    \end{pmatrix}e^{\sqrt{2t}} + c_{2} \begin{pmatrix}
    1 \\ -1 + \sqrt{2}
    \end{pmatrix}e^{-\sqrt{2t}} + \begin{pmatrix}
    1 \\ 0 \end{pmatrix}t^{2} + \begin{pmatrix}
    -2 \\ 4
    \end{pmatrix}t + \begin{pmatrix}
    1 \\ 0
    \end{pmatrix}$
  1. Demostrar que el conjunto de soluciones del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$ forma un espacio vectorial con la suma y el producto por escalares usuales de matrices.

Más adelante…

Ahora que conocemos lo que son los sistemas lineales de ecuaciones diferenciales y las propiedades de sus soluciones estamos casi listos para comenzar a desarrollar los distintos métodos de resolución, sin embargo, antes de ello es necesario definir una herramienta matemática que será de suma utilidad en el desarrollo posterior de esta unidad. Dicha herramienta es la exponencial de una matriz.

En la siguiente entrada definiremos lo que significa $e^{\mathbf{A} t}$, donde $\mathbf{A}$ es una matriz de $n \times n$ con componentes constantes y veremos como se relaciona con un sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Así mismo, profundizaremos en el concepto de matriz fundamental de soluciones.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Ecuaciones lineales no homogéneas de segundo orden – Método de variación de parámetros

Por Omar González Franco

Las matemáticas son un lugar donde puedes hacer
cosas que no puedes hacer en el mundo real.
– Marcus du Sautoy

Introducción

Con lo que hemos estudiado en las dos últimas entradas somos capaces de resolver ecuaciones diferenciales lineales de segundo orden homogéneas y no homogéneas con coeficientes constantes, es decir, ecuaciones de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = g(x) \label{1} \tag{1}$$

Con $a, b, c$ constantes y $g(x) = 0$ en el caso homogéneo o $g(x) \neq 0$ en el caso no homogéneo, en éste último caso aún estamos limitados a la forma que puede tener la función $g$, pues sabemos resolver las ecuaciones diferenciales en el caso en el que la función $g$ es una constante, una función polinomial, una función exponencial, funciones seno o coseno, o una combinación entre ellas. La pregunta ahora es, ¿cómo resolver este tipo de ecuaciones para cualquier tipo de función $g(x)$?.

En esta entrada desarrollaremos un método que nos permite obtener la solución general independientemente de la forma que tenga la función $g(x)$. A dicho método se le conoce como variación de parámetros.

El nombre de este método resulta familiar. En la unidad anterior desarrollamos éste método para el caso de las ecuaciones diferenciales lineales de primer orden como método alterno al método por factor integrante. Lo que haremos en esta entrada es una adaptación del método de variación de parámetros para el caso en el que las ecuaciones diferenciales son de orden superior, en particular, de segundo orden.

Variación de parámetros

Consideremos la ecuación diferencial

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g_{0}(x) \label{2} \tag{2}$$

Si $a_{2}(x) \neq 0$ para toda $x$ en el intervalo $\delta$ en el que está definida la solución, entonces podemos definir las funciones

$$P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}, \hspace{1cm} Q(x) = \dfrac{a_{0}(x)}{a_{2}(x)} \hspace{1cm} y \hspace{1cm} g(x) = \dfrac{g_{0}(x)}{a_{2}(x)}$$

de manera que la ecuación (\ref{2}) la podemos escribir en su forma estándar como

$$\dfrac{d^{2}y}{dx^{2}} + P(x)\dfrac{dy}{dx} + Q(x)y = g(x) \label{3} \tag{3}$$

En el caso de primer orden se hizo la suposición de que la solución particular era de la forma

$$y_{p}(x) = k(x)y_{1}(x) = k(x) e^{-\int{P(x)dx}}$$

Manteniendo esta idea, en el caso de segundo orden se busca una solución de la forma

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) \label{4} \tag{4}$$

Donde $y_{1}$ y $y_{2}$ forman un conjunto fundamental de soluciones en $\delta$ de la ecuación homogénea asociada a (\ref{3}). Determinemos la primera y segunda derivada de $y_{p}$ para sustituir los resultados en la ecuación diferencial (\ref{3}).

$$\dfrac{dy_{p}}{dx} = k_{1}\dfrac{dy_{1}}{dx} + y_{1}\dfrac{dk_{1}}{dx} + k_{2}\dfrac{dy_{2}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \label{5} \tag{5}$$

y

$$\dfrac{d^{2}y_{p}}{dx^{2}} = k_{1}\dfrac{d^{2}y_{1}}{dx^{2}} + 2\dfrac{dy_{1}}{dx}\dfrac{dk_{1}}{dx} + y_{1}\dfrac{d^{2}k_{1}}{dx^{2}} + k_{2}\dfrac{d^{2}y_{2}}{dx^{2}} + 2\dfrac{dy_{2}}{dx}\dfrac{dk_{2}}{dx} + y_{2}\dfrac{d^{2}k_{2}}{dx^{2}} \label{6} \tag{6}$$

Sustituyendo en (\ref{3}) y reorganizando los términos obtenemos lo siguiente.

\begin{align*}
k_{1} \left[ \dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Q y_{1} \right] + y_{1} \dfrac{d^{2}k_{1}}{dx^{2}} + \dfrac{dk_{1}}{dx} \dfrac{dy_{1}}{dx} + k_{2} \left[ \dfrac{d^{2}y_{2}}{dx^{2}} + P\dfrac{dy_{2}}{dx} + Q y_{2} \right] \\
+ y_{2} \dfrac{d^{2}k_{2}}{dx^{2}} + \dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} + P \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x)
\end{align*}

Como $y_{1}$ y $y_{2}$ son soluciones de la ecuación homogénea asociada, entonces

$$\dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Q y_{1} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} + P\dfrac{dy_{2}}{dx} + Q y_{2} = 0$$

y además notamos que

$$\dfrac{d}{dx} \left[ y_{1}\dfrac{dk_{1}}{dx} \right] = y_{1} \dfrac{d^{2}k_{1}}{dx^{2}} + \dfrac{dk_{1}}{dx} \dfrac{dy_{1}}{dx} \label{7} \tag{7}$$

y

$$\dfrac{d}{dx} \left[ y_{2}\dfrac{dk_{2}}{dx} \right] = y_{2} \dfrac{d^{2}k_{2}}{dx^{2}} + \dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} \label{8} \tag{8}$$

Considerando lo anterior la ecuación diferencial queda como

$$\dfrac{d}{dx} \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + P \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x) \label{9} \tag{9}$$

Nuestro propósito es determinar a las funciones $k_{1}(x)$ y $k_{2}(x)$ de (\ref{4}), esto implica que debemos formar un sistema con dos ecuaciones que debemos resolver para obtener dichas funciones. De acuerdo al resultado obtenido vamos a establecer la restricción de que las funciones $k_{1}$ y $k_{2}$ satisfacen la relación

$$y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} = 0 \label{10} \tag{10}$$

Considerando esto la ecuación se reduce a

$$\dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x) \label{11} \tag{11}$$

Las ecuaciones (\ref{10}) y (\ref{11}) corresponden al sistema de dos ecuaciones que debemos resolver.

Como podemos notar, es un sistema para determinar las derivadas de las funciones $k_{1}$ y $k_{2}$ y no las funciones mismas, esto implica que una vez que determinemos a las derivadas será necesario hacer una integración a cada una de ellas. Resolvamos el sistema.

Multipliquemos la ecuación (\ref{10}) por $\dfrac{dy_{2}}{dx}$ y la ecuación (\ref{11}) por $y_{2}$.

$$y_{1}\dfrac{dk_{1}}{dx} \dfrac{dy_{2}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} = 0 \label{12} \tag{12}$$

$$y_{2} \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + y_{2} \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = y_{2} g(x) \label{13} \tag{13}$$

Si a la ecuación (\ref{12}) le restamos la ecuación (\ref{13}) obtenemos lo siguiente.

$$\dfrac{dk_{1}}{dx} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2} \dfrac{dy_{1}}{dx} \right) = -y_{2}(x)g(x) \label{14} \tag{14}$$

Recordemos que el Wronskiano esta definido como

$$W(y_{1}, y_{2}) = y_{1} \dfrac{dy_{2}}{dx} -y_{2} \dfrac{dy_{1}}{dx} \label{15} \tag{15}$$

Entonces la ecuación (\ref{14}) la podemos escribir como

$$\dfrac{dk_{1}}{dx} \left[ W(y_{1}, y_{2}) \right] = -y_{2}(x)g(x) \label{16} \tag{16}$$

Como $y_{1}$ y $y_{2}$ forman un conjunto fundamental de soluciones de la ecuación homogénea asociada, entonces

$$W(y_{1}, y_{2}) \neq 0$$

Así, de la ecuación (\ref{16}) obtenemos que

$$\dfrac{dk_{1}}{dx} = -\dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} \label{17} \tag{17}$$

Hemos encontrado el valor de la derivada de la función $k_{1}(x)$, integrando obtenemos finalmente que

$$k_{1}(x) = -\int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{18} \tag{18}$$

En un proceso totalmente análogo, si multiplicamos a la ecuación (\ref{10}) por $\dfrac{dy_{1}}{dx}$ y a la ecuación (\ref{11}) por $y_{1}$ y realizamos los mismos pasos obtendremos la ecuación para la derivada de la función $k_{2}(x)$.

$$\dfrac{dk_{2}}{dx} = \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} \label{19} \tag{19}$$

Integrando obtendremos la función que buscamos

$$k_{2}(x) = \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{20} \tag{20}$$

Sustituyendo los resultados (\ref{18}) y (\ref{20}) en la solución particular (\ref{4}) obtenemos finalmente la solución que buscábamos

$$y_{p}(x) = -y_{1}(x) \int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} + y_{2}(x) \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{21} \tag{21}$$

El resultado (\ref{21}) corresponde a la solución particular de la ecuación diferencial (\ref{2}) que, a diferencial del método de coeficientes indeterminados, se aplica para cualquier función $g(x)$, aunque cabe mencionar que si la función $g$ es muy compleja, entonces nos resultará, en algunas ocasiones, complicado resolver las integrales involucradas.

A lo largo del curso hemos motivado a no memorizar las formulas y en su lugar desarrollar el procedimiento del método correspondiente, sin embargo, en esta ocasión se trata de un método muy largo y complicado para usarse cada vez que se intente resolver una ecuación diferencial, por lo que se recomienda seguir los siguientes pasos.

  • Primero se determina la solución complementaria $$y_{c} = c_{1}y_{1} + c_{2}y_{2}$$ de la ecuación diferencial homogénea asociada, esto nos permitirá determinar el conjunto fundamental de soluciones $\{y_{1}, y_{2}\}$.
  • Una vez conocido el conjunto fundamental de soluciones se procede a calcular el Wronskiano $W(y_{1}, y_{2})$.
  • Posteriormente se divide la ecuación diferencial por $a_{2}$ para escribir la ecuación es su forma estándar (\ref{3}) y así obtener la forma de la función $g(x)$.
  • Se sustituyen los valores correspondientes en (\ref{18}) y (\ref{20}) para obtener las funciones $k_{1}$ y $k_{2}$ respectivamente.
  • Finalmente se sustituyen los resultados en la solución particular $$y_{p} = k_{1}y_{1} + k_{2}y_{2}$$ y posteriormente en la solución general $$y = y_{c} + y_{p}$$

Cuando se calculan las integrales indefinidas (\ref{18}) y (\ref{20}) no es necesario considerar las constantes de integración. Para mostrar esto consideremos las constantes $c_{3}$ y $c_{4}$, tales que

\begin{align*}
y(x) &= y_{c}(x) + y_{p}(x) \\
&= c_{1}y_{1}(x) + c_{2}y_{2}(x) + \left[ k_{1}(x) + c_{3} \right] y_{1}(x) + \left[ k_{2}(x) + c_{4} \right] y_{2}(x) \\
&= \left[ c_{1} + c_{3} \right] y_{1}(x) + \left[ c_{2} + c_{4} \right] y_{2}(x) + k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) \\
&= C_{1}y_{1}(x) + C_{2}y_{2}(x) + k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x)
\end{align*}

Es decir, las constantes de la solución complementaria contienen todas las constantes que puedan aparecer en el método.

Realicemos algunos ejemplos.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$3 \dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 6y = e^{x} \sec(x)$$

Solución: El primer paso es obtener la solución complementaria. La ecuación auxiliar es

$$3k^{2} -6k + 6 = 0$$

De donde $k_{1} = 1 + i$ y $k_{2} = 1 -i$, identificamos que $\alpha = \beta = 1$, entonces la forma de la solución complementaria es

$$y_{c}(x) = c_{1}e^{x} \cos(x) + c_{2}e^{x} \sin(x)$$

El conjunto fundamental de soluciones esta conformado por las funciones

$$y_{1}(x) = e^{x} \cos(x) \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{x} \sin(x)$$

La derivada de ambas soluciones son

$$\dfrac{dy_{1}}{dx} = e^{x} \cos(x) -e^{x} \sin(x) \hspace{1cm} y \hspace{1cm} \dfrac{dy_{2}}{dx} = e^{x} \sin(x) + e^{x} \cos(x)$$

Usando estos resultados calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{x} \cos(x) & e^{x} \sin(x) \\
e^{x} \cos(x) -e^{x} \sin(x) & e^{x} \sin(x) + e^{x} \cos(x)
\end{vmatrix} \\
&= e^{2x} \cos(x) \sin(x) + e^{2x} \cos^{2}(x) -e^{2x} \cos(x) \sin(x) + e^{2x} \sin^{2}(x) \\
&= e^{2x}
\end{align*}

El Wronskiano es

$$W(x) = e^{2x}$$

¡Cuidado!, como en la ecuación diferencial la segunda derivada tiene un coeficiente, debemos dividir toda la ecuación por dicho coeficiente para obtener la forma estándar y así la función $g(x)$. La ecuación en su forma estándar es

$$\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = \dfrac{e^{x} \sec(x)}{3}$$

En este caso la función $g$ es

$$g(x) = \dfrac{e^{x} \sec(x)}{3}$$

Ahora que ya conocemos los valores que necesitábamos, recurrimos a las ecuaciones (\ref{18}) y (\ref{20}) para obtener las funciones que buscamos.

Para la función $k_{1}(x)$, tenemos lo siguiente.

\begin{align*}
k_{1}(x) &= -\int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} \\
&= -\int{\dfrac{\left( e^{x} \sin(x) \right) \left( \dfrac{e^{x} \sec(x)}{3} \right)}{e^{2x}} dx} \\
&= -\int{\dfrac{e^{2x} \sin(x) \sec(x)}{3e^{2x}} dx} \\
&= -\dfrac{1}{3} \int{\tan(x) dx} \\
&= \dfrac{1}{3} \ln|\cos(x)|
\end{align*}

La integral de la tangente es común. Por tanto, la función $k_{1}$ es

$$k_{1}(x) = \dfrac{1}{3} \ln|\cos(x)|$$

Para el caso de la función $k_{2}(x)$, tenemos lo siguiente.

\begin{align*}
k_{2}(x) &= \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \\
&= \int{\dfrac{\left( e^{x} \cos(x) \right) \left( \dfrac{e^{x} \sec(x)}{3} \right)}{e^{2x}} dx} \\
&= \int{\dfrac{e^{2x} \cos(x) \sec(x)}{3e^{2x}} dx} \\
&= \dfrac{1}{3} \int{dx} \\
&= \dfrac{1}{3}x
\end{align*}

La función $k_{2}$ es

$$k_{2}(x) = \dfrac{1}{3}x$$

Ya podemos establecer que la solución particular, de acuerdo a (\ref{4}), es

$$y_{p}(x) = \dfrac{1}{3} \ln|\cos(x)| \left[ e^{x} \cos(x) \right] + \dfrac{1}{3}x \left[ e^{x} \sin(x) \right]$$

Por lo tanto, la solución general de la ecuación diferencial

$$3 \dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 6y = e^{x} \sec(x)$$

es

$$y(x) = c_{1}e^{x} \cos(x) + c_{2}e^{x} \sin(x) + \dfrac{1}{3}e^{x} \cos(x) \ln|\cos(x)| + \dfrac{1}{3}x e^{x} \sin(x)$$

$\square$

Con este ejemplo encontramos un buen momento para reflexionar y darnos cuenta de que ya hemos avanzado mucho, tan sólo observa el tipo de ecuación que acabamos de resolver y no sólo eso, observa que tan compleja es la solución general.

¡Sigamos adelante!.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 2\dfrac{dy}{dx} + y = \dfrac{e^{-x}}{x}$$

Solución: Como la ecuación ya está es su forma estándar la función $g$ es

$$g(x) = \dfrac{e^{-x}}{x}$$

Determinemos la solución complementaria, la ecuación auxiliar es

$$k^{2} + 2k + 1 = 0$$

De donde $k_{1} = k_{2} = -1$, la multiplicidad de la solución nos indica que la forma de la solución complementaria es

$$y_{c}(x) = c_{1}e^{-x} + c_{2}xe^{-x}$$

El conjunto fundamental de soluciones esta conformado por las funciones

$$y_{1}(x) = e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = xe^{-x}$$

Usando estas soluciones y sus derivadas calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{-x} & xe^{-x} \\
-e^{-x} & e^{-x} -xe^{-x}
\end{vmatrix} \\
&= e^{-2x} -xe^{2x} + xe^{-2x} \\
&= e^{-2x}
\end{align*}

El Wronskiano es

$$W(x) = e^{-2x}$$

Sustituyamos estos resultados directamente en la ecuación (\ref{21}).

\begin{align*}
y_{p}(x) &= -e^{-x} \int {\dfrac{ \left( xe^{-x} \right) \left( \dfrac{e^{-x}}{x} \right) }{e^{-2x}}dx} + xe^{-x} \int {\dfrac{ \left( e^{-x} \right) \left( \dfrac{e^{-x}}{x} \right) }{e^{-2x}}dx} \\
&= -e^{-x}\int dx+xe^{-x}\int \dfrac{dx}{x} \\
&= -xe^{-x} + xe^{-x}\ln(x)
\end{align*}

La solución particular es

$$y_{p}(x) = -xe^{-x} + xe^{-x}\ln(x)$$

Por lo tanto, la solución general de la ecuación diferencial es

$$y(x) = c_{1}e^{-x} + c_{2}xe^{-x} -xe^{-x} + xe^{-x}\ln(x)$$

$\square$

Un ejemplo más.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -y = 4x^{3}e^{x}$$

Solución: La función $g$ es

$$g(x) = 4x^{3}e^{x}$$

y la ecuación auxiliar es

$$k^{2} -1 = 0$$

De donde $k_{1} = 1$ y $k_{2} = -1$. Entonces, la solución complementaria es

$$y_{c}(x) = c_{1}e^{x} + c_{2}e^{-x}$$

El conjunto fundamental de soluciones esta conformado por

$$y_{1}(x) = e^{x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{-x}$$

Usando estas funciones y sus derivadas calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{x} & e^{-x} \\
e^{x} & -e^{-x} \end{vmatrix} = -2
\end{align*}

El Wronskiano es $W = -2$. Sustituyendo estos resultados directamente en la ecuación (\ref{21}), obtenemos lo siguiente.

\begin{align*}
y_{p}(x) &= -e^{x} \int {\dfrac{(e^{-x})(4x^{3}e^{x})}{-2} dx} + e^{-x} \int {\dfrac{(e^{x})(4x^{3}e^{x})}{-2} dx} \\
&= 2e^{x} \int {x^{3} dx} -2e^{-x} \int {x^{3}e^{2x} dx} \\
&= \dfrac{1}{2}x^{4}e^{x} -2e^{-x} \int {x^{3}e^{2x} dx}
\end{align*}

La integral que nos falta se puede resolver por partes tomando $u = x^{2}$ y $v^{\prime} = e^{2x}$. Resolviendo la integral obtendremos lo siguiente.

$$\int {x^{3}e^{2x} dx} = \dfrac{1}{2}e^{2x}x^{3} -\dfrac{3}{4}e^{2x}x^{2} + \dfrac{3}{4}e^{2x}x -\dfrac{3}{8}e^{2x}$$

Sustituyendo en la solución particular tenemos

\begin{align*}
y_{p}(x) &= \dfrac{1}{2}x^{4}e^{x} -2e^{-x} \left( \dfrac{1}{2}e^{2x}x^{3} -\dfrac{3}{4}e^{2x}x^{2} + \dfrac{3}{4}e^{2x}x -\dfrac{3}{8}e^{2x} \right) \\
&= \dfrac{1}{2}x^{4}e^{x} -x^{3}e^{x} + \dfrac{3}{2}x^{2}e^{x} -\dfrac{3}{2}xe^{x} + \dfrac{3}{4}e^{x}
\end{align*}

Finalmente obtenemos como solución particular a la función

$$y_{p}(x) = e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x + \dfrac{3}{4} \right)$$

Y por lo tanto, la solución general de la ecuación diferencial es

$$y(x) = c_{1}e^{x} + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x + \dfrac{3}{4} \right)$$

Este resultado es válido, sin embargo se puede simplificar más, ya que se puede reescribir a la solución como

$$y(x) = e^{x} \left( c_{1} + \dfrac{3}{4} \right) + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x \right)$$

y definir la constante $C_{1} = c_{1} + \dfrac{3}{4}$ para finalmente escribir la solución como

$$y(x) = C_{1} e^{x} + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x \right)$$

$\square$

Variación de parámetros en ecuaciones de orden superior

Este método se puede generalizar a ecuaciones de orden $n$ aunque, por su puesto, los cálculos se vuelven más extensos.

A continuación mostraremos el panorama general para ecuaciones diferenciales de orden $n$ y mostraremos los resultados para el caso $n = 3$ que nos mostrará la forma en que aumenta la complejidad de los cálculos.

La ecuación de orden $n$ es su forma estándar es

$$\dfrac{d^{n}y}{dx^{n}} + P_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + P_{1}(x) \dfrac{dy}{dx} + P_{0}(x) y = g(x) \label{22} \tag{22}$$

Si la solución complementaria de (\ref{22}) es

$$y_{c}(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{23} \tag{23}$$

Entonces una solución particular debe ser

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) + \cdots + k_{n}(x)y_{n}(x) \label{24} \tag{24}$$

Análogo a las ecuaciones (\ref{10}) y (\ref{11}), las derivadas $\dfrac{dk_{i}}{dx} = k^{\prime}_{i}$ con $i = 1, 2, \cdots, n$ se determinan del sistema de $n$ ecuaciones

\begin{align*}
y_{1}k^{\prime}_{1} + y_{2}k^{\prime}_{2} + \cdots + y_{n}k^{\prime}_{n} &= 0 \\
y^{\prime}_{1}k^{\prime}_{1} + y^{\prime}_{2}k^{\prime}_{2} + \cdots + y^{\prime}_{n}k^{\prime}_{n} &= 0 \\
\vdots \\
y^{(n -1)}_{1}k^{\prime}_{1} + y^{(n -1)}_{2}k^{\prime}_{2} + \cdots + y^{(n-1)}_{n}k^{\prime}_{n} &= g(x) \label{25} \tag{25}
\end{align*}

Al igual que el caso de segundo orden, las primeras $n -1$ ecuaciones del sistema son suposiciones que se hacen para simplificar la ecuación resultante de sustituir la solución (\ref{24}) en la ecuación (\ref{22}).

Usando la regla de Cramer para resolver el sistema se obtiene que

$$\dfrac{dk_{i}}{dx} = \dfrac{W_{i}}{W}; \hspace{1cm} i = 1, 2 , \cdots, n \label{26} \tag{26}$$

Donde $W$ es el Wronskiano del conjunto fundamental $\{ y_{1}(x), y_{2}(x), \cdots, y_{n}(x) \}$ y $W_{i}$ es el determinante que se obtiene de remplazar la $i$-ésima columna del Wronskiano por la columna formada por el lado derecho de (\ref{25}), es decir, la columna que consta de $(0, 0, \cdots, g(x))$.

Para que quede más claro lo anterior, en el caso $n = 3$ las $\dfrac{dk_{i}}{dx}$, $i = 1, 2, 3$ quedan como

$$\dfrac{dk_{1}}{dx} = \dfrac{W_{1}}{W}, \hspace{1cm} \dfrac{dk_{2}}{dx} = \dfrac{W_{2}}{W}, \hspace{1cm} \dfrac{dk_{3}}{dx} = \dfrac{W_{3}}{W} \label{27} \tag{27}$$

Donde

$$W = \begin{vmatrix}
y_{1} & y_{2} & y_{3} \\
y^{\prime}_{1} & y^{\prime}_{2} & y^{\prime}_{3} \\
y^{\prime \prime}_{1} & y^{\prime \prime}_{2} & y^{\prime \prime}_{3}
\end{vmatrix} \label{28} \tag{28}$$

y

\begin{align*}
W_{1} = \begin{vmatrix}
0 & y_{2} & y_{3} \\
0 & y^{\prime}_{2} & y^{\prime}_{3} \\
g(x) & y^{\prime \prime}_{2} & y^{\prime \prime}_{3}
\end{vmatrix}, \hspace{1cm} W_{2} = \begin{vmatrix}
y_{1} & 0 & y_{3} \\
y^{\prime}_{1} & 0 & y^{\prime}_{3} \\
y^{\prime \prime}_{1} & g(x) & y^{\prime \prime}_{3}
\end{vmatrix}, \hspace{1cm} W_{3} = \begin{vmatrix}
y_{1} & y_{2} & 0 \\
y^{\prime}_{1} & y^{\prime}_{2} & 0 \\
y^{\prime \prime}_{1} & y^{\prime \prime}_{2} & g(x)
\end{vmatrix}
\end{align*}

Habrá que integrar las ecuaciones de (\ref{27}) para obtener las funciones $k_{i}$, $i = 1, 2, 3$ y así obtener la solución particular

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) + k_{3}(x)y_{3}(x) \label{29} \tag{29}$$

Notemos que usando esta notación, los resultados (\ref{17}) y (\ref{19}) del caso $n = 2$ se pueden escribir como

$$\dfrac{dk_{1}}{dx} = \dfrac{W_{1}}{W} = -\dfrac{y_{2}g(x)}{W} \hspace{1cm} y \hspace{1cm} \dfrac{dk_{2}}{dx} = \dfrac{W_{2}}{W} = \dfrac{y_{1}g(x)}{W} \label{30} \tag{30}$$

Donde

\begin{align*} W = \begin{vmatrix}
y_{1} & y_{2} \\
y^{\prime}_{1} & y^{\prime}_{2}
\end{vmatrix}, \hspace{1cm} W_{1} = \begin{vmatrix}
0 & y_{2} \\
g(x) & y^{\prime}_{2}
\end{vmatrix} \hspace{1cm} y \hspace{1cm} W_{2} = \begin{vmatrix}
y_{1} & 0 \\
y^{\prime}_{1} & g(x)
\end{vmatrix} \label{31} \tag{31}
\end{align*}

Realicemos un ejemplo con una ecuación de orden $3$.

Ejemplo: Resolver la ecuación diferencial de tercer orden

$$\dfrac{d^{3}y}{dx^{3}} + \dfrac{dy}{dx} = \tan(x)$$

Solución: La función $g$ es

$$g(x) = \tan(x)$$

y la ecuación auxiliar es

$$k^{3} + k = k(k^{2} + 1) = 0$$

De donde $k_{1} = 0$, $k_{2} = i$ y $k_{3} = -i$. Dos raíces son complejas conjugadas con $\alpha = 0$ y $\beta = 1$. La primer raíz nos indica que la forma de una solución es

$$y_{1}(x) = e^{k_{1}x} = 1$$

mientras que las dos raíces restantes nos indican dos solución de la forma

$$y_{2}(x) = e^{\alpha x} \cos(\beta x) = \cos(x)$$

y

$$y_{3}(x) = e^{\alpha x} \sin(\beta x) = \sin(x)$$

Por lo tanto, la solución complementaria de la ecuación diferencial es

$$y_{c}(x) = c_{1} + c_{2} \cos(x) + c_{3} \sin(x)$$

Como vimos, el conjunto fundamental de soluciones es $\{ y_{1} = 1, y_{2} = \cos(x) , y_{3} = \sin(x) \}$, las primeras y segundas derivadas correspondientes son

$$\dfrac{dy_{1}}{dx} = 0, \hspace{1cm} \dfrac{dy_{2}}{dx} = -\sin(x), \hspace{1cm} \dfrac{dy_{3}}{dx} = \cos(x)$$

y

$$\dfrac{d^{2}y_{1}}{dx^{2}} = 0, \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} = -\cos(x), \hspace{1cm} \dfrac{d^{2}y_{3}}{dx^{2}} = -\sin(x)$$

Ahora calculemos los determinantes correspondientes, el primero de ellos es el Wronskiano

$$W = \begin{vmatrix}
1 & \cos(x) & \sin(x) \\
0 & -\sin(x) & \cos(x) \\
0 & -\cos(x) & -\sin(x)
\end{vmatrix} = \sin^{2}(x) + \cos^{2}(x) = 1$$

Para el resto de determinantes, tenemos

$$W_{1} = \begin{vmatrix}
0 & \cos(x) & \sin(x) \\
0 & -\sin(x) & \cos(x) \\
\tan(x) & -\cos(x) & -\sin(x)
\end{vmatrix} = \tan(x) \left[ \cos^{2}(x) + \sin^{2}(x) \right] = \tan(x)$$

$$W_{2} = \begin{vmatrix}
1 & 0 & \sin(x) \\
0 & 0 & \cos(x) \\
0 & \tan(x) & -\sin(x)
\end{vmatrix} = -\cos(x) \tan(x) = -\sin(x)$$

y

$$W_{3} = \begin{vmatrix}
1 & \cos(x) & 0 \\
0 & -\sin(x) & 0 \\
0 & -\cos(x) & \tan(x)
\end{vmatrix} = -\sin(x) \tan(x) = -\dfrac{\sin^{2}(x)}{\cos(x)}$$

Sustituyendo estos resultados en (\ref{27}), obtenemos

$$\dfrac{dk_{1}}{dx} = \tan(x), \hspace{1cm} \dfrac{dk_{2}}{dx} = -\sin(x), \hspace{1cm} \dfrac{dk_{3}}{dx} = -\dfrac{\sin^{2}(x)}{\cos(x)}$$

Procedemos a integrar cada ecuación (sin considerar constantes) para obtener las funciones que buscamos.

La primer integral es común,

$$k_{1}(x) = \int{\tan(x) dx} = -\ln|\cos(x)|$$

La segunda integral es directa

$$k_{2}(x) = -\int{\sin(x) dx} = \cos(x)$$

Mientras que para la tercer integral si se requiere de un mayor cálculo.

\begin{align*}
k_{3}(x) &= -\int{\dfrac{\sin^{2}(x)}{\cos(x)} dx} \\
&= -\int{\dfrac{1 -\cos^{2}(x)}{\cos(x)} dx} \\
&= -\int{\dfrac{1}{\cos(x)} dx} + \int{\cos(x) dx} \\
\end{align*}

Por un lado

$$-\int{\dfrac{1}{\cos(x)} dx} = -\int{\sec(x) dx} = -\ln|\tan(x) + \sec(x)|$$

por otro lado,

$$\int{\cos(x) dx} = \sin(x)$$

entonces

$$k_{3}(x) = -\ln|\tan(x) + \sec(x)| + \sin(x)$$

Ahora que conocemos las funciones incógnita concluimos que la solución particular de la ecuación diferencial es

\begin{align*}
y_{p}(x) &= -\ln|\cos(x)|(1) + \cos(x) [\cos(x)] + \left[ -\ln|\tan(x) + \sec(x)| + \sin(x) \right] (\sin(x)) \\
&= -\ln|\cos(x)| + \cos^{2}(x) -\sin(x) \ln|\tan(x) + \sec(x)| + \sin^{2}(x) \\
&= -\ln|\cos(x)| -\sin(x) \ln|\tan(x) + \sec(x)| \\
\end{align*}

Por lo tanto, la solución general de la ecuación diferencial de tercer orden es

$$y(x) = c_{1} + c_{2} \cos(x) + c_{3} \sin(x) -\ln|\cos(x)| -\sin(x) \ln|\tan(x) + \sec(x)|$$

$\square$

Como podemos notar, los cálculos se hacen más extensos, sin embargo los pasos a seguir son los mismos para cualquier orden.

El método de variación de parámetros, a diferencia del método de coeficientes indeterminados, tiene la ventaja de que siempre produce una solución de la ecuación diferencial independientemente de la forma de la función $g(x)$, siempre y cuando se pueda resolver la ecuación homogénea asociada. Además, el método de variación de parámetros es aplicable a ecuaciones diferenciales lineales con coeficientes variables.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de las siguientes ecuaciones diferenciales.
  • $\dfrac{d^{2}y}{dx^{2}} -9\dfrac{dy}{dx} = 18x^{2}e^{9x}$
  • $\dfrac{d^{2}y}{dx^{2}} + 9y = 18e^{x} \sin(x)$
  • $4 \dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + y = e^{x/2}\sqrt{1 -x^{2}}$
  1. Resolver las siguientes ecuaciones diferenciales para las condiciones iniciales dadas.
  • $\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} = 12e^{4x}(x + 1); \hspace{1cm} y(0) = 0, \hspace{0.6cm} y^{\prime}(0) = 4$
  • $\dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} -6y = 10e^{x} \sin(x); \hspace{1cm} y(0) = \dfrac{2}{17}, \hspace{0.6cm} y^{\prime}(0) = 0$
  1. Obtener la solución general de las siguientes ecuaciones diferenciales de tercer orden. Simplificar la forma de la solución redefiniendo las constantes.
  • $\dfrac{d^{3}y}{dx^{3}} + 4 \dfrac{dy}{dx} = \sec(2x)$
  • $\dfrac{d^{3}y}{dx^{3}} + \dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -y = 2e^{-x}$

Más adelante…

Hemos concluido con el estudio de las ecuaciones diferenciales lineales de orden superior con coeficientes constantes.

Lo que sigue es estudiar este mismo tipo de ecuaciones, pero en el caso en el que los coeficientes no son constantes, es decir, son coeficientes variables. Estas ecuaciones suelen ser mucho más difícil de resolver, sin embargo existe un tipo de ecuación especial, conocida como ecuación de Cauchy – Euler, que contiene coeficientes variables, pero que su método de resolución es bastante similar a lo que hemos desarrollado en el caso de coeficientes constantes, pues su resolución involucra resolver una ecuación auxiliar. En la siguiente entrada estudiaremos dicha ecuación.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Ecuaciones lineales no homogéneas de segundo orden – Método de coeficientes indeterminados

Por Omar González Franco

No es que no puede ver la solución. Es que no puede ver el problema.
– GK Chesterton

Introducción

En la entrada anterior estudiamos las ecuaciones diferenciales de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = 0 \label{1} \tag{1}$$

Con $a$, $b$ y $c$ constantes reales. Vimos que, una vez que hemos determinado la ecuación auxiliar, las soluciones están dadas de acuerdo al valor del discriminante $\Delta = b^{2} -4ac$.

En esta entrada estudiaremos este mismo tipo de ecuaciones diferenciales, pero en el caso no homogéneo, es decir, ecuaciones de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = g(x) \label{2} \tag{2}$$

Con $a$, $b$, $c$ constantes y $g(x) \neq 0$.

Ya sabemos que, en general, para resolver una ecuación diferencial no homogénea de la forma

$$a_{n} \dfrac{d^{n}y}{dx^{n}} + a_{n -1} \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{1} \dfrac{dy}{dx} + a_{0}y = g(x) \label{3} \tag{3}$$

debemos hacer dos cosas. Encontrar la función complementaria $y_{c}(x)$ que corresponde a la solución general de la ecuación homogénea asociada de (\ref{3}) y posteriormente encontrar la solución particular $y_{p}(x)$ de dicha ecuación. Una vez obtenidas, la solución general de (\ref{3}) será la superposición

$$y(x) = y_{c}(x) + y_{p}(x)$$

En la entrada anterior vimos como resolver el caso homogéneo de este tipo de ecuaciones cuando los coeficientes son constantes, por lo que en esta entrada nos ocuparemos de desarrollar un método que nos permita obtener soluciones particulares.

Un primer método para resolver este tipo de ecuaciones se conoce como método de coeficientes indeterminados.

Dentro de este método existen al menos dos caminos desde una perspectiva diferente, uno de ellos es conocido como método de superposición y se desarrolla desde el punto de vista del principio de superposición para ecuaciones no homogéneas, mientras que un segundo método utiliza el concepto de operadores diferenciales anuladores y se conoce como método del anulador. El segundo método no lo estudiaremos en este curso, pero puedes investigar acerca de él si lo deseas.

Coeficientes indeterminados – Método de superposición

La idea fundamental de este método consiste en hacer una conjetura acerca de la forma que debe tener la solución particular $y_{p}(x)$, esta intuición esta motivada por el tipo de funciones que constituyen a la función $g(x)$ de (\ref{3}). Debido a que la solución de cierta manera depende de la forma de $g(x)$, es que este método se ve limitado a cierto tipo de funciones que componen a $g(x)$.

Como lo hemos venido haciendo, desarrollaremos esta teoría para el caso de ecuaciones de segundo orden ya que al aumentar el orden aumenta la complejidad en los cálculos, pero la idea se mantiene.

La ecuación a resolver es (\ref{2}), esto es

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = g(x)$$

Este método se puede aplicar sólo en el caso el que se cumple lo siguiente.

  • Los coeficientes $a$, $b$ y $c$ son constantes y,
  • $g(x)$ es una constante $c$, una función polinomial, una función exponencial $e^{\alpha x}$, una función seno o coseno $(\sin(\beta x)$ o $\cos(\beta x))$ o sumas infinitas y productos de estas funciones.

De acuerdo al segundo punto, este método no es aplicable a funciones como

$$g(x) = \ln(x); \hspace{1cm} g(x) = \dfrac{1}{x}; \hspace{1cm} g(x) = \tan(x); \hspace{1cm} g(x) = \arcsin(x)$$

etcétera. En cambio, es aplicable a funciones como

$$g(x) = P_{n}(x) = a_{n}x^{n} + a_{n -1}x^{n -1} + \cdots + a_{1}x + a_{0}$$

$$g(x) = P_{n}(x) e^{\alpha x}; \hspace{1cm} g(x) = P_{n}(x) e^{\alpha x} \sin(\beta x); \hspace{1cm} y \hspace{1cm} g(x) = P_{n}(x) e^{\alpha x} \cos(\beta x)$$

donde $n$ es un número entero no negativo que indica el grado del polinomio y $\alpha$ y $\beta$ son números reales.

Lo importante a considerar en este método es que el conjunto de funciones que consiste en constantes, polinomios, exponenciales, senos y cosenos tiene la notable propiedad de que las derivadas de sus sumas y productos vuelven a ser funciones de este mismo estilo y debido a que la combinación lineal $a \dfrac{d^{2}y_{p}}{dx^{2}} + b \dfrac{dy_{p}}{dx} + cy_{p}$ debe ser idéntica a la función $g(x)$ es razonable suponer que la solución particular $y_{p}(x)$ tiene la misma forma que $g(x)$.

Ahora que hemos motivado la noción de este método desarrollemos la teoría que nos permite determinar las soluciones de ecuaciones diferenciales lineales de segundo orden no homogéneas con coeficientes constantes (\ref{2}).

Comencemos con el caso en el que la función $g(x)$ es un polinomio.

$g(x)$ es un polinomio

Supongamos que la función $g(x)$ es un polinomio de grado $n$ de la forma

$$g(x) = a_{n}x^{n} + a_{n -1}x^{n -1} + \cdots + a_{1}x + a_{0} = \sum_{k = 0}^{n}a_{k}x^{k} \label{4} \tag{4}$$

con $a_{k}$, $k = 0, 1, 2, \cdots, n$ constantes.

Buscamos la solución particular $y_{p}(x)$, tal que

$$a \dfrac{d^{2}y_{p}}{dx^{2}} + b \dfrac{dy_{p}}{dx} + cy_{p} = \sum_{k=0}^{n}a_{k}x^{k} \label{5} \tag{5}$$

Como mencionamos anteriormente, vamos a suponer que la solución particular tiene la misma forma que $g(x)$ así, en este caso, $y_{p}(x)$ será también un polinomio de grado $n$.

$$y_{p}(x) = A_{n}x^{n} + A_{n -1}x^{n -1} + \cdots + A_{1}x + A_{0} = \sum_{k = 0}^{n}A_{k}x^{k} \label{6} \tag{6}$$

con $A_{k}$, $k = 0, 1, 2, \cdots, n$ constantes. Calculemos la primera y segunda derivada y sustituyamos en la ecuación (\ref{5}).

$$\dfrac{dy_{p}}{dx} = \sum_{k = 1}^{n} kA_{k}x^{k -1} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{p}}{dx^{2}} = \sum_{k = 2}^{n}k(k -1)A_{k}x^{k -2}$$

Si desglosas las sumas notarás la razón y la importancia de que el valor de $k$ comience en $1$ y en $2$ en la suma de la primera y la segunda derivada respectivamente. Más adelante trabajaremos con series y mencionaremos con mayor detalle este tipo de situaciones.

Sustituyendo en la ecuación diferencial (\ref{5}) se tiene lo siguiente.

$$a \sum_{k = 2}^{n} k(k -1)A_{k}x^{k -2} + b \sum_{k = 1}^{n}k A_{k}x^{k -1} + c \sum_{k = 0}^{n}A_{k}x^{k} = \sum_{k = 0}^{n}a_{k}x^{k} \label{7} \tag{7}$$

Para que se cumpla la igualdad los coeficientes de cada $x^{k}$, $k = 0, 1, \cdots, n$, tienen que ser iguales. Para que resulte más intuitivo el cómo igualar los coeficientes vamos a reescribir la ecuación (\ref{7}) desglosando las sumas.

\begin{align*}
a \left[ 2A_{2} + 6A_{3}x + 12A_{4}x^{2} + \cdots + n(n -1)A_{n}x^{n -2} \right] \\
+ b \left[ A_{1} + 2A_{2}x + 3A_{3}x^{2} + \cdots + (n -1)A_{n -1}x^{n -2} + n A_{n}x^{n -1} \right] \\
+ c \left[ A_{0} + A_{1}x + A_{2}x^{2} + \cdots + A_{n -2}x^{n -2} + A_{n -1}x^{n -1} + A_{n}x^{n} \right] \\
= a_{0} + a_{1}x + a_{2}x^{2} + \cdots + a_{n -2}x^{n -2} + a_{n -1}x^{n -1} + a_{n}x^{n}
\end{align*}

Ahora si resulta directo igualar los coeficientes de cada $x^{k}$, $k = 0, 1, \cdots, n$. Para que se cumpla la ecuación (\ref{7}) se deben cumplir las siguientes relaciones.

\begin{align*}
2aA_{2} + bA_{1} + cA_{0} &= a_{0} \\
6aA_{3} + 2bA_{2} + cA_{1} &= a_{1} \\
12aA_{4} + 3bA_{3} + cA_{2} &= a_{2} \\
\vdots \\
n(n -1)aA_{n} + (n -1)bA_{n -1} + cA_{n -2} &= a_{n -2} \\
nbA_{n} +c A_{n -1} &= a_{n -1} \\
c A_{n} &= a_{n}
\end{align*}

Lo que tenemos es un sistema de $n + 1$ ecuaciones. Si $c \neq 0$, de la última relación se obtiene

$$A_{n} = \dfrac{a_{n}}{c}$$

De la penúltima relación se obtiene

$$A_{n -1} = \dfrac{a_{n-1} -nbA_{n}}{c}$$

En donde ya se conoce el valor de $A_{n}$, y así sucesivamente, de manera que seremos capaces de determinar todos los valores $A_{k}$, $k = 0, 1, \cdots, n$ y por tanto, obtendremos la solución particular $y_{p}(x)$ dada en (\ref{6}).

El paso fundamental en este método es suponer que la solución particular $y_{p}(x)$ tiene la misma forma que la función $g(x)$, pero debemos ser cuidadosos con ello, por ejemplo, si ocurre que $c = 0$ y suponemos que $y_{p}(x)$ es un polinomio de grado $n$, entonces la expresión $a\dfrac{d^{2}y_{p}}{dx^{2}}+b\dfrac{dy_{p}}{dx}$ será una expresión de grado $n -1$, pero estará igualada a $g(x)$ que es una expresión de grado $n$ y esto no puede ocurrir. Para solucionar esto será necesario considerar a $y_{p}(x)$ como un polinomio de grado $n + 1$, esto es

$$y_{p}(x) = x (A_{n}x^{n} + A_{n -1}x^{n -1} + \cdots + A_{1}x + A_{0}) \label{8} \tag{8}$$

De esta manera la expresión $a\dfrac{d^{2}y_{p}}{dx^{2}}+b\dfrac{dy_{p}}{dx}$ sí será de grado $n$ y por tanto podremos igualar coeficientes con $g(x)$ y así obtener los valores $A_{k}$, $k = 1, 2 \cdots, n$, y con ello la solución particular $y_{p}(x)$.

Finalmente, si $b = c = 0$ tendremos la ecuación

$$a\dfrac{d^{2}y_{p}}{dx^{2}} = g(x)$$

la cual se puede resolver integrando un par de veces con respecto a $x$.

Realicemos un ejemplo.

Ejemplo: Determinar la solución particular $y_{p}(x)$ de la ecuación diferencial

$$9\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + y = 9 -x^{3}$$

Solución: En este caso la función $g$ es

$$g(x) = 9 -x^{3}$$

Corresponde a un polinomio de grado $n = 3$ y como $c = 1 \neq 0$ vamos a suponer que la solución particular es también un polinomio de grado $3$.

Importante, aunque en la función $g$ no estén los términos con $x$ y $x^{2}$ en la solución sí debemos considerarlos.

De acuerdo a (\ref{6}), la solución particular debe tener la siguiente forma.

$$y_{p}(x) = A_{3}x^{3} + A_{2}x^{2} + A_{1}x + A_{0}$$

Calculemos la primera y segunda derivada para sustituir en la ecuación diferencial.

$$\dfrac{dy_{p}}{dx} = 3A_{3}x^{2} + 2A_{2}x + A_{1} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{p}}{dx^{2}} = 6A_{3}x + 2A_{2}$$

Sustituyamos.

$$(54A_{3}x + 18A_{2}) -(18A_{3}x^{2} + 12A_{2}x + 6A_{1}) + (A_{3}x^{3} + A_{2}x^{2} + A_{1}x + A_{0}) = 9 -x^{3}$$

Agrupemos términos semejantes.

$$A_{3}x^{3} + (-18A_{3} + A_{2})x^{2} + (54A_{3} -12A_{2} + A_{1})x + (18A_{2} -6A_{1} + A_{0}) = 9 -x^{3}$$

Observemos que la función $g$ la podemos escribir como

$$g(x) = -1x^{3} + 0x^{2} + 0x + 9$$

Esto nos permitirá igualar los coeficientes de cada $x^{k}$, $k = 0, 1, 2, 3$.

\begin{align*}
A_{3} &= -1\\
-18A_{3} + A_{2} &= 0 \\
54A_{3} -12A_{2} + A_{1} &= 0 \\
18A_{2} -6A_{1} + A_{0} &= 9
\end{align*}

Resolviendo el sistema de ecuaciones obtendremos que

$$A_{3} = -1, \hspace{1cm} A_{2} = -18, \hspace{1cm} A_{1} = -162 \hspace{1cm} y \hspace{1cm} A_{0} = -639$$

Por lo tanto, la solución particular de la ecuación diferencial es

$$y_{p}(x) = -x^{3} -18x^{2} -162x -639$$

$\square$

Puedes comprobar que efectivamente es solución de la ecuación diferencial. Por otro lado, notemos que en el ejemplo hemos obtenido sólo la solución particular $y_{p}(x)$. Aplicando lo visto en la entrada anterior, de tarea moral determina la solución complementaria $y_{c}(x)$ que corresponde a la solución de la ecuación homogénea asociada

$$9\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + y = 0$$

para así finalmente obtener la solución general

$$y(x) = y_{c}(x) + y_{p}(x)$$

Ahora veamos que ocurre cuando la función $g(x)$ es una función exponencial o el producto de un polinomio con una función exponencial.

$g(x)$ es producto de un polinomio y una función exponencial

Antes de desarrollar la teoría para este caso veamos una situación que nos muestra que no siempre la solución particular debe tener la misma forma que la función $g(x)$.

Supongamos que queremos obtener la solución particular de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -5\dfrac{dy}{dx} + 4y = 8e^{x}$$

Se puede suponer razonablemente una solución particular de la forma

$$y_{p}(x) = Ae^{x}$$

Con $A$ una constante por determinar. Las primeras dos derivadas de esta función son

$\dfrac{dy_{p}}{dx} = Ae^{x} = \dfrac{d^{2}y_{p}}{dx^{2}}$

Al sustituir en la ecuación diferencial da como resultado la expresión contradictoria

$$0 = 8e^{x}$$

Esto nos muestra que se hizo una conjetura equivocada para $y_{p}(x)$. Lo que sucede es que la solución complementaria

$$y_{c}(x) = c_{1}e^{x} + c_{2}e^{4x}$$

ya contiene nuestra suposición $Ae^{x}$. Esto significa que $e^{x}$ es una solución de la ecuación diferencial homogénea asociada y un múltiplo constante $Ae^{x}$ cuando se sustituye en la ecuación diferencial necesariamente da cero.

Como lo vemos en este ejemplo, la solución particular que propongamos no debe ser una función que ya este contenida en la solución complementaria. A continuación desarrollaremos un método que nos permite obtener la forma de la solución particular cuando la función $g(x)$ esta constituida por un polinomio y una función exponencial.

Supongamos que la función $g(x)$ es el producto de un polinomio con una función exponencial.

$$g(x) = \left( a_{n}x^{n} + a_{n -1}x^{n -1} + \cdots + a_{1}x + a_{0} \right) e^{\alpha x} = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) e^{\alpha x} \label{9} \tag{9}$$

Con $\alpha$ una constante distinta de cero, ya que en caso de serlo regresamos al caso anterior. En esta ocasión la ecuación diferencial a resolver es

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) e^{\alpha x} \label{10} \tag{10}$$

Manteniendo la esencia del método, vamos a suponer que la solución particular tiene la forma de la función $g(x)$. Supongamos que la solución particular es de la forma

$$y_{p}(x) = e^{\alpha x} h(x)$$

Con $h(x)$ una función continua y derivable en el intervalo de solución. Lo que haremos será determinar la forma de la función $h(x)$, para ello vamos a calcular las derivadas correspondientes y sustituir en la ecuación diferencial (\ref{10}).

$$\dfrac{dy_{p}}{dx} = e^{\alpha x} \dfrac{dh}{dx} + \alpha e^{\alpha x}h \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{p}}{dx^{2}} = e^{\alpha x} \dfrac{d^{2}h}{dx^{2}} + 2 \alpha e^{\alpha x} \dfrac{dh}{dx} + \alpha^{2}e^{\alpha x}h$$

Sustituyendo en la ecuación diferencial.

$$a \left[ e^{\alpha x} \dfrac{d^{2}h}{dx^{2}} + 2 \alpha e^{\alpha x} \dfrac{dh}{dx} + \alpha^{2}e^{\alpha x}h \right] + b \left[ e^{\alpha x} \dfrac{dh}{dx} + \alpha e^{\alpha x}h \right] + c\left( e^{\alpha x}h \right) = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) e^{\alpha x}$$

Como $e^{\alpha x} \neq 0$ $\forall x \in \mathbb{R}$, podemos cancelar la exponencial de todos los términos y reordenar para obtener la siguiente expresión.

$$a \dfrac{d^{2}h}{dx^{2}} + \left( 2 \alpha a + b \right) \dfrac{dh}{dx} + \left( a \alpha^{2} + b \alpha + c \right) h = \sum_{k = 0}^{n}a_{k}x^{k} \label{11} \tag{11}$$

Lo que obtuvimos es una ecuación diferencial de segundo orden con coeficientes constantes en donde el lado derecho de la ecuación corresponde a una función polinomial, es decir, hemos reducido el problema al primer caso. Podemos aplicar lo visto anteriormente para obtener la forma de la solución $h(x)$. Consideremos los siguientes casos.

  • $a \alpha^{2} + b \alpha + c \neq 0$

Al considerar este caso lo que podemos proponer es que la función $h(x)$ sea un polinomio de grado $n$, esto es

$$h(x) = A_{n}x^{n} + A_{n -1}x^{n -1} + \cdots + A_{1}x + A_{0} = \sum_{k = 0}^{n}A_{k}x^{k}$$

De esta manera ambos lados de la ecuación (\ref{11}) serán expresiones de grado $n$ y podremos igualar coeficiente a coeficiente, tal como lo hicimos en el caso anterior. Por lo tanto, la solución particular de la ecuación diferencial (\ref{10}) es

$$y_{p}(x) = \left( \sum_{k = 0}^{n}A_{k}x^{k} \right) e^{\alpha x} \label{12} \tag{12}$$

  • $a \alpha^{2} + b \alpha + c = 0$ y $2 \alpha a + b \neq 0$

En este caso, por el mismo argumento que en el caso en el que $g(x)$ es sólo un polinomio de grado $n$, debemos asegurarnos de que la combinación lineal $a \dfrac{d^{2}h}{dx^{2}} + \left( 2 \alpha a + b \right) \dfrac{dh}{dx}$ sea una expresión de grado $n$, por lo que será necesario que $h(x)$ sea un polinomio de grado $n + 1$. La propuesta para $h(x)$ es que sea de la forma

$$h(x) = x \left( A_{n}x^{n} + A_{n -1}x^{n -1} + \cdots + A_{1}x + A_{0} \right) = x \left( \sum_{k = 0}^{n}A_{k}x^{k} \right)$$

Por lo tanto, para este caso la solución particular es la siguiente.

$$y_{p}(x) = x \left( \sum_{k = 0}^{n}A_{k}x^{k} \right) e^{\alpha x} \label{13} \tag{13}$$

  • $a \alpha^{2} + b \alpha + c = 0$ y $2\alpha a + b = 0$

Siguiendo el mismo razonamiento, en este caso la solución particular debe ser

$$y_{p}(x) = x^{2} \left( \sum_{k = 0}^{n}A_{k}x^{k} \right) e^{\alpha x} \label{14} \tag{14}$$

Ahora que conocemos las posibles formas de las soluciones particulares, vamos a resolver la ecuación que nos genero conflicto.

Ejemplo: Hallar la solución particular $y_{p}(x)$ de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -5\dfrac{dy}{dx} + 4y = 8e^{x}$$

Solución: Supongamos que la solución tiene la forma

$$y_{p}(x) = h(x)e^{x}$$

En este caso $\alpha = 1$. Las derivadas correspondientes son

$$\dfrac{dy_{p}}{dx} = \dfrac{dh}{dx}e^{x} + he^{x} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{p}}{dx^{2}} = \dfrac{d^{2}h}{dx^{2}} e^{x} + 2\dfrac{dh}{dx} e^{x} + he^{x}$$

Sustituyamos en la ecuación diferencial.

$$\left( \dfrac{d^{2}h}{dx^{2}} e^{x} + 2\dfrac{dh}{dx} e^{x} + he^{x} \right) -5 \left( \dfrac{dh}{dx}e^{x} + he^{x} \right) + 4he^{x} = 8e^{x}$$

Cancelando la exponencial y reordenando los términos obtenemos la siguiente ecuación para $h(x)$.

$$\dfrac{d^{2}h}{dx^{2}} -3\dfrac{dh}{dx} = 8$$

Como no aparece explícitamente la función $h(x)$, pero sí su primer derivada, esto nos obliga a proponer como solución un polinomio de grado $1$, ya que en el lado derecho de la ecuación tenemos un polinomio de grado cero (una constante). Propongamos

$$h(x) = Ax$$

Derivando obtenemos

$$\dfrac{dh}{dx} = A \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}h}{dx^{2}} = 0$$

Sustituyendo en la ecuación de $h$, obtenemos

$$-3A = 8$$

De donde $A = -\dfrac{8}{3}$. Por lo tanto, la solución particular de la ecuación diferencial dada es

$$y_{p}(x) = -\dfrac{8}{3}xe^{x}$$

$\square$

Realicemos un ejemplo más.

Ejemplo: Hallar la solución particular $y_{p}(x)$ de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} -6y = -5e^{2x}$$

Solución: En este caso

$$g(x) = -5e^{2x}$$

y podemos identificar que $a = 1, b = 1, c = -6$ y $\alpha = 2$. Podemos directamente sustituir en la ecuación (\ref{11}), pero es conveniente no memorizarla sino realizar el procedimiento que nos permite llegar a ella.

Proponemos la solución

$$y_{p}(x) = h(x) e^{2x}$$

La primera y segunda derivada están dadas como

$$\dfrac{dy_{p}}{dx} = e^{2x}\dfrac{dh}{dx} + 2e^{2x}h \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = e^{2x}\dfrac{d^{2}h}{dx^{2}} + 4e^{2x}\dfrac{dh}{dx} +4e^{2x}h$$

Sustituimos en la ecuación diferencial.

$$\left( e^{2x}\dfrac{d^{2}h}{dx^{2}} + 4e^{2x}\dfrac{dh}{dx} +4e^{2x}h \right) + \left( e^{2x}\dfrac{dh}{dx} + 2e^{2x}h \right) -6e^{2x}h = -5e^{2x}$$

Cancelando la exponencial de todos los términos y reordenando obtenemos la expresión correspondiente a (\ref{11}).

$$\dfrac{d^{2}h}{dx^{2}} + 5\dfrac{dh}{dx} = -5$$

Notamos que el lado derecho de la ecuación es una constante que, estrictamente hablando, corresponde a un polinomio de grado cero. Por otro lado, en la ecuación diferencial no aparece explícitamente la función $h$, pero sí sus derivadas, en particular la primer derivada, esto nos indica que $h$ debe ser un polinomio de grado $1$ para que efectivamente la expresión $\dfrac{d^{2}h}{dx^{2}} + 5\dfrac{dh}{dx}$ sea de grado cero. Tomando en cuenta esto podemos establecer que la forma de $h$ debe ser

$$h(x) = Ax$$

Así, la solución particular será

$$y_{p}(x) = Axe^{2x}$$

Si regresamos a la teoría desarrollada nos damos cuenta que la solución particular tiene justamente la forma de la ecuación (\ref{13}) para $n = 0$, ya que estamos en el caso en el que $a \alpha^{2} + b \alpha + c = 0$ y $2 \alpha a + b \neq 0$.

Determinemos el valor del coeficiente $A$ considerando la función $h(x) = Ax$, calculando las derivadas se tiene que

$$\dfrac{dh}{dx} = A \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}h}{dx^{2}} = 0$$

Sustituyendo en la ecuación diferencial de $h$, tenemos

$$0 + 5A = -5$$

De donde $A = -1$, así

$$h(x) = -x$$

y por lo tanto, la solución particular de la ecuación diferencial es

$$y_{p}(x) = -xe^{2x}$$

$\square$

De tarea moral determina la solución complementaria del ejemplo para así obtener la solución general

$$y(x) = y_{c}(x) + y_{p}(x)$$

Finalmente veamos que ocurre si la función $g(x)$ es una función seno, coseno o el producto de un polinomio con alguna de estas funciones trigonométricas.

Caso en el que g(x) es producto de un polinomio y una función seno o coseno

Consideremos nuevamente el polinomio

$$P(x) = a_{n}x^{n} + a_{n -1}x^{n -1} + \cdots + a_{1}x + a_{0} = \sum_{k = 0}^{n}a_{k}x^{k}$$

El tipo de ecuación que queremos resolver es de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b\dfrac{dy}{dx} + cy = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \cos(\beta x) \label{15} \tag{15}$$

O bien,

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \sin(\beta x) \label{16} \tag{16}$$

Con $\beta$ una constante. Para resolver este tipo de ecuaciones es conveniente considerar la siguiente propiedad.

$$e^{i\beta x} = \cos (\beta x) + i \sin(\beta x) \label{17} \tag{17}$$

Con $i^{2} = -1$. Y consideremos la ecuación diferencial

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) e^{i \beta x} \label{18} \tag{18}$$

Que podemos escribir como

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \cos (\beta x) + i \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \sin(\beta x) \label{19} \tag{19}$$

Supongamos que la función

$$z(x) = u(x) + i v(x) \label{20} \tag{20}$$

es solución de la ecuación diferencial (\ref{19}). Consideremos el operador polinomial

$$\mathcal{L} = a \dfrac{d^{2}}{dx^{2}} + b\dfrac{d}{dx} + c \label{21} \tag{21}$$

de manera que podamos reescribir a la ecuación (\ref{19}) como

$$\mathcal{L}[z] = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \cos(\beta x) + i \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \sin(\beta x) \label{22} \tag{22}$$

Pero notemos que

$$\mathcal{L}[z] = \mathcal{L}[u + iv] = \mathcal{L}[u] + i \mathcal{L}[v] \label{23} \tag{23}$$

Comparando las ecuaciones (\ref{22}) y (\ref{23}) deducimos que

$$\mathcal{L}[u] = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \cos(\beta x) \label{24} \tag{24}$$

y

$$\mathcal{L}[v] = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \sin(\beta x) \label{25} \tag{25}$$

Es decir, la parte real $Re(z) = u(x)$ es solución de la ecuación

$$a \dfrac{du^{2}}{dx^{2}} + b \dfrac{du}{dx} + cu = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \cos(\beta x) \label{26} \tag{26}$$

y la parte imaginaria $Im(z) = v(x)$ es solución de la ecuación

$$a \dfrac{dv^{2}}{dx^{2}} + b \dfrac{dv}{dx} + cv = \left( \sum_{k = 0}^{n}a_{k}x^{k} \right) \sin(\beta x) \label{27} \tag{27}$$

Realicemos un par de ejemplos en el que veamos cómo obtener las funciones $u(x)$ o $v(x)$ de la solución (\ref{20}).

Ejemplo: Determinar la solución particular $y_{p}(x)$ de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -\dfrac{3}{2}\dfrac{dy}{dx} -y = 3 \cos(x)$$

Solución: La ecuación que queremos resolver es de la forma (\ref{15}), pero es conveniente sustituir la función coseno por la función compleja $e^{ix}$ para resolver la ecuación en la forma (\ref{18}) con $\beta = 1$. Haciendo la sustitución, la ecuación que intentaremos resolver será

$$\dfrac{d^{2}y}{dx^{2}} -\dfrac{3}{2}\dfrac{dy}{dx} -y = 3 e^{ix}$$

Ahora tenemos una ecuación en la que el lado derecho corresponde al producto de un polinomio de grado cero con una función exponencial, esto nos indica que podemos proponer una solución de la forma

$$z(x) = h(x)e^{ix}$$

Las derivadas son

$$\dfrac{dz}{dx} = e^{ix}\dfrac{dh}{dx} + ie^{ix}h \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}z}{dx^{2}} = e^{ix}\dfrac{d^{2}h}{dx^{2}} + 2ie^{ix}\dfrac{dh}{dx} -e^{ix}h$$

Sustituimos en la ecuación diferencial.

$$\left( e^{ix}\dfrac{d^{2}h}{dx^{2}} + 2ie^{ix}\dfrac{dh}{dx} -e^{ix}h \right) -\dfrac{3}{2} \left( e^{ix}\dfrac{dh}{dx} + ie^{ix}h \right) -\left( he^{ix} \right) = 3 e^{ix}$$

Cancelando las exponenciales de todos los términos y reordenando, obtenemos

$$\dfrac{d^{2}h}{dx^{2}} + \left( 2i -\dfrac{3}{2} \right) \dfrac{dh}{dx} + \left( -2 -\dfrac{3}{2}i \right)h = 3$$

Es claro que la forma de la función $h$ debe ser la de un polinomio de grado cero, ya que es el tipo de función que tenemos en el lado derecho de la ecuación. Digamos que

$$h(x) = A$$

Ambas derivadas son cero, por lo que al sustituir en la ecuación diferencial para $h$ obtenemos que

$$\left( -2 -\dfrac{3}{2}i \right)A = 3$$

Para despejar a la constante $A$ vamos a multiplicar ambos lados de la ecuación por el número complejo conjugado $\left( -2 +\dfrac{3}{2}i \right)$.

\begin{align*}
\left( -2 +\dfrac{3}{2}i \right) \left( -2 -\dfrac{3}{2}i \right)A &= \left( -2 +\dfrac{3}{2}i \right)3 \\
\dfrac{25}{4}A &= -6 +\dfrac{9}{2}i \\
A &= -\dfrac{24}{25} + \dfrac{18}{25}i
\end{align*}

Como $h(x) = A$, entonces

$$h(x) = -\dfrac{24}{25} + \dfrac{18}{25}i$$

Sustituyendo en la solución, tenemos

\begin{align*}
z(x) &= \left( -\dfrac{24}{25} + \dfrac{18}{25}i \right) e^{ix} \\
&= \left( -\dfrac{24}{25} + \dfrac{18}{25}i \right) \left( \cos(x) + i \sin(x) \right) \\
&= \left( -\dfrac{24}{25} \cos(x) -\dfrac{18}{25} \sin(x) \right) + i \left( -\dfrac{24}{25} \sin(x) + \dfrac{18}{25} \cos(x) \right)
\end{align*}

Si

$$z(x) = u(x) +iv(x)$$

notamos que

$$Re(z) = u(x) = -\dfrac{24}{25} \cos(x) -\dfrac{18}{25} \sin(x)$$

y

$$Im(z) = v(x) = -\dfrac{24}{25} \sin(x) + \dfrac{18}{25} \cos(x)$$

Ya que en la ecuación original esta presente la función coseno, de acuerdo a $(\ref{26})$, la solución de la ecuación será la función $u(x)$, es decir, la parte real de la función $z(x)$. Por lo tanto, la solución particular es

$$y_{p}(x) = -\dfrac{24}{25} \cos(x) -\dfrac{18}{25} \sin(x)$$

$\square$

Realicemos un ejemplo más.

Ejemplo: Hallar la solución particular $y_{p}(x)$ de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 4y = 12 \sin(2x)$$

Solución: La ecuación a resolver es de la forma (\ref{16}), pero es conveniente sustituir la función seno por la función compleja $e^{2ix}$ para resolver la ecuación en la forma (\ref{18}) con $\beta = 2$. Haciendo la sustitución, la ecuación que intentaremos resolver será

$$\dfrac{d^{2}y}{dx^{2}} + 4y = 12 e^{2ix}$$

Como tenemos una ecuación en la que el lado derecho corresponde al producto de un polinomio de grado cero con una función exponencial, entonces podemos suponer una solución de la forma

$$z(x) = h(x)e^{2ix}$$

Las derivadas son

$$\dfrac{dz}{dx} = e^{2ix}\dfrac{dh}{dx} + 2ie^{2ix}h \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}z}{dx^{2}} = e^{2ix}\dfrac{d^{2}h}{dx^{2}} + 4ie^{2ix}\dfrac{dh}{dx} -4e^{2ix}h$$

Sustituimos en la ecuación diferencial.

$$\left( e^{2ix}\dfrac{d^{2}h}{dx^{2}} + 4ie^{2ix}\dfrac{dh}{dx} -4e^{2ix}h \right) + 4\left( he^{2ix} \right) = 12 e^{2ix}$$

Cancelando las exponenciales de todos los términos y reordenando, obtenemos

$$\dfrac{d^{2}h}{dx^{2}} + 4i \dfrac{dh}{dx} = 12$$

Es claro que la forma de la función $h$ debe ser la de un polinomio de grado $1$, pues dicha función no aparece explícitamente en el lado izquierdo de la ecuación, pero sí su primer derivada que es la que determina el grado más alto de la ecuación y queremos que sea de grado cero ya que es el grado de la función que tenemos en el lado derecho. Supongamos que

$$h(x) = Ax$$

La primer derivada es

$$\dfrac{dh}{dx} = A$$

y la segunda derivada es cero, al sustituir en la ecuación diferencial para $h$ obtenemos que

$$\left( 4i \right)A = 12$$

De donde $A = -3i$. Entonces

$$h(x) = -3ix$$

y por tanto

$$z(x) = -3ixe^{2ix}$$

Vemos que

\begin{align*}
z(x) &= \left( -3ix \right) \left( \cos(2x) + i \sin(2x) \right) \\
&= \left( 3x \sin(2x) \right) + i \left(-3x \cos(2x) \right)
\end{align*}

Si

$$z(x) = u(x) + i v(x)$$

notamos que

$$Re(z) = u(x) = 3x \sin(2x)$$

y

$$Im(z) = v(x) = -3x \cos(2x)$$

Debido a que en la ecuación original esta presente la función seno, de acuerdo a $(\ref{27})$, la solución de la ecuación será la función $v(x)$, es decir, la parte imaginaria de la función $z(x)$. Por lo tanto, la solución particular es

$$y_{p}(x) = -3x \cos(2x)$$

$\square$

Como pudimos notar, éste método de resolución requiere, en buena medida, de nuestra intuición para proponer la forma correcta de la solución.

A lo largo de esta entrada hemos desarrollado la teoría que nos permite proponer una solución adecuada, sin embargo existen distintas variantes de opciones para la función $g(x)$ y por tanto para la solución particular $y_{p}(x)$. A continuación mostraremos los resultados generales que nos permiten proponer una solución particular dada una función $g(x)$.

Resultados generales

Como mencionamos al inicio de esta entrada, en la ecuación (\ref{2}) la función $g(x)$ puede ser un polinomio, una exponencial, una función seno o coseno o el producto entre estas funciones. De manera general diremos que la función $g(x)$ puede tener la siguiente forma.

$$g(x) = e^{\alpha x} \left[ P_{n}(x) \cos(\beta x) + Q_{m}(x) \sin(\beta x) \right] \label{28} \tag{28}$$

Donde $\lambda = \alpha \pm i\beta$ es raíz de la ecuación auxiliar y $P_{n}(x)$ y $Q_{m}(x)$ son los polinomios en $x$ de grado $n$ y $m$ respectivamente.

$$P_{n}(x) = \sum_{k = 0}^{n}a_{k}x^{k} \hspace{1cm} y \hspace{1cm} Q_{m}(x) = \sum_{k = 0}^{m}b_{k}x^{k}$$

Lo que buscamos es una solución particular de la forma

$$y_{p}(x) = x^{s} e^{\alpha x} \left[ p_{r}(x) \cos(\beta x) + q_{r}(x) \sin(\beta x) \right] \label{29} \tag{29}$$

Donde $r = \max(n, m)$, $p_{r}(x)$ y $q_{r}(x)$ son polinomios en $x$ de grado $r$, cuyos coeficientes están indeterminados, dados como

$$p_{r}(x) = \sum_{k = 0}^{r}A_{k}x^{k} \hspace{1cm} y \hspace{1cm} q_{r}(x) = \sum_{k = 0}^{r}B_{k}x^{k}$$

y $s$ es la multiplicidad de la raíz $\lambda = \alpha \pm i\beta$ de la ecuación auxiliar. La forma de $y_{p}(x)$ se puede resumir de la siguiente manera:

  1. $g(x) = P_{n}(x)$:
  • Si las raíces de la ecuación auxiliar son distintas de cero, $\lambda_{i} \neq 0, i = 1, 2, \cdots, s$, entonces la forma de la solución particular es

$$y_{p}(x) = p_{n}(x) = \sum_{k = 0}^{n}A_{k}x^{k} \label{30} \tag{30}$$

  • Si alguna raíz es igual a cero, $\lambda _{i} = 0$, entonces la forma de la solución particular es

$$y_{p}(x) = x^{s}p_{n}(x) = x^{s} \left( \sum_{k = 0}^{n}A_{k}x^{k} \right) \label{31} \tag{31}$$

  1. $g(x) = P_{n}(x) e^{\alpha x}$:
  • Si $\alpha$ no es raíz, entonces la forma de la solución particular es

$$y_{p}(x) = p_{n}(x) e^{\alpha x} = \left( \sum_{k = 0}^{n}A_{k}x^{k} \right) e^{\alpha x} \label{32} \tag{32}$$

  • Si $\alpha $ es raíz repetida $s$ veces (de orden $s$), entonces la forma de la solución particular es

$$y_{p}(x) = x^{s} p_{n}(x)e^{\alpha x} = x^{s} \left( \sum_{k = 0}^{n}A_{k}x^{k} \right) e^{\alpha x} \label{33} \tag{33}$$

  1. $g(x) = P_{n}(x) \cos(\beta x) + Q_{m}(x) \sin(\beta x)$:
  • Si $\pm i \beta$ no son raíces y $r= \max(n, m)$, entonces la forma de la solución particular es

$$y_{p}(x) = p_{r}(x) \cos(\beta x) + q_{r}(x) \sin(\beta x) \label{34} \tag{34}$$

  • Si $\pm i \beta$ son raíces de orden $s$ y $r = \max(n, m)$, entonces la forma de la solución particular es

$$y_{p}(x) = x^{s} \left[ p_{r}(x) \cos(\beta x) + q_{r}(x) \sin(\beta x) \right] \label{35} \tag{35}$$

  1. $g(x) = e^{\alpha x} \left[ P_{n}(x) \cos(\beta x) + Q_{m}(x) \sin(\beta x) \right]$:
  • Si $\alpha \pm i\beta$ no son raíces, entonces la forma de la solución particular es

$$y_{p}(x) = e^{\alpha x} \left[p_{r}(x) \cos(\beta x) + q_{r}(x) \sin(\beta x) \right] \label{36} \tag{36}$$

  • Si $\alpha \pm i\beta$ son raíces de orden $s$, entonces la forma de la solución particular es

$$y_{p}(x) = x^{s}e^{\alpha x} \left[ p_{r}(x) \cos(\beta x) + q_{r}(x) \sin(\beta x) \right] \label{37} \tag{37}$$

Este método es conocido como método de superposición y la razón es porque los resultados anteriores se aplican a cada sumando de la función $g(x)$. Veamos un ejemplo.

Ejemplo: Determinar la forma de la solución particular de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -9 \dfrac{dy}{dx} +14y = 3x^{2} -5 \sin(2x) + 7xe^{6x}$$

Solución: La función $g$ es

$$g(x) = 3x^{2} -5 \sin(2x) + 7xe^{6x}$$

Al primer sumando

$$g_{1}(x) = 3x^{2}$$

le corresponde una solución de la forma

$$y_{p1}(x) = A_{2}x^{2} + A_{1}x + A_{0}$$

Al segundo sumando

$$g_{2}(x) = -5 \sin(2x)$$

le corresponde una solución de la forma

$$y_{p2}(x) = B_{1} \cos(2x) + B_{0} \sin(2x)$$

Y al tercer sumando

$$g_{3}(x) = 7xe^{6x}$$

le corresponde una solución de la forma

$$y_{p3}(x) = (C_{1}x + C_{0})e^{6x}$$

La solución particular estará dada por la superposición de las tres soluciones correspondientes a los tres sumandos de la función $g(x)$.

\begin{align*}
y_{p}(x) &= y_{p_{1}}(x) + y_{p_{2}}(x) + y_{p_{3}}(x) \\
&= A_{2}x^{2} + A_{1}x + A_{0} + B_{1} \cos(2x) + B_{0} \sin(2x) + (C_{1}x + C_{0})e^{6x}
\end{align*}

En esta suposición ningún término duplica un término de la función complementaria

$$y_{c}(x) = c_{1}e^{2x} + c_{2}e^{7x}$$

De tarea moral determina el valor de los coeficientes para formar la solución general de la ecuación diferencial dada.

$\square$

Concluyamos la entrada con algunos ejemplos más.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 6 \dfrac{dy}{dx} -7y = 3e^{2x} -e^{-x}$$

Solución: En esta ocasión buscamos la solución general, así que debemos encontrar la solución complementaria $y_{c}(x)$ que satisface la ecuación diferencial homogénea asociada.

$$\dfrac{d^{2}y}{dx^{2}} + 6 \dfrac{dy}{dx} -7y = 0$$

La ecuación auxiliar es

$$k^{2} + 6k -7 = 0$$

De donde $k_{1} = 1$ y $k_{2} = -7$. En este caso la multiplicidad es de $s = 1$, es decir no hay raíces repetidas. La solución complementaria es

$$y_{c}(x) = c_{1}e^{x} + c_{2}e^{-7x}$$

La solución particular tiene la forma

$$y_{p}(x) = A_{0}e^{2x} + B_{0}e^{-x}$$

Derivando obtenemos,

$$\dfrac{dy_{p}}{dx} = 2A_{0}e^{2x} -B_{0}e^{-x} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{p}}{dx^{2}} = 4A_{0}e^{2x} + B_{0}e^{-x}$$

Sustituimos en la ecuación no homogénea.

$$(4A_{0}e^{2x} + B_{0}e^{-x}) + 6(2A_{0}e^{2x} -B_{0}e^{-x}) -7(A_{0}e^{2x} + B_{0}e^{-x}) = 3e^{2x} -e^{-x}$$

Reordenando obtenemos,

$$9A_{0}e^{2x} -12B_{0}e^{-x} = 3e^{2x} -e^{-x}$$

De donde

\begin{align*}
9A_{0} &= 3 \\
-12B_{0} &= -1
\end{align*}

Resolviendo obtenemos que

$A_{0} = \dfrac{1}{3} \hspace{1cm} y \hspace{1cm} B_{0} = \dfrac{1}{12}$

Por lo tanto, la solución particular es

$$y_{p}(x) = \dfrac{1}{3}e^{2x} + \dfrac{1}{12}e^{-x}$$

Así, la solución general de la ecuación diferencial corresponde a la superposición de ambas soluciones.

$$y(x) = c_{1}e^{x} + c_{2}e^{-7x} + \dfrac{1}{3}e^{2x} + \dfrac{1}{12}e^{-x}$$

$\square$

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -2\dfrac{dy}{dx} = 2e^{2x} + 4 \cos(2x)$$

Solución: Primero resolvemos la ecuación homogénea asociada

$$\dfrac{d^{2}y}{dx^{2}} -2\dfrac{dy}{dx} = 0$$

para obtener la solución complementaria. La ecuación auxiliar es

$$k^{2} -2k = 0$$

De donde $k_{1} = 0$ y $k_{2} = 2$. La solución complementaria es

$$y_{c}(x) = c_{1} + c_{2}e^{2x}$$

Para el caso no homogéneo notamos que $\alpha = 2$ es raíz de la ecuación auxiliar, por lo que la solución correspondiente al término $2e^{2x}$ esta dada por (\ref{31}) con multiplicidad $s = 1$, entonces la forma de la solución particular es

$$y_{p}(x) = A_{0}xe^{2x} + B_{1} \cos(2x) + B_{0} \sin (2x)$$

Derivando obtenemos,

$$\dfrac{dy_{p}}{dx} = A_{0}e^{2x} + 2A_{0}xe^{2x} -2B_{1}\sin(2x) + 2B_{0} \cos(2x)$$

y

$$\dfrac{d^{2}y_{p}}{dx^{2}} = 2A_{0}e^{2x} + 2A_{0}e^{2x} + 4A_{0}xe^{2x} -4B_{1} \cos(2x) -4B_{0} \sin(2x)$$

Sustituyendo en la ecuación diferencial y reordenando los términos se obtiene la relación

$$2A_{0}e^{2x} + (-4B_{1} -4B_{0}) \cos(2x) + (-4B_{0} + 4B_{1}) \sin(2x) = 2e^{2x} + 4 \cos(2x)$$

De donde

\begin{align*}
2A_{0} &= 2 \\
-4B_{1} -4B_{0} &= 4 \\
-4B_{0} + 4B_{1} &= 0
\end{align*}

Resolviendo obtenemos que

$$A_{0} = 1, \hspace{1cm} B_{1} = -\dfrac{1}{2} \hspace{1cm} y \hspace{1cm} B_{0} = -\dfrac{1}{2}$$

Por lo tanto, la solución particular es

$$y_{p}(x) = xe^{2x} -\dfrac{1}{2} \cos(2x) -\dfrac{1}{2} \sin(2x)$$

Así, la solución general es la superposición de ambas soluciones.

$$y(x) = c_{1} + c_{2}e^{2x} + xe^{2x} -\dfrac{1}{2} \cos(2x) -\dfrac{1}{2} \sin(2x)$$

$\square$

Ejemplo: Determinar la solución particular de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -4y = -12e^{-2x} + 15 \cos(x) + 8x$$

Solución: Para el caso homogéneo tenemos que la ecuación auxiliar es

$$k^{2} -4 = 0$$

Esto es,

$$k^{2} = 2$$

es decir, $k_{1} = 2$ y $k_{2} = -2$. Por tanto, la solución complementaria es

$$y_{c}(x) = c_{1}e^{2x} + c_{2}e^{-2x}$$

Notamos que $\alpha = -2$ es raíz de la ecuación auxiliar, así que la solución particular debe ser de la forma

$$y_{p}(x) = A_{0}xe^{-2x} + B_{1} \cos(x) + B_{0} \sin(x) + C_{1}x + C_{0}$$

Derivando obtenemos

$$\dfrac{dy_{p}}{dx} = A_{0}e^{-2x} -2A_{0}xe^{-2x} -B_{1} \sin(x) + B_{0} \cos(x) + C_{1}$$

y

$$\dfrac{d^{2}y_{p}}{dx^{2}} = -4A_{0}e^{-2x} + 4A_{0}xe^{-2x} -B_{1} \cos(x) -B_{0} \sin(x)$$

Sustituyendo en la ecuación diferencial y reordenando los términos, obtenemos

$$-4A_{0}e^{-2x} -5B_{1} \cos(x) -5B_{0} \sin(x) -4C_{1}x -4C_{0} = -12e^{-2x} + 15 \cos(x) + 8x$$

De donde

\begin{align*}
-4A_{0} &= -12 \\
-5B_{1} &= 15 \\
-5B_{0} &= 0 \\
-4C_{1} &= 8 \\
-4C_{0} &= 0
\end{align*}

Resolviendo se obtiene que

$$A_{0} = 3, \hspace{1cm} B_{1} = -3, \hspace{1cm} B_{0} = 0, \hspace{1cm} C_{1} = -2 \hspace{1cm} y \hspace{1cm} C_{0} = 0$$

Por lo tanto, la solución particular es

$$y_{p}(x) = 3xe^{-2x} -3 \cos(x) -2x$$

Y la solución general

$$y_{p}(x) = c_{1}e^{2x} + c_{2}e^{-2x} + 3xe^{-2x} -3 \cos(x) -2x$$

$\square$

Hasta aquí concluimos con esta entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Hallar la solución general de las siguientes ecuaciones diferenciales.
  • $\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -2y = 3e^{2x} -x^{2}$
  • $\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + y = 4 \cos(3x) -2 \sin(2x)$
  • $\dfrac{d^{2}y}{dx^{2}} + \dfrac{3}{5} \dfrac{dy}{dx} -\dfrac{1}{5} y = \cos(x) + 5x^{2}$
  • $\dfrac{d^{2}y}{dx^{2}} -3 \dfrac{dy}{dx} -9y = 4 \cos(2x) -5e^{-x}$
  • $\dfrac{d^{2}y}{dx^{2}} -3 \dfrac{dy}{dx} -10y = 50 \cos(5x) -7e^{-2x} + 12e^{x} + 20x$
  1. Resolver el siguiente problema con valor inicial.
  • $\dfrac{d^{2}x}{dt^{2}} + \omega^{2} x = F_{0} \sin(\omega t); \hspace{1cm} x(0) = 0; \hspace{0.4cm} x^{\prime}(0) = 0$.
  1. Considerar la ecuación diferencial $$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = e^{\alpha x}$$ con $a$, $b$, $c$ y $\alpha$ constantes. La ecuación auxiliar de la ecuación homogénea asociada es $$ak^{2} + bk + c = 0$$
  • Si $\alpha$ no es una raíz de la ecuación auxiliar, demostrar que se puede encontrar una solución particular de la forma $y_{p}(x) = Ae^{\alpha x}$, donde $$A = \dfrac{1}{a \alpha^{2} + b \alpha + c}$$
  • Si $\alpha$ es una raíz de la ecuación auxiliar de multiplicidad uno, mostrar que se puede encontrar una solución particular de la forma $y_{p}(x) = Axe^{\alpha x}$, donde $$A = \dfrac{1}{2a \alpha + b}$$ Explica cómo se sabe que $\alpha \neq -\dfrac{b}{2a}$.
  • Si $\alpha$ es una raíz de la ecuación auxiliar de multiplicidad dos, demostrar que se puede encontrar una solución particular de la forma $y_{p}(x) = Ax^{2}e^{\alpha x}$, donde $$A = \dfrac{1}{2a}$$

Más adelante…

El método desarrollado en esta entrada es bastante práctico para resolver ecuaciones diferenciales de segundo orden no homogéneas con coeficientes constantes, sin embargo es un método limitado sólo a cierto tipo de funciones $g(x)$.

En la siguiente entrada desarrollaremos un método general que nos permite resolver éste mismo tipo de ecuaciones para cualquier función $g(x)$. Dicho método se conoce como método de variación de parámetros y corresponde a una extensión a orden superior del método desarrollado en la unidad anterior.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Soluciones a ecuaciones diferenciales de orden superior

Por Omar González Franco

Las matemáticas son la música de la razón.
– James Joseph Sylvester

Introducción

En la entrada anterior comenzamos a estudiar los problemas con valores iniciales (PVI) y problemas con valores en la frontera (PVF), ambos para el caso de las ecuaciones diferenciales lineales de orden superior. Vimos también que si $y_{1}, y_{2}, \cdots, y_{k}$ son $k$ soluciones de una ecuación homogénea de $n$-ésimo orden en un intervalo $\delta$, entonces la combinación lineal

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x) \label{1} \tag{1}$$

donde las $c_{i}$, $i = 1, 2, \cdots, k$ son constantes, también es solución en el intervalo $\delta$, este resultado es conocido como principio de superposición y nuestro propósito en esta entrada es estudiar las propiedades de todas estas soluciones donde la independencia lineal de las funciones jugará un papel muy importante en la construcción del conjunto fundamental de soluciones y de la solución general.

Es importante tener presente el concepto de conjunto fundamental de soluciones presentado en la entrada anterior.

Soluciones a ecuaciones diferenciales lineales de orden superior

Estamos interesados en soluciones linealmente independientes de una ecuación diferencial lineal homogénea de orden superior de la forma

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{2} \tag{2}$$

Al intentar responder la pregunta de si el conjunto de $n$ soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de (\ref{2}) es linealmente independiente podemos apelar directamente a la definición de independencia lineal, sin embargo esta pregunta se puede responder de una forma mecánica usando un determinante llamado el Wronskiano.

El Wronskiano es una herramienta que podemos utilizar para determinar si el conjunto de soluciones de la ecuación diferencial (\ref{2}) es un conjunto linealmente independiente y la forma de hacerlo es a través del siguiente teorema conocido como criterio para soluciones linealmente independientes.

Este teorema nos dice que sólo basta mostrar que el Wronskiano es distinto de cero para garantizar que el conjunto de soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ es linealmente independiente y por tanto formará un conjunto fundamental de soluciones.

Al conjunto de soluciones linealmente independiente $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de la ecuación (\ref{2}) se le denomina fundamental porque, así como cualquier vector en $\mathbb{R}^{3}$ se puede expresar como una combinación lineal de los vectores linealmente independientes $\hat{i}, \hat{j}$ y $\hat{k}$, cualquier solución de una ecuación diferencial de la forma (\ref{2}) se puede expresar como una combinación lineal de las $n$ soluciones del conjunto fundamental, podemos decir que las soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ son los bloques básicos para la solución general de la ecuación.

En el siguiente teorema se enuncia la forma general de la solución de la ecuación diferencial (\ref{2}).

Aterricemos estas ideas generales al caso de las ecuaciones diferenciales lineales homogéneas de segundo orden.

Ecuaciones lineales homogéneas de segundo orden

Una ecuación diferencial lineal homogénea de segundo orden es de la forma

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{6} \tag{6}$$

Sobre esta ecuación desarrollaremos la siguiente teoría. Primero definamos el Wronskiano para el caso $n = 2$.

Ahora que conocemos la forma del Wronskiano para $n = 2$, demostremos el teorema de la solución general para el caso $n = 2$.

Demostración: Sea $y(x)$ una solución de la ecuación diferencial (\ref{6}) en el intervalo $\delta$ y sea $x_{0} \in \delta$, tal que

$y(x_{0}) = \alpha \hspace{1cm} y \hspace{1cm} \dfrac{dy}{dx}(x_{0}) = \beta$$

con $\alpha$ y $\beta$ constantes. Supongamos que existen $c_{1}$ y $c_{2}$ constantes tales que

$$\alpha = c_{1}y_{1}(x_{0}) + c_{2}y_{2}(x_{0}) \label{8} \tag{8}$$

y

$$\beta = c_{1} \dfrac{dy_{1}}{dx}(x_{0}) + c_{2} \dfrac{dy_{2}}{dx}(x_{0}) \label{9} \tag{9}$$

esto debido a que por hipótesis $y_{1}(x)$ y $y_{2}(x)$ son soluciones de la ecuación diferencial y por tanto la combinación lineal también lo será. Aplicando el teorema de existencia y unicidad obtenemos que la solución $y(x)$ tiene que ser de la forma

$$y(x) = c_{1}y_{1} + c_{2}y_{2}$$

por lo que nuestro problema se reduce a demostrar que las constantes $c_{1}$ y $c_{2}$ existen.

Si multiplicamos a la ecuación (\ref{8}) por $\dfrac{dy_{2}}{dx}(x_{0})$ y a la ecuación (\ref{9}) por $y_{2}(x_{0})$ obtenemos lo siguiente, respectivamente.

$$\alpha \dfrac{dy_{2}}{dx}(x_{0}) = c_{1}y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) + c_{2}y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \label{10} \tag{10}$$

y

$$\beta y_{2}(x_{0}) = c_{1} y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) + c_{2} y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \label{11} \tag{11}$$

Restémosle a la ecuación (\ref{10}) la ecuación (\ref{11}).

\begin{align*}
\alpha \dfrac{dy_{2}}{dx}(x_{0}) -\beta y_{2}(x_{0}) &= c_{1} y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -c_{1} y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) \\
&= c_{1} \left( y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) \right) \label{12} \tag{12}
\end{align*}

Sabemos que el Wronskiano, en $x = x_{0}$, está definido como

$$W(y_{1}(x_{0}), y_{2}(x_{0})) = y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) \label{13} \tag{13}$$

Por comodidad denotaremos a $W(y_{1}(x_{0}), y_{2}(x_{0}))$ como $W(x_{0})$. Entonces la ecuación (\ref{12}) se puede escribir de la siguiente manera.

$$\alpha \dfrac{dy_{2}}{dx}(x_{0}) -\beta y_{2}(x_{0}) = c_{1} W(x_{0}) \label{14} \tag{14}$$

Debido a que por hipótesis $W(y_{1}, y_{2}) \neq 0$ para toda $x \in \delta$, en particular lo es en $x = x_{0}$, por tanto podemos despejar a la constante $c_{1}$ y así obtener un valor para dicha constante lo que muestra su existencia.

Para obtener la expresión de $c_{2}$ hacemos algo similar, multiplicamos a la ecuación (\ref{8}) por $\dfrac{dy_{1}}{dx}(x_{0})$ y a la ecuación (\ref{9}) por $y_{1}(x_{0})$ y repetimos el mismo procedimiento demostrando así que existe un valor para la constante $c_{2}$.

Como hemos encontrado valores para $c_{1}$ y $c_{2}$, entonces existen y por lo tanto la solución general a la ecuación (\ref{4}) es

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) \label{15} \tag{15}$$

$\square$

Ya hemos definido lo que es el conjunto fundamental de soluciones de una ecuación diferencial de orden $n$, para el caso $n = 2$ lo podemos definir de la siguiente manera.

Así, si encontramos un conjunto fundamental de soluciones $\{ y_{1}(x), y_{2}(x) \}$, entonces

$$W(y_{1}, y_{2}) \neq 0$$

para toda $x \in \delta$ y por tanto

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x)$$

será la solución general de la ecuación diferencial (\ref{4}).

Del criterio para soluciones linealmente independientes se puede hacer notar que cuando $y_{1}, y_{2}, \cdots, y_{n}$ son $n$ soluciones de la ecuación diferencial (\ref{2}) en un intervalo $\delta$, el Wronskiano $W(y_{1}, y_{2}, \cdots, y_{n})$ es siempre igual a cero o nunca es cero en todo $\delta$. Vamos a demostrar este hecho para el caso $n = 2$.

Demostración: Como $y_{1}(x)$ y $y_{2}(x)$ son soluciones de la ecuación (\ref{6}), entonces

$$a_{2}(x) \dfrac{d^{2}y_{1}}{dx^{2}} + a_{1}(x) \dfrac{dy_{1}}{dx} + a_{0}(x)y_{1} = 0 \label{16} \tag{16}$$

y

$$a_{2}(x) \dfrac{d^{2}y_{2}}{dx^{2}} + a_{1}(x) \dfrac{dy_{2}}{dx} + a_{0}(x)y_{2} = 0 \label{17} \tag{17}$$

Si multiplicamos a la ecuación (\ref{16}) por $y_{2}$ y a la ecuación (\ref{17}) por $y_{1}$ obtenemos lo siguiente, respectivamente.

$$y_{2}a_{2}(x) \dfrac{d^{2}y_{1}}{dx^{2}} + y_{2} a_{1}(x) \dfrac{dy_{1}}{dx} + y_{2}a_{0}(x)y_{1} = 0 \label{18} \tag{18}$$

y

$$y_{1}a_{2}(x) \dfrac{d^{2}y_{2}}{dx^{2}} + y_{1}a_{1}(x) \dfrac{dy_{2}}{dx} + y_{1}a_{0}(x)y_{2} = 0 \label{19} \tag{19}$$

A la ecuación (\ref{19}) vamos a restarle la ecuación (\ref{18}).

$$a_{2}(x) \left( y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}} \right) + a_{1}(x) \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}\right) = 0 \label{20} \tag{20}$$

Sabemos que

$$W(y_{1}, y_{2}) = y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}$$

y notemos lo siguiente

\begin{align*}
\dfrac{dW}{dx} &= \dfrac{d}{dx} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}\right) \\
&= \dfrac{dy_{1}}{dx} \dfrac{dy_{2}}{dx} + y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -\dfrac{dy_{2}}{dx} \dfrac{dy_{1}}{dx} -y_{2} \dfrac{d^{2}y_{1}}{dx^{2}} \\
&= y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}}
\end{align*}

Es decir,

$$\dfrac{dW}{dx} = y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}} \label{21} \tag{21}$$

En términos del Wronskiano la ecuación (\ref{20}) se puede escribir como

$$a_{2}(x) \dfrac{dW}{dx} + a_{1}(x) W = 0 \label{22} \tag{22}$$

Como $a_{2}(x) \neq 0$ para toda $x \in \delta$, entonces podemos definir la función

$$P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}$$

tal que la ecuación (\ref{22}) se pueda escribir como

$$\dfrac{dW}{dx} + P(x) W = 0 \label{23} \tag{23}$$

Esta resultado corresponde a una ecuación diferencial lineal homogénea de primer orden y ya sabemos que la solución es de la forma

$$W(x) = ke^{-\int{P(x)} dx}$$

de manera que hay dos posibilidades:

  • Si $k = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} W(x) = 0, \hspace{0.5cm} \forall x \in \delta$
  • Si $k \neq 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} W(x) \neq 0, \hspace{0.5cm} \forall x \in \delta$

$\square$

El criterio para soluciones linealmente independientes nos garantiza que si el Wronskiano es distinto de cero, entonces el conjunto de soluciones es linealmente independiente en $\delta$, lo opuesto es cierto bajo ciertas condiciones, si el Wronskiano es igual a cero, entonces el conjunto de soluciones es linealmente dependiente. Demostremos este hecho.

Demostración: Por hipótesis

$$W(y_{1}(x), y_{2}(x)) = 0$$

$\forall x \in \delta$, es decir

$$y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} = 0 \label{24} \tag{24}$$

Consideremos el siguiente resultado.

$$\dfrac{d}{dx} \left( -\dfrac{y_{1}}{y_{2}} \right) = \dfrac{1}{y^{2}_{2}} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} \right) \label{25} \tag{25}$$

Donde hemos considerado la hipótesis $y_{2} \neq 0$. Si usamos la hipótesis (\ref{24}) obtenemos que

$$\dfrac{d}{dx} \left( -\dfrac{y_{1}}{y_{2}} \right) = 0$$

$\forall x \in \delta$, integrando esta ecuación obtenemos que

$$-\dfrac{y_{1}}{y_{2}} = -k$$

O bien,

$$y_{1}(x) = k y_{2}(x) \label{26} \tag{26}$$

con $k$ una constante. Esto demuestra que $y_{1}$ y $y_{2}$ son linealmente dependientes.

$\square$

Hay que tener muy presentes las hipótesis de este teorema, pues es posible que el Wronskiano sea cero aún cuando las funciones consideradas en un cierto intervalo sean linealmente independientes en él.

Como consecuencia del teorema anterior podemos establecer el criterio para soluciones linealmente independientes en el caso $n = 2$.

Realicemos un ejemplo.

Ejemplo: En la entrada anterior de tarea moral tenías que verificar que las funciones

$$y_{1}(x) = e^{-3x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{4x}$$

forman un conjunto fundamental de soluciones de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -12y = 0$$

en $\delta = (-\infty, \infty)$. Demostremos esto mismo usando los teoremas vistos anteriormente.

Solución: Consideremos las soluciones

$$y_{1}(x) = e^{-3x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{4x}$$

y sus respectivas derivadas

$$\dfrac{dy_{1}}{dx} = -3e^{-3x} \hspace{1cm} y \hspace{1cm} \dfrac{dy_{2}}{dx} = 4e^{4x}$$

Calculemos el Wronskiano.

\begin{align*}
W(y_{1}, y_{2}) = \begin{vmatrix}
e^{-3x} & e^{4x} \\
-3e^{-3x} & 4e^{4x} \\
\end{vmatrix} = e^{-3x}(4e^{4x}) -e^{4x}(-3e^{-3x}) = 7e^{-x} \neq 0
\end{align*}

Como

$$W(y_{1}, y_{2}) = 7 e^{-x} \neq 0$$

entonces $\{ y_{1}(x) = e^{-3x}, y_{2}(x) = e^{4x}\}$ forma un conjunto fundamental de soluciones y la solución general está dada por

$$y(x) = c_{1}e^{-3x} + c_{2}e^{4x}$$

$\square$

Con esto concluimos el estudio de algunas propiedades importantes de las soluciones a la ecuación diferencial lineal homogénea de orden superior, terminemos esta entrada con el estudio del caso no homogéneo.

Ecuaciones no homogéneas

La ecuación diferencial lineal no homogénea de $n$-ésimo orden es

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{27} \tag{27}$$

Nuestro objetivo es obtener la forma general de la solución de la ecuación no homogénea (\ref{27}) y estudiar algunas propiedades de las soluciones.

Si recordamos al operador polinomial

$$\mathcal{L} = a_{n}(x)D^{n} + a_{n -1}(x)D^{n -1} + \cdots + a_{1}(x)D + a_{0}(x) \label{28} \tag{28}$$

la definición anterior implica que

$$\mathcal{L}\{y_{p}\} = g(x) \label{29} \tag{29}$$

Veamos el siguiente resultado.

Demostración: Sea $y(x)$ la combinación lineal

$$y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$$

si aplicamos el operador polinomial, tenemos

\begin{align*}
\mathcal{L} \{y(x)\} &= \mathcal{L} \{c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}\} \\
&= c_{1}\mathcal{L}\{y_{1}\} + c_{2}\mathcal{L}\{y_{2}\} + \cdots + c_{n}\mathcal{L}\{y_{n}\} + \mathcal{L}\{y_{p}\} \\
&= 0 + g(x) \\
&= g(x)
\end{align*}

Ya que $\mathcal{L}\{y_{i}\} = 0$ para cada $i = 1, 2, \cdots, n$ por ser cada $y_{i}$ solución de la ecuación homogénea, mientras que $\mathcal{L}\{y_{p}\} = g(x)$ por ser solución de la ecuación no homogénea. Entonces, como

$$\mathcal{L} \{y(x)\} = g(x)$$

concluimos que la combinación lineal

$$y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$$

es solución de la ecuación diferencial no homogénea.

$\square$

¿Y qué ocurre si las soluciones $y_{1}, y_{2}, \cdots, y_{n}$ forman un conjunto fundamental de soluciones?. La respuesta es que la combinación lineal

$$y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$$

sería la solución general de la ecuación diferencial no homogénea (\ref{27}). Demostremos este resultado.

Demostración: Sea $y(x)$ la solución general de la ecuación no homogénea (\ref{27}) y sea $y_{p}(x)$ una solución particular de la misma ecuación, ambas definidas en el intervalo $\delta$, de manera que

$$\mathcal{L} \{ y(x)\} = \mathcal{L} \{ y_{p}(x)\} = g(x)$$

con $\mathcal{L}$ el operador polinomial (\ref{28}). Nuestro objetivo es encontrar la forma explícita de $y(x)$.

Definamos la función

$$h(x) = y(x) -y_{p}(x) \label{32} \tag{32}$$

y notemos lo siguiente.

\begin{align*}
\mathcal{L} \{ h(x) \} &= \mathcal{L} \{ y(x) -y_{p}(x) \} \\
&= \mathcal{L} \{ y(x) \} -\mathcal{L} \{ y_{p}(x) \} \\
&= g(x) -g(x) \\
&= 0
\end{align*}

Esto es,

$$\mathcal{L} \{ h(x) \} = 0$$

lo que significa que la función $h(x)$ es solución de la ecuación homogénea (\ref{2}) y por el teorema de la solución general de ecuaciones homogéneas podemos establecer que la función $h(x)$ tiene la siguiente forma.

$$h(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{33} \tag{33}$$

Con $\{ y_{1}, y_{2}, \cdots, y_{n} \}$ un conjunto fundamental de soluciones. Sustituyendo (\ref{33}) en (\ref{32}) y despejando a la solución general $y(x)$ obtenemos finalmente que

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) + y_{p}(x)$$

que es lo que queríamos demostrar.

$\square$

La diferencia entre las soluciones $(\ref{30})$ y $(\ref{31})$ es que en $(\ref{31})$ las $y_{i}, i = 1, 2, \cdots, n$ forman un conjunto fundamental de soluciones, es decir, son linealmente independientes entre sí, mientras que en (\ref{30}) no necesariamente forman una conjunto fundamental y sin embargo, también son solución de la ecuación (\ref{27}).

En el caso de las ecuaciones no homogéneas vemos que la solución general corresponde a la suma de la solución general de la ecuación homogénea asociada más una solución particular de la ecuación no homogénea. En este caso no homogéneo la solución general de la ecuación homogénea tiene un nombre particular.

Por tanto, resolver una ecuación lineal no homogénea implica resolver primero la ecuación homogénea asociada para obtener la función complementaria $y_{c}(x)$ y luego se encuentra una solución particular $y_{p}(x)$ de la ecuación no homogénea para finalmente sumarlas

$$y(x) = y_{c}(x) + y_{p}(x) \label{34} \tag{34}$$

Realicemos un ejemplo.

Ejemplo: Probar que la función

$$y(x) = c_{1} e^{2x} + c_{2}x e^{2x} + x^{2} e^{2x} + x -2$$

definida en el intervalo $\delta = (-\infty, \infty)$, es la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2 e^{2x} + 4x -12$$

Solución: Primero probemos que las funciones

$$y_{1} = e^{2x} \hspace{1cm} y \hspace{1cm} y_{2} = x e^{2x}$$

forman un conjunto fundamental de soluciones de la ecuación homogénea asociada

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 0$$

Para ello veamos que $y_{1}$ y $y_{2}$ son soluciones de la ecuación homogénea y que son linealmente independientes, es decir, que $W(y_{1}, y_{2}) \neq 0$. Calculemos las derivadas.

$$y_{1} = e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{dy_{1}}{dx} = 2 e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{1}}{dx^{2}} = 4 e^{2x}$$

$$y_{2} = xe^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{dy_{2}}{dx} = e^{2x} + 2x e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} = 4 e^{2x} + 4x e^{2x}$$

De tarea moral muestra que ambas funciones son solución de la ecuación homogénea asociada, es decir, que

$$\dfrac{d^{2}y_{1}}{dx^{2}} -4 \dfrac{dy_{1}}{dx} + 4y_{1} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} -4 \dfrac{dy_{2}}{dx} + 4y_{2} = 0$$

Ahora probemos que forman un conjunto fundamental de soluciones, para ello calculemos el Wronskiano.

\begin{align*}
W(y_{1}, y_{2}) = \begin{vmatrix}
e^{2x} & xe^{2x} \\
2 e^{2x} & e^{2x} + 2x e^{2x} \\
\end{vmatrix} = e^{2x}(e^{2x} + 2x e^{2x}) -xe^{2x}(2e^{2x}) = e^{4x} \neq 0
\end{align*}

Como $W(y_{1}, y_{2}) \neq 0$, $\forall x \in \delta$, por los teoremas vistos anteriormente concluimos que $\{y_{1} = e^{2x}, y_{2} = x e^{2x} \}$ forma un conjunto fundamental de soluciones de la ecuación homogénea asociada y que la solución general a dicha ecuación es

$$y_{c}(x) = c_{1} e^{2x} + c_{2}x e^{2x}$$

donde el subíndice $c$ indica que es la función complementaria.

Ahora verifiquemos que la función

$$y_{p}(x) = x^{2} e^{2x} + x -2$$

es una solución particular de la ecuación no homogénea. Calculemos la primera y segunda derivada.

$$\dfrac{dy_{p}}{dx} = 2x e^{2x} + 2x^{2} e^{2x} + 1$$

$$\dfrac{d^{2}y_{p}}{dx^{2}} = 2 e^{2x} + 8x e^{2x} + 4x^{2} e^{2x}$$

Sustituyamos en la ecuación diferencial.

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y &= (2 e^{2x} + 8x e^{2x} + 4x^{2} e^{2x}) -4(2x e^{2x} + 2x^{2} e^{2x} + 1) +4(x^{2} e^{2x} + x -2) \\
&= 2e^{2x} + (8x e^{2x} -8x e^{2x}) + (4x^{2} e^{2x} -8x^{2} e^{2x} + 4x^{2} e^{2x}) + 4x -12 \\
&= 2e^{2x} +4x -12
\end{align*}

Esto es,

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} +4x -12$$

que justo corresponde a la ecuación diferencial no homogénea, por lo tanto, efectivamente $y_{p}$ es una solución particular.

Como $\{y_{1} = e^{2x}, y_{2} = x e^{2x} \}$ es un conjunto fundamental de soluciones de la ecuación homogénea asociada y

$$y_{p}(x) = x^{2} e^{2x} + x -2$$

es una solución particular de la ecuación no homogénea, por el teorema de la solución general de ecuaciones no homogéneas concluimos que la función

$$y(x) = c_{1} e^{2x} + c_{2}x e^{2x} + x^{2} e^{2x} + x -2$$

es la solución general de la ecuación no homogénea.

$\square$

Hay algo muy interesante que ocurre en el ejemplo anterior. Mostramos que la función

$$y_{p}(x) = x^{2} e^{2x} + x -2$$

es una solución particular de la ecuación no homogénea

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} +4x -12 = g(x)$$

Sin embargo, si haces los cálculos correspondientes notarás que la función

$$y_{p1}(x) = x^{2} e^{2x}$$

es una solución particular de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} = g_{1}(x)$$

mientras que la función

$$y_{p2}(x) = x -2$$

es una solución particular de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 4x -12 = g_{2}(x)$$

Así, si superponemos las soluciones particulares

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x)$$

obtenemos en la ecuación diferencial la superposición de la funciones

$$g(x) = g_{1}(x) + g_{2}(x)$$

Lo anterior es efecto del principio de superposición para ecuaciones no homogéneas.

Demostración: Sea $\mathcal{L}$ el operador polinomial (\ref{28}) y sean $y_{pi}(x)$, $i = 1, 2, \cdots, k$, soluciones particulares de las ecuaciones no homogéneas

$$\mathcal{L} \{ y_{pi}(x) \} = g_{i}(x)$$

$i = 1, 2, \cdots, k$ respectivamente. Definamos la función

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x)$$

Nuestro objetivo es demostrar que la función $y_{p}(x)$ es una solución particular de la ecuación (\ref{37}), es decir, que se cumple que

$$\mathcal{L} \{ y_{p}(x) \} = g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x)$$

En efecto

\begin{align*}
\mathcal{L} \{ y_{p}(x)\} &= \mathcal{L} \{ y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x) \} \\
&= \mathcal{L} \{ y_{p1}(x) \} + \mathcal{L} \{ y_{p2}(x) \} + \cdots + \mathcal{L} \{ y_{pk}(x) \} \\
&= g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x)
\end{align*}

Con esto queda probado que

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x)$$

es solución de (\ref{37}).

$\square$

Realicemos un último ejemplo.

Ejemplo: Probar que

  • $y_{p1}(x) = -4x^{2} \hspace{0.5cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8$,
  • $y_{p2}(x) = e^{2x} \hspace{0.9cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = 2e^{2x}$,
  • $y_{p3}(x) = xe^{x} \hspace{0.9cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = 2x e^{x} -e^{x}$.

y probar que la superposición

$$y(x) = y_{p1}(x) + y_{p2}(x) + y_{p3}(x) = -4x^{2} + e^{2x} + xe^{x}$$

es una solución de

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8 + 2e^{2x} + 2xe^{x} -e^{x}$$

Solución: Sean

$$g_{1}(x) = -16x^{2} + 24x -8, \hspace{1cm} g_{2}(x) = 2e^{2x} \hspace{1cm} y \hspace{1cm} g_{3}(x) = 2x e^{x} -e^{x}$$

De tarea moral muestra que efectivamente,

$$\dfrac{d^{2}y_{p1}}{dx^{2}} -3\dfrac{dy_{p1}}{dx} + 4y_{p1} = g_{1}(x)$$

$$\dfrac{d^{2}y_{p2}}{dx^{2}} -3\dfrac{dy_{p2}}{dx} + 4y_{p2} = g_{2}(x)$$

$$\dfrac{d^{2}y_{p3}}{dx^{2}} -3\dfrac{dy_{p3}}{dx} + 4y_{p3} = g_{3}(x)$$

Por el principio de superposición para ecuaciones no homogéneas sabemos que la función

$$y(x) = y_{p1}(x) + y_{p2}(x) + y_{p3}(x)$$

es solución de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = g_{1}(x) + g_{2}(x) + g_{3}(x)$$

Por lo tanto, la función

$$y(x) = -4x^{2} + e^{2x} + xe^{x}$$

es solución de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8 + 2e^{2x} + 2xe^{x} -e^{x}$$

Si gustas puedes calcular la primera y segunda derivada de $y(x)$ y verificar la ecuación anterior para asegurarte del resultado.

$\square$

Con esto concluimos nuestro estudio sobre algunas propiedades de las ecuaciones diferenciales lineales de orden superior. En la siguiente entrada conoceremos un primer método para resolver ecuaciones diferenciales de segundo orden.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Dadas las soluciones de las siguientes ecuaciones diferenciales lineales homogéneas de orden superior en el intervalo dado, calcular el Wronskiano para determinar si es un conjunto fundamental de soluciones y en caso de serlo dar la solución general.
  • $x^{3} \dfrac{d^{3}y}{dx^{3}} + 6x^{2} \dfrac{d^{2}y}{dx^{2}} + 4x \dfrac{dy}{dx} -4y = 0$, con soluciones

$\hspace{1cm} y_{1} = x, \hspace{0.6cm} y_{2} = \dfrac{1}{x^{2}}, \hspace{0.6cm} y_{3} = \dfrac{1}{x^{2}} \ln(x); \hspace{1cm} \delta = (0, \infty)$.

  • $\dfrac{d^{4}y}{dx^{4}} + \dfrac{d^{2}y}{dx^{2}} = 0$, con soluciones

$\hspace{1cm} y_{1} = 1, \hspace{0.6cm} y_{2} = x, \hspace{0.6cm} y_{3} = \cos(x), \hspace{0.6cm} y_{4} = \sin(x); \hspace{1cm} \delta = (\infty, \infty)$.

  1. Dadas las soluciones de las siguientes ecuaciones diferenciales lineales no homogéneas de orden superior en el intervalo dado, probar que se trata de la solución general de la ecuación.
  • $\dfrac{d^{2}y}{dx^{2}} -7 \dfrac{dy}{dx} + 10y = 24 e^{x}$, con solución

$\hspace{1cm} y(x) = c_{1} e^{2x} + c_{2} e^{5x} + 6 e^{x}; \hspace{1cm} \delta = (\infty, \infty)$.

  • $2x^{2} \dfrac{d^{2}y}{dx^{2}} + 5x \dfrac{dy}{dx} + y = x^{2} -x$, con solución

$\hspace{1cm} y(x) = c_{1} \dfrac{1}{\sqrt{x}} + c_{2} \dfrac{1}{x} + \dfrac{1}{15}x^{2} -\dfrac{1}{6}x; \hspace{1cm} \delta = (0, \infty)$.

  1. Comprobar que las funciones $$y_{p1}(x) = 3 e^{2x} \hspace{1cm} y \hspace{1cm} y_{p2}(x) = x^{2} + 3x$$ son, respectivamente, soluciones particulares de $$\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = -9 e^{2x} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = 5x^{2} + 3x -16$$
  1. Usando el ejercicio anterior, encontrar la solución particular de las siguientes ecuaciones.
  • $\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = 5x^{2} + 3x -16 -9 e^{2x}$
  • $\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = -10x^{2} -6x +32 + e^{2x}$

Más adelante…

Ahora que ya conocemos algunas propiedades de las ecuaciones diferenciales de orden superior y sus soluciones, en particular de las ecuaciones lineales de segundo orden, es momento de comenzar a desarrollar los distintos métodos de resolución de estas ecuaciones diferenciales.

En la siguiente entrada comenzaremos con un método que permite reducir una ecuación de segundo orden en una ecuación de primer orden, de tal manera que podremos resolverla aplicando alguno de los métodos vistos en la unidad anterior. No es casualidad que dicho método se conozca como método de reducción de orden.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»