Archivo de la etiqueta: Variación de parámetros

Ecuaciones Diferenciales I: Sistemas lineales no homogéneos – Método de variación de parámetros

Las ciencias matemáticas exhiben particularmente orden, simetría
y límites; y esas son las más grandes formas de belleza.
– Aristóteles

Introducción

Ya sabemos resolver sistemas lineales homogéneos con coeficientes constantes, en esta entrada estudiaremos el caso no homogéneo.

Como hemos visto en las dos unidades anteriores, el método de variación de parámetros ha sido fundamental para resolver ecuaciones diferenciales en el caso no homogéneo. Éste mismo método es el que desarrollaremos en esta entrada para resolver sistemas lineales no homogéneos con coeficientes constantes.

Cabe mencionar que en esta entrada utilizaremos bastante el concepto de exponencial de una matriz y el de matriz fundamental de soluciones.

Sistemas lineales homogéneos

El sistema lineal que hemos estudiado es

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} \label{1} \tag{1}$$

Donde $\mathbf{A}$ es una matriz con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Ahora sabemos que la solución general del sistema lineal homogéneo (\ref{1}) es de la forma

$$\mathbf{Y}_{c}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) \label{3} \tag{3}$$

En donde las funciones $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$ son soluciones linealmente independientes del mismo sistema. Usamos el subíndice $c$ debido a que, como antes, al resolver el caso no homogéneo será necesario resolver primero el sistema homogéneo asociado y la solución general de dicho sistema será la solución complementaria del sistema no homogéneo.

Recordemos que la matriz que tiene por columnas a las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ de (\ref{3}) corresponde a la matriz fundamental de soluciones.

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1}(t) & \mathbf{Y}_{2}(t) & \cdots & \mathbf{Y}_{n}(t) \end{pmatrix} = \begin{pmatrix} y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{4} \tag{4}$$

Si definimos el vector de constantes

$$\mathbf{C} = \begin{pmatrix}
c_{1} \\ c_{2} \\ \vdots \\ c_{n}
\end{pmatrix} \label{5} \tag{5}$$

podemos escribir la solución (\ref{3}) como

$$\mathbf{Y}_{c}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} \label{6} \tag{6}$$

Recordemos este resultado para más adelante.

Sistemas lineales no homogéneos

El sistema lineal no homogéneo que intentaremos resolver es de la forma

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G} \label{7} \tag{7}$$

Donde $\mathbf{G} = \mathbf{G}(t)$ es una matriz de $n \times 1$ con componentes dependientes de $t$.

$$\mathbf{G}(t) = \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{8} \tag{8}$$

Dada la forma de la solución general de un sistema lineal homogéneo (\ref{3}), parecería natural pensar que el sistema lineal no homogéneo tiene por solución una función de la forma

$$\mathbf{Y}_{p}(t) = u_{1}(t) \mathbf{Y}_{1}(t) + u_{2}(t) \mathbf{Y}_{2}(t) + \cdots + u_{n}(t) \mathbf{Y}_{n}(t) \label{9} \tag{9}$$

En donde $u_{i}(t)$, $i = 1, 2, \cdots, n$ son funciones escalares de $t$ derivables y las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ forman una matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$. Si definimos el vector

$$\mathbf{U}(t) = \begin{pmatrix}
u_{1}(t) \\ u_{2}(t) \\ \vdots \\ u_{n}(t)
\end{pmatrix} \label{10} \tag{10}$$

Entonces la solución propuesta (\ref{9}) adquiere la forma

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \mathbf{U}(t) \label{11} \tag{11}$$

El método de variación de parámetros nos permitirá obtener la forma del vector $\mathbf{U}(t)$, una vez obtenida podremos formar la solución general del sistema lineal no homogéneo (\ref{7}) que, como siempre, será la superposición de la solución complementaria del sistema lineal homogéneo asociado $\mathbf{Y}_{c}(t)$ más la solución particular del sistema lineal no homogéneo $\mathbf{Y}_{p}(t)$, esto es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t) \label{12} \tag{12}$$

Variación de parámetros

Comencemos a desarrollar el método de variación de parámetros, como mencionamos antes, el objetivo es encontrar la forma explícita del vector (\ref{10}) para formar la solución particular del sistema lineal no homogéneo.

Consideremos la función propuesta (\ref{11}) y derivémosla.

$$\mathbf{Y}_{p}^{\prime}(t) = \hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) \label{13} \tag{13}$$

Si sustituimos (\ref{11}) y (\ref{13}) en el sistema lineal no homogéneo (\ref{7}), se tiene

$$\hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} [\hat{\mathbf{Y}}(t) \mathbf{U}(t)] + \mathbf{G}(t) \label{14} \tag{14}$$

Como $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones sabemos que satisface el sistema homogéneo, es decir,

$$\hat{\mathbf{Y}}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \label{15} \tag{15}$$

Si sustituimos en (\ref{14}) la ecuación queda como

$$\mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \mathbf{G}(t)$$

O bien,

$$\hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{G}(t) \label{16} \tag{16}$$

La matriz fundamental es no singular, de manera que siempre existe su inversa, esto nos permite establecer que

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) \label{17} \tag{17}$$

Esta ecuación es matricial y sabemos que es posible integrar sobre matrices, así que integremos la ecuación anterior con el objetivo de hallar la forma de $\mathbf{U}$.

$$\mathbf{U}(t) = \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{18} \tag{18}$$

Ahora que conocemos la forma de $\mathbf{U}(t)$, sustituimos en la solución propuesta (\ref{11}), de forma que una solución particular del sistema lineal no homogéneo es

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{19} \tag{19}$$

Por lo tanto, de (\ref{6}) y el resultado (\ref{19}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{20} \tag{20}$$

Si $\hat{\mathbf{Y}}(t)$ es la matriz fundamental de soluciones $e^{\mathbf{A} t}$ y considerando que $\hat{\mathbf{Y}}^{-1}(t) = e^{-\mathbf{A} t}$, el resultado anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{C} + e^{\mathbf{A}t} \int e^{-\mathbf{A} t} \mathbf{G}(t) dt \label{21} \tag{21}$$

Problema con valores iniciales

Consideremos el problema con valores iniciales

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G}; \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{22} \tag{22}$$

De nuestro desarrollo anterior consideremos la relación (\ref{17}).

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t)$$

En esta ocasión integremos de $t_{0}$ a $t$ y usemos el teorema fundamental del cálculo.

$$\mathbf{U}(t) = \mathbf{U}(t_{0}) + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{23} \tag{23}$$

Notemos que si aplicamos la condición inicial $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$ sobre la función (\ref{11}), se obtiene

$$\mathbf{Y}_{p}(t_{0}) = \hat{\mathbf{Y}}(t_{0}) \mathbf{U}(t_{0}) = \mathbf{Y}_{0} \label{24} \tag{24}$$

De donde,

$$\mathbf{U}(t_{0}) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} \label{25} \tag{25}$$

Sustituimos este resultado en la ecuación (\ref{23}).

$$\mathbf{U}(t) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{26} \tag{26}$$

Aquí debemos tener cuidado, si sustituimos la función (\ref{26}) en (\ref{11}), se obtiene

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{27} \tag{27}$$

Pero $\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0}$ es una matriz de constantes, digamos

$$\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} = \mathbf{C}$$

Entonces el resultado (\ref{27}) queda como

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{28} \tag{28}$$

Este resultado se parece a la ecuación (\ref{20}), es decir, a pesar de que sustituimos (\ref{26}) en (\ref{11}) esperando obtener la solución particular $\mathbf{Y}_{p}(t)$, en realidad estamos obteniendo la solución general, la solución general del problema de valores iniciales.

Si consideramos nuevamente que $\hat{\mathbf{Y}}(t) = e^{\mathbf{A} t}$, el resultado (\ref{27}) se reduce significativamente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} e^{-\mathbf{A} t_{0}} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{t_{0}}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{29} \tag{29}$$

O bien,

$$\mathbf{Y}(t) = e^{\mathbf{A}(t -t_{0})} \mathbf{Y}_{0} + \int_{t_{0}}^{t}e^{\mathbf{A} (t -s)} \mathbf{G}(s) ds \label{30} \tag{30}$$

Por otro lado, si $t_{0} = 0$, de (\ref{27}) se obtiene que

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(0) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds$$

Pero recordemos que

$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0) \label{31} \tag{31}$$

Entonces la solución anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{32} \tag{32}$$

Si nuestro propósito es determinar la solución general de un sistema lineal no homogéneo (\ref{7}), primero resolvemos el sistema lineal homogéneo asociado para obtener la solución complementaria en la forma (\ref{3}). Con las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ obtenidas formamos una matriz fundamental $\hat{\mathbf{Y}}(t)$, se calcula su inversa y se sustituyen las matrices correspondientes en la solución particular (\ref{19}). Una vez obtenidas ambas soluciones, la solución general del sistema lineal no homogéneo será

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

Sin embargo, si lo que tenemos es un problema de valores iniciales, debemos nuevamente obtener la solución del sistema lineal homogéneo asociado ya que eso es lo que nos permite formar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$, una vez obtenida esta función calculamos su inversa y se sustituyen las matrices correspondientes en la ecuación (\ref{27}), esto nos dará la solución completa del problema de valores iniciales, es decir, no es necesario aplicar las condiciones iniciales en la solución complementaria para obtener los valores de las constantes $c_{1}, c_{2}, \cdots, c_{n}$.

Para concluir con esta entrada realicemos dos ejemplos, en el primero de ellos obtendremos la solución general de un sistema lineal no homogéneo y en el segundo ejemplo resolveremos un problema con valores iniciales. Con estos ejemplos se espera que el método quede claro.

Ejemplo: Obtener la solución general del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
1 \\ -1
\end{pmatrix} e^{t}$$

Solución: Resolvamos primero el sistema homogéneo asociado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y}$$

En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz.

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
-\lambda & 2 \\ -1 & 3 -\lambda
\end{vmatrix} = 0$$

La ecuación característica es

$$\lambda^{2} -3 \lambda + 2 = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios son

$$\lambda_{1} = 1\hspace{1cm} y \hspace{1cm} \lambda_{2} = 2$$

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \begin{pmatrix}
-1 & 2 \\ -1 & 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + 2 k_{2} = 0$$

Es decir, $2 k_{2} = k_{1}$. Elegimos $k_{2} = 1$, entonces $k_{1} = 2$. Por lo tanto el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 2$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
-2 & 2 \\ -1 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + k_{2} = 0$$

Es decir, $k_{1} = k_{2}$. Elegimos $k_{1} = k_{2} = 1$. Por lo tanto, el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Con estos resultados concluimos que la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Para determinar la solución particular $\mathbf{Y}_{p}(t)$, formemos, con el resultado anterior, la matriz fundamental de soluciones (\ref{4}).

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix}$$

Como también requerimos de la matriz inversa, verifica que

$$\hat{\mathbf{Y}}^{-1}(t) = \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix}$$

La matriz $\mathbf{G}$ en este caso es

$$ \mathbf{G}(t) = \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix}$$

Sustituyamos estas matrices en la solución particular (\ref{19}).

\begin{align*}
\mathbf{Y}_{p}(t) &= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix} \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix} dt \\
&= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt
\end{align*}

Resolviendo la integral (sin considerar constantes de integración), se obtiene

$$\int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt = \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix} = \begin{pmatrix}
4t e^{t} + 3e^{t} \\ 2te^{t} + 3e^{t}
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}_{p}(t) =\begin{pmatrix}
4 \\ 2
\end{pmatrix} te^{t} + \begin{pmatrix}
3 \\ 3
\end{pmatrix} e^{t}$$

Por lo tanto, la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix} + \begin{pmatrix}
3 \\ 3
\end{pmatrix}e^{t} + \begin{pmatrix}
4 \\ 2
\end{pmatrix} t e^{t}$$

$\square$

Realicemos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix}$$

Solución: Primero debemos obtener la solución del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y}$$

Ello nos permitirá obtener la matriz fundamental de soluciones. En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz. La ecuación característica se obtendrá de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
1-\lambda & 0 & 0 \\ 2 & 1 -\lambda & -2 \\ 3 & 2 & 1 -\lambda
\end{vmatrix} = 0$$

Desarrollando el determinante obtendremos que

$$(1 -\lambda )(\lambda ^{2} -2 \lambda + 5) = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios de $\mathbf{A}$ son

$$\lambda_{1} = 1 \hspace{1cm} y \hspace{1cm} \lambda_{2} = 1 + 2i, \hspace{1cm} \lambda_{3} = 1 -2i$$

De acuerdo a los valores propios obtenidos, la manera de resolver el sistema homogéneo será aplicando la teoría vista en la entrada sobre valores propios complejos.

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \left[ \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} -\begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \right] \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 2 & 0 & -2 \\ 3 & 2 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema que se obtiene es

\begin{align*}
2 k_{1} -2 k_{3} &= 0 \\
3 k_{1} + 2 k_{2} &= 0
\end{align*}

De este sistema se observa que

\begin{align*}
k_{1} &= k_{3} \\
k_{2} &= -\dfrac{3k_{1}}{2}
\end{align*}

Elegimos $k_{1} = 2 = k_{3}$, de tal manera que $k_{2} = -3$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + 2i$.

Buscamos un vector $\mathbf{K}$, diferente de cero, tal que

$$[\mathbf{A} -(1 + 2i) \mathbf{I}] \mathbf{K} = \begin{pmatrix}
-2i & 0 & 0 \\ 2 & -2i & -2 \\ 3 & 2 & -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-2i k_{1} &= 0 \\
2k_{1} -2i k_{2} -2k_{3} &= 0 \\
3k_{1} + 2k_{2} -2i k_{3} &= 0
\end{align*}

De este sistema se observa que $k_{1} = 0$ y $k_{3} = -ik_{2}$. Elegimos $k_{2} = 1$, de manera que el segundo vector propio sea

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Caso 3: $\lambda_{2} = 1 -2i$.

Sabemos que este caso es el conjugado del caso anterior, por lo que directamente establecemos que el tercer vector propio es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

La solución general del sistema lineal homogéneo asociado, en su forma compleja, es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} + c_{3} e^{(1 -2i) t} \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

Sin embargo esta solución no nos sirve de mucho, pues desearíamos construir la matriz fundamental de soluciones con valores reales. Recordando lo visto en la entrada sobre valores propios complejos, podemos encontrar dos funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$, tal que la solución general sea de la forma

$$\mathbf{Y}_{c}(t) = c_{1} e^{\lambda_{1} t} + c_{2} \mathbf{W}_{1}(t) + c_{3} \mathbf{W}_{2}(t) \label{33} \tag{33}$$

Recordemos que las funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ están dadas por

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] \label{34} \tag{34}$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{35} \tag{35}$$

Consideremos el caso 2 en el que $\lambda_{2} = 1 + 2i$ y

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} $$

De estos resultados obtenemos que $\alpha = 1$, $\beta = 2$ y

$$\mathbf{U} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix}$$

Sustituyamos en la funciones (\ref{34}) y (\ref{35}). Por un lado,

\begin{align*}
\mathbf{W}_{1}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \cos(2t) -\begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \sin(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} -\begin{pmatrix}
0 \\ 0 \\ -\sin(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix}$$

Por otro lado,

\begin{align*}
\mathbf{W}_{2}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \sin(2t) + \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \cos(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

Recordemos que estas funciones también se pueden obtener considerando la identidad de Euler. Del caso 2 la solución que se obtiene es

$$\mathbf{Y}_{2c}(t) = e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Así,

$$\mathbf{W}_{1}(t) = Re \{ \mathbf{Y}_{2c}(t) \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = Im \{ \mathbf{Y}_{2c}(t) \}$$

Usando la identidad de Euler sobre esta solución obtenemos lo siguiente.

\begin{align*}
e^{(1 + 2i)t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} &= e^{t}[\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -i \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] + i e^{t} \left[ \sin(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -\cos(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ \sin(2t)
\end{pmatrix} \right] + ie^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

De donde,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

De esta forma, la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix} \label{36} \tag{36}$$

Esta solución es de la forma (\ref{3}) por lo que la matriz fundamental de soluciones, formada por estos vectores linealmente independientes, es

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t} & e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix}$$

Para obtener la solución del problema con valores iniciales usaremos el resultado (\ref{29}) para $t_{0} = 0$.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{0}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{37} \tag{37}$$

Es decir, consideraremos a la matriz $e^{\mathbf{A} t}$ como la matriz fundamental de soluciones. También es posible usar la relación (\ref{32}) usando la matriz $\hat{\mathbf{Y}}(t)$ antes establecida. ¿Por qué son equivalentes ambas formas?.

Determinemos la matriz $e^{\mathbf{A} t}$ usando la relación (\ref{31}). Si evaluamos $t = 0$ en la matriz $\hat{\mathbf{Y}}(t)$ se obtiene la matriz

$$\hat{\mathbf{Y}}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}$$

Comprueba que la matriz inversa es

$$\hat{\mathbf{Y}}^{ -1}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}^{ -1} = \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix}$$

Sustituyamos en (\ref{31}).

\begin{align*}
e^{\mathbf{A}t} &= \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t}& e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix} \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}
\end{align*}

Por lo tanto, la matriz que consideraremos como matriz fundamental de soluciones es

$$e^{\mathbf{A}t} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}$$

Como también requerimos de la inversa de esta matriz, verifica que

$$e^{-\mathbf{A}t} = e^{-t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) -\sin(2t) & \cos(2t) & \sin(2t) \\ 1 -\dfrac{3}{2} \sin(2t) -\cos(2t) & -\sin(2t) & \cos(2t)
\end{pmatrix}$$

En este caso la matriz $\mathbf{G}(t)$ es

$$\mathbf{G}(t) = \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}$$

Sustituyamos todos estos resultados en la solución (\ref{37}).

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{s} \cos(2s)
\end{pmatrix}ds$$

Por un lado,

$$e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix}$$

De tarea moral, determina las constantes $c_{1}$, $c_{2}$ y $c_{3}$ aplicando los valores iniciales sobre la solución complementaria (\ref{36}). ¿Qué relación tiene tu resultado con la operación anterior?.

Por otro lado,

$$e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} e^{s} \begin{pmatrix}
0 \\ 0 \\ \cos(2s)
\end{pmatrix} = \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix}$$

Sustituimos estas matrices en $\mathbf{Y}(t)$.

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds$$

Resolvamos la integral.

\begin{align*}
\int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds &= \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{t} – \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{0} \\
&= \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4t) \\ \dfrac{t}{2} + \dfrac{\sin(4t)}{8}
\end{pmatrix} -\begin{pmatrix}
0 \\ -\dfrac{1}{8} \\ 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}
\end{align*}

Entonces,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}$$

Ahora realicemos el producto del segundo sumando.

\begin{align*}
e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} &= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ \cos(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) -\sin(2t) \left( \dfrac{4t + \sin(4t)}{8} \right) \\ \sin(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) + \cos(2t) \left( \dfrac{4t + \sin(4t)}{8} \right)
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}
\end{align*}

Así,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}$$

Haciendo las operaciones correspondientes se obtiene finalmente que la solución al problema con valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\left( 1+ \dfrac{1}{2}t \right) \sin(2t) \\ \left( 1 + \dfrac{1}{2}t \right) \cos(2t) + \dfrac{5}{4} \sin(2t)
\end{pmatrix}$$

$\square$

Vemos que este método puede ser bastante largo y complicado, de hecho se puede volver una tarea imposible de hacer a mano si se tienen sistemas con matriz $\mathbf{A}$ de $3 \times 3$ o más. Se recomienda, en la medida de lo posible, usar algún programa computacional para llevar a cabo algunas de las operaciones, lo importante es entender como llevar a cabo el método.

Con esto concluimos lo que corresponde al estudio de los distintos métodos para resolver sistemas lineales. Prácticamente hemos concluido con la unidad 3 del curso.

En las siguientes dos entradas de esta unidad trataremos de justificar los teoremas de existencia y unicidad en el caso de los sistemas lineales, esto con el propósito de justificar toda la teoría desarrollada a lo largo de la unidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de los siguientes sistemas lineales no homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \cos(t) \\ \sin(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 \\ -\dfrac{1}{2} & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \csc(t) \\ \sec(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    e^{t} \\ e^{2t} \\ te^{3t}
    \end{pmatrix}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix} e^{2t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 & -2 \\ 1 & 1 & 1 \\ 2 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 0
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 0 \\ 0
    \end{pmatrix}$

Más adelante…

En la siguiente entrada demostraremos los teoremas de existencia y unicidad para el caso de los sistemas lineales de primer orden con coeficientes constantes homogéneos y no homogéneos y posteriormente, en la última entrada de esta unidad, justificaremos el teorema de existencia y unicidad en el caso general, es decir, para sistemas lineales y no lineales.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Sistemas de ecuaciones lineales no homogéneas. Solución por variación de parámetros

Introducción

En las últimas entradas del curso analizamos a detalle el método de valores y vectores propios para resolver sistemas lineales homogéneos con coeficientes constantes de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$. Revisamos los distintos casos que se pueden presentar, según las raíces del polinomio característico asociado a la matriz $\textbf{A}$. También resolvimos ejemplos para cada caso.

Es turno de enfocarnos en resolver sistemas lineales no homogéneos con coeficientes constantes de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}+\textbf{Q}(t)$, donde $\textbf{Q}(t)$ es un vector de funciones que dependen de $t$. Para esto, utilizaremos el método de variación de parámetros para sistemas lineales, que es una generalización del método que lleva el mismo nombre, y que estudiamos para resolver ecuaciones lineales no homogéneas de orden uno y dos.

Sabemos que la solución general a tales sistemas es de la forma $$\textbf{X}(t)=\textbf{X}_{H}(t)+\textbf{X}_{P}(t)$$ donde $\textbf{X}_{H}(t)$ es la solución general al sistema homogéneo asociado, y $\textbf{X}_{P}(t)$ es una solución particular al sistema no homogéneo. Con ayuda de la función solución $\textbf{X}_{H}(t)$, el método de variación de parámetros nos ayudará a encontrar a $\textbf{X}_{P}(t)$. En efecto, si $$\textbf{X}_{H}(t)=c_{1}\textbf{X}_{1}(t)+c_{2}\textbf{X}_{2}(t)+…+c_{n}\textbf{X}_{n}(t)$$ donde las funciones $\textbf{X}_{i}(t)$ forman un conjunto fundamental de soluciones al sistema homogéneo, entonces supondremos que $$\textbf{X}_{P}(t)= u_{1}(t)\textbf{X}_{1}(t)+u_{2}(t)\textbf{X}_{2}(t)+…+u_{n}(t)\textbf{X}_{n}(t).$$ Si sustituimos $\textbf{X}_{P}(t)$ y su derivada en el sistema no homogéneo, después de realizar el álgebra correspondiente obtendremos un sistema de ecuaciones que tiene a las derivadas de las funciones $u_{i}(t)$ como incógnitas. Si resolvemos tal sistema, podremos encontrar a las funciones $u_{i}(t)$, y por tanto a la solución particular $\textbf{X}_{P}(t)$.

¡Vamos a comenzar!

Método de variación de parámetros para sistemas de ecuaciones lineales no homogéneas

En el primer video desarrollamos el método de variación de parámetros para sistemas lineales con coeficientes constantes. En el segundo video resolvemos un par de sistemas no homogéneos por variación de parámetros.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} 1 & 0\\ 2 & -3 \end{pmatrix}\textbf{X}+\begin{pmatrix} \sin{t}\\ \cos{t}\end{pmatrix}.$$
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} 2 & 1\\ 3 & -2 \end{pmatrix}\textbf{X}+\begin{pmatrix} e^{3t}\\ e^{3t}\end{pmatrix}.$$
  • Resuelve el problema de condición inicial $$\dot{\textbf{X}}=\begin{pmatrix} 1 & 3 & 2\\ -1 & 2 & 1\\ 4 & -1 & 1\end{pmatrix}\textbf{X}+\begin{pmatrix} \sin{t}\\ 0\\ 0\end{pmatrix} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 0\\ 0\end{pmatrix}.$$
  • Encuentra la solución general a la ecuación de segundo orden $$\frac{d^{2}y}{dt^{2}}+2\frac{dy}{dt}+y=3e^{-x}.$$ (Recuerda que podemos transformar una ecuación de orden $n$ en un sistema de $n$ ecuaciones de primer orden).
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} 1 & 1\\ -3 & 5 \end{pmatrix}\textbf{X}+\begin{pmatrix} 0\\ S_{0}(1-\cos{t})\end{pmatrix}.$$ donde $S_{0}$ es una constante.

Más adelante

Con esta entrada terminamos de revisar los métodos más importantes para resolver sistemas de ecuaciones lineales con coeficientes constantes. Estamos a punto de finalizar la tercera unidad, pero aún nos falta demostrar el teorema de existencia y unicidad para sistemas lineales de primer orden con coeficientes continuos. Aunque no hemos vamos a resolver tales sistemas es importante dicho teorema, y es lo que haremos en la siguiente entrada del curso.

¡Hasta la próxima!

Entradas relacionadas

Ecuaciones Diferenciales I: Ecuaciones lineales no homogéneas de segundo orden – Método de variación de parámetros

Las matemáticas son un lugar donde puedes hacer
cosas que no puedes hacer en el mundo real.
– Marcus du Sautoy

Introducción

Con lo que hemos estudiado en las dos últimas entradas somos capaces de resolver ecuaciones diferenciales lineales de segundo orden homogéneas y no homogéneas con coeficientes constantes, es decir, ecuaciones de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = g(x) \label{1} \tag{1}$$

Con $a, b, c$ constantes y $g(x) = 0$ en el caso homogéneo o $g(x) \neq 0$ en el caso no homogéneo, en éste último caso aún estamos limitados a la forma que puede tener la función $g$, pues sabemos resolver las ecuaciones diferenciales en el caso en el que la función $g$ es una constante, una función polinomial, una función exponencial, funciones seno o coseno, o una combinación entre ellas. La pregunta ahora es, ¿cómo resolver este tipo de ecuaciones para cualquier tipo de función $g(x)$?.

En esta entrada desarrollaremos un método que nos permite obtener la solución general independientemente de la forma que tenga la función $g(x)$. A dicho método se le conoce como variación de parámetros.

El nombre de este método resulta familiar. En la unidad anterior desarrollamos éste método para el caso de las ecuaciones diferenciales lineales de primer orden como método alterno al método por factor integrante. Lo que haremos en esta entrada es una adaptación del método de variación de parámetros para el caso en el que las ecuaciones diferenciales son de orden superior, en particular, de segundo orden.

Variación de parámetros

Consideremos la ecuación diferencial

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g_{0}(x) \label{2} \tag{2}$$

Si $a_{2}(x) \neq 0$ para toda $x$ en el intervalo $\delta$ en el que está definida la solución, entonces podemos definir las funciones

$$P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}, \hspace{1cm} Q(x) = \dfrac{a_{0}(x)}{a_{2}(x)} \hspace{1cm} y \hspace{1cm} g(x) = \dfrac{g_{0}(x)}{a_{2}(x)}$$

de manera que la ecuación (\ref{2}) la podemos escribir en su forma estándar como

$$\dfrac{d^{2}y}{dx^{2}} + P(x)\dfrac{dy}{dx} + Q(x)y = g(x) \label{3} \tag{3}$$

En el caso de primer orden se hizo la suposición de que la solución particular era de la forma

$$y_{p}(x) = k(x)y_{1}(x) = k(x) e^{-\int{P(x)dx}}$$

Manteniendo esta idea, en el caso de segundo orden se busca una solución de la forma

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) \label{4} \tag{4}$$

Donde $y_{1}$ y $y_{2}$ forman un conjunto fundamental de soluciones en $\delta$ de la ecuación homogénea asociada a (\ref{3}). Determinemos la primera y segunda derivada de $y_{p}$ para sustituir los resultados en la ecuación diferencial (\ref{3}).

$$\dfrac{dy_{p}}{dx} = k_{1}\dfrac{dy_{1}}{dx} + y_{1}\dfrac{dk_{1}}{dx} + k_{2}\dfrac{dy_{2}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \label{5} \tag{5}$$

y

$$\dfrac{d^{2}y_{p}}{dx^{2}} = k_{1}\dfrac{d^{2}y_{1}}{dx^{2}} + 2\dfrac{dy_{1}}{dx}\dfrac{dk_{1}}{dx} + y_{1}\dfrac{d^{2}k_{1}}{dx^{2}} + k_{2}\dfrac{d^{2}y_{2}}{dx^{2}} + 2\dfrac{dy_{2}}{dx}\dfrac{dk_{2}}{dx} + y_{2}\dfrac{d^{2}k_{2}}{dx^{2}} \label{6} \tag{6}$$

Sustituyendo en (\ref{3}) y reorganizando los términos obtenemos lo siguiente.

\begin{align*}
k_{1} \left[ \dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Q y_{1} \right] + y_{1} \dfrac{d^{2}k_{1}}{dx^{2}} + \dfrac{dk_{1}}{dx} \dfrac{dy_{1}}{dx} + k_{2} \left[ \dfrac{d^{2}y_{2}}{dx^{2}} + P\dfrac{dy_{2}}{dx} + Q y_{2} \right] \\
+ y_{2} \dfrac{d^{2}k_{2}}{dx^{2}} + \dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} + P \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x)
\end{align*}

Como $y_{1}$ y $y_{2}$ son soluciones de la ecuación homogénea asociada, entonces

$$\dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Q y_{1} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} + P\dfrac{dy_{2}}{dx} + Q y_{2} = 0$$

y además notamos que

$$\dfrac{d}{dx} \left[ y_{1}\dfrac{dk_{1}}{dx} \right] = y_{1} \dfrac{d^{2}k_{1}}{dx^{2}} + \dfrac{dk_{1}}{dx} \dfrac{dy_{1}}{dx} \label{7} \tag{7}$$

y

$$\dfrac{d}{dx} \left[ y_{2}\dfrac{dk_{2}}{dx} \right] = y_{2} \dfrac{d^{2}k_{2}}{dx^{2}} + \dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} \label{8} \tag{8}$$

Considerando lo anterior la ecuación diferencial queda como

$$\dfrac{d}{dx} \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + P \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x) \label{9} \tag{9}$$

Nuestro propósito es determinar a las funciones $k_{1}(x)$ y $k_{2}(x)$ de (\ref{4}), esto implica que debemos formar un sistema con dos ecuaciones que debemos resolver para obtener dichas funciones. De acuerdo al resultado obtenido vamos a establecer la restricción de que las funciones $k_{1}$ y $k_{2}$ satisfacen la relación

$$y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} = 0 \label{10} \tag{10}$$

Considerando esto la ecuación se reduce a

$$\dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x) \label{11} \tag{11}$$

Las ecuaciones (\ref{10}) y (\ref{11}) corresponden al sistema de dos ecuaciones que debemos resolver.

Como podemos notar, es un sistema para determinar las derivadas de las funciones $k_{1}$ y $k_{2}$ y no las funciones mismas, esto implica que una vez que determinemos a las derivadas será necesario hacer una integración a cada una de ellas. Resolvamos el sistema.

Multipliquemos la ecuación (\ref{10}) por $\dfrac{dy_{2}}{dx}$ y la ecuación (\ref{11}) por $y_{2}$.

$$y_{1}\dfrac{dk_{1}}{dx} \dfrac{dy_{2}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} = 0 \label{12} \tag{12}$$

$$y_{2} \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + y_{2} \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = y_{2} g(x) \label{13} \tag{13}$$

Si a la ecuación (\ref{12}) le restamos la ecuación (\ref{13}) obtenemos lo siguiente.

$$\dfrac{dk_{1}}{dx} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2} \dfrac{dy_{1}}{dx} \right) = -y_{2}(x)g(x) \label{14} \tag{14}$$

Recordemos que el Wronskiano esta definido como

$$W(y_{1}, y_{2}) = y_{1} \dfrac{dy_{2}}{dx} -y_{2} \dfrac{dy_{1}}{dx} \label{15} \tag{15}$$

Entonces la ecuación (\ref{14}) la podemos escribir como

$$\dfrac{dk_{1}}{dx} \left[ W(y_{1}, y_{2}) \right] = -y_{2}(x)g(x) \label{16} \tag{16}$$

Como $y_{1}$ y $y_{2}$ forman un conjunto fundamental de soluciones de la ecuación homogénea asociada, entonces

$$W(y_{1}, y_{2}) \neq 0$$

Así, de la ecuación (\ref{16}) obtenemos que

$$\dfrac{dk_{1}}{dx} = -\dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} \label{17} \tag{17}$$

Hemos encontrado el valor de la derivada de la función $k_{1}(x)$, integrando obtenemos finalmente que

$$k_{1}(x) = -\int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{18} \tag{18}$$

En un proceso totalmente análogo, si multiplicamos a la ecuación (\ref{10}) por $\dfrac{dy_{1}}{dx}$ y a la ecuación (\ref{11}) por $y_{1}$ y realizamos los mismos pasos obtendremos la ecuación para la derivada de la función $k_{2}(x)$.

$$\dfrac{dk_{2}}{dx} = \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} \label{19} \tag{19}$$

Integrando obtendremos la función que buscamos

$$k_{2}(x) = \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{20} \tag{20}$$

Sustituyendo los resultados (\ref{18}) y (\ref{20}) en la solución particular (\ref{4}) obtenemos finalmente la solución que buscábamos

$$y_{p}(x) = -y_{1}(x) \int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} + y_{2}(x) \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{21} \tag{21}$$

El resultado (\ref{21}) corresponde a la solución particular de la ecuación diferencial (\ref{2}) que, a diferencial del método de coeficientes indeterminados, se aplica para cualquier función $g(x)$, aunque cabe mencionar que si la función $g$ es muy compleja, entonces nos resultará, en algunas ocasiones, complicado resolver las integrales involucradas.

A lo largo del curso hemos motivado a no memorizar las formulas y en su lugar desarrollar el procedimiento del método correspondiente, sin embargo, en esta ocasión se trata de un método muy largo y complicado para usarse cada vez que se intente resolver una ecuación diferencial, por lo que se recomienda seguir los siguientes pasos.

  • Primero se determina la solución complementaria $$y_{c} = c_{1}y_{1} + c_{2}y_{2}$$ de la ecuación diferencial homogénea asociada, esto nos permitirá determinar el conjunto fundamental de soluciones $\{y_{1}, y_{2}\}$.
  • Una vez conocido el conjunto fundamental de soluciones se procede a calcular el Wronskiano $W(y_{1}, y_{2})$.
  • Posteriormente se divide la ecuación diferencial por $a_{2}$ para escribir la ecuación es su forma estándar (\ref{3}) y así obtener la forma de la función $g(x)$.
  • Se sustituyen los valores correspondientes en (\ref{18}) y (\ref{20}) para obtener las funciones $k_{1}$ y $k_{2}$ respectivamente.
  • Finalmente se sustituyen los resultados en la solución particular $$y_{p} = k_{1}y_{1} + k_{2}y_{2}$$ y posteriormente en la solución general $$y = y_{c} + y_{p}$$

Cuando se calculan las integrales indefinidas (\ref{18}) y (\ref{20}) no es necesario considerar las constantes de integración. Para mostrar esto consideremos las constantes $c_{3}$ y $c_{4}$, tales que

\begin{align*}
y(x) &= y_{c}(x) + y_{p}(x) \\
&= c_{1}y_{1}(x) + c_{2}y_{2}(x) + \left[ k_{1}(x) + c_{3} \right] y_{1}(x) + \left[ k_{2}(x) + c_{4} \right] y_{2}(x) \\
&= \left[ c_{1} + c_{3} \right] y_{1}(x) + \left[ c_{2} + c_{4} \right] y_{2}(x) + k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) \\
&= C_{1}y_{1}(x) + C_{2}y_{2}(x) + k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x)
\end{align*}

Es decir, las constantes de la solución complementaria contienen todas las constantes que puedan aparecer en el método.

Realicemos algunos ejemplos.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$3 \dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 6y = e^{x} \sec(x)$$

Solución: El primer paso es obtener la solución complementaria. La ecuación auxiliar es

$$3k^{2} -6k + 6 = 0$$

De donde $k_{1} = 1 + i$ y $k_{2} = 1 -i$, identificamos que $\alpha = \beta = 1$, entonces la forma de la solución complementaria es

$$y_{c}(x) = c_{1}e^{x} \cos(x) + c_{2}e^{x} \sin(x)$$

El conjunto fundamental de soluciones esta conformado por las funciones

$$y_{1}(x) = e^{x} \cos(x) \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{x} \sin(x)$$

La derivada de ambas soluciones son

$$\dfrac{dy_{1}}{dx} = e^{x} \cos(x) -e^{x} \sin(x) \hspace{1cm} y \hspace{1cm} \dfrac{dy_{2}}{dx} = e^{x} \sin(x) + e^{x} \cos(x)$$

Usando estos resultados calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{x} \cos(x) & e^{x} \sin(x) \\
e^{x} \cos(x) -e^{x} \sin(x) & e^{x} \sin(x) + e^{x} \cos(x)
\end{vmatrix} \\
&= e^{2x} \cos(x) \sin(x) + e^{2x} \cos^{2}(x) -e^{2x} \cos(x) \sin(x) + e^{2x} \sin^{2}(x) \\
&= e^{2x}
\end{align*}

El Wronskiano es

$$W(x) = e^{2x}$$

¡Cuidado!, como en la ecuación diferencial la segunda derivada tiene un coeficiente, debemos dividir toda la ecuación por dicho coeficiente para obtener la forma estándar y así la función $g(x)$. La ecuación en su forma estándar es

$$\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = \dfrac{e^{x} \sec(x)}{3}$$

En este caso la función $g$ es

$$g(x) = \dfrac{e^{x} \sec(x)}{3}$$

Ahora que ya conocemos los valores que necesitábamos, recurrimos a las ecuaciones (\ref{18}) y (\ref{20}) para obtener las funciones que buscamos.

Para la función $k_{1}(x)$, tenemos lo siguiente.

\begin{align*}
k_{1}(x) &= -\int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} \\
&= -\int{\dfrac{\left( e^{x} \sin(x) \right) \left( \dfrac{e^{x} \sec(x)}{3} \right)}{e^{2x}} dx} \\
&= -\int{\dfrac{e^{2x} \sin(x) \sec(x)}{3e^{2x}} dx} \\
&= -\dfrac{1}{3} \int{\tan(x) dx} \\
&= \dfrac{1}{3} \ln|\cos(x)|
\end{align*}

La integral de la tangente es común. Por tanto, la función $k_{1}$ es

$$k_{1}(x) = \dfrac{1}{3} \ln|\cos(x)|$$

Para el caso de la función $k_{2}(x)$, tenemos lo siguiente.

\begin{align*}
k_{2}(x) &= \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \\
&= \int{\dfrac{\left( e^{x} \cos(x) \right) \left( \dfrac{e^{x} \sec(x)}{3} \right)}{e^{2x}} dx} \\
&= \int{\dfrac{e^{2x} \cos(x) \sec(x)}{3e^{2x}} dx} \\
&= \dfrac{1}{3} \int{dx} \\
&= \dfrac{1}{3}x
\end{align*}

La función $k_{2}$ es

$$k_{2}(x) = \dfrac{1}{3}x$$

Ya podemos establecer que la solución particular, de acuerdo a (\ref{4}), es

$$y_{p}(x) = \dfrac{1}{3} \ln|\cos(x)| \left[ e^{x} \cos(x) \right] + \dfrac{1}{3}x \left[ e^{x} \sin(x) \right]$$

Por lo tanto, la solución general de la ecuación diferencial

$$3 \dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 6y = e^{x} \sec(x)$$

es

$$y(x) = c_{1}e^{x} \cos(x) + c_{2}e^{x} \sin(x) + \dfrac{1}{3}e^{x} \cos(x) \ln|\cos(x)| + \dfrac{1}{3}x e^{x} \sin(x)$$

$\square$

Con este ejemplo encontramos un buen momento para reflexionar y darnos cuenta de que ya hemos avanzado mucho, tan sólo observa el tipo de ecuación que acabamos de resolver y no sólo eso, observa que tan compleja es la solución general.

¡Sigamos adelante!.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 2\dfrac{dy}{dx} + y = \dfrac{e^{-x}}{x}$$

Solución: Como la ecuación ya está es su forma estándar la función $g$ es

$$g(x) = \dfrac{e^{-x}}{x}$$

Determinemos la solución complementaria, la ecuación auxiliar es

$$k^{2} + 2k + 1 = 0$$

De donde $k_{1} = k_{2} = -1$, la multiplicidad de la solución nos indica que la forma de la solución complementaria es

$$y_{c}(x) = c_{1}e^{-x} + c_{2}xe^{-x}$$

El conjunto fundamental de soluciones esta conformado por las funciones

$$y_{1}(x) = e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = xe^{-x}$$

Usando estas soluciones y sus derivadas calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{-x} & xe^{-x} \\
-e^{-x} & e^{-x} -xe^{-x}
\end{vmatrix} \\
&= e^{-2x} -xe^{2x} + xe^{-2x} \\
&= e^{-2x}
\end{align*}

El Wronskiano es

$$W(x) = e^{-2x}$$

Sustituyamos estos resultados directamente en la ecuación (\ref{21}).

\begin{align*}
y_{p}(x) &= -e^{-x} \int {\dfrac{ \left( xe^{-x} \right) \left( \dfrac{e^{-x}}{x} \right) }{e^{-2x}}dx} + xe^{-x} \int {\dfrac{ \left( e^{-x} \right) \left( \dfrac{e^{-x}}{x} \right) }{e^{-2x}}dx} \\
&= -e^{-x}\int dx+xe^{-x}\int \dfrac{dx}{x} \\
&= -xe^{-x} + xe^{-x}\ln(x)
\end{align*}

La solución particular es

$$y_{p}(x) = -xe^{-x} + xe^{-x}\ln(x)$$

Por lo tanto, la solución general de la ecuación diferencial es

$$y(x) = c_{1}e^{-x} + c_{2}xe^{-x} -xe^{-x} + xe^{-x}\ln(x)$$

$\square$

Un ejemplo más.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -y = 4x^{3}e^{x}$$

Solución: La función $g$ es

$$g(x) = 4x^{3}e^{x}$$

y la ecuación auxiliar es

$$k^{2} -1 = 0$$

De donde $k_{1} = 1$ y $k_{2} = -1$. Entonces, la solución complementaria es

$$y_{c}(x) = c_{1}e^{x} + c_{2}e^{-x}$$

El conjunto fundamental de soluciones esta conformado por

$$y_{1}(x) = e^{x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{-x}$$

Usando estas funciones y sus derivadas calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{x} & e^{-x} \\
e^{x} & -e^{-x} \end{vmatrix} = -2
\end{align*}

El Wronskiano es $W = -2$. Sustituyendo estos resultados directamente en la ecuación (\ref{21}), obtenemos lo siguiente.

\begin{align*}
y_{p}(x) &= -e^{x} \int {\dfrac{(e^{-x})(4x^{3}e^{x})}{-2} dx} + e^{-x} \int {\dfrac{(e^{x})(4x^{3}e^{x})}{-2} dx} \\
&= 2e^{x} \int {x^{3} dx} -2e^{-x} \int {x^{3}e^{2x} dx} \\
&= \dfrac{1}{2}x^{4}e^{x} -2e^{-x} \int {x^{3}e^{2x} dx}
\end{align*}

La integral que nos falta se puede resolver por partes tomando $u = x^{2}$ y $v^{\prime} = e^{2x}$. Resolviendo la integral obtendremos lo siguiente.

$$\int {x^{3}e^{2x} dx} = \dfrac{1}{2}e^{2x}x^{3} -\dfrac{3}{4}e^{2x}x^{2} + \dfrac{3}{4}e^{2x}x -\dfrac{3}{8}e^{2x}$$

Sustituyendo en la solución particular tenemos

\begin{align*}
y_{p}(x) &= \dfrac{1}{2}x^{4}e^{x} -2e^{-x} \left( \dfrac{1}{2}e^{2x}x^{3} -\dfrac{3}{4}e^{2x}x^{2} + \dfrac{3}{4}e^{2x}x -\dfrac{3}{8}e^{2x} \right) \\
&= \dfrac{1}{2}x^{4}e^{x} -x^{3}e^{x} + \dfrac{3}{2}x^{2}e^{x} -\dfrac{3}{2}xe^{x} + \dfrac{3}{4}e^{x}
\end{align*}

Finalmente obtenemos como solución particular a la función

$$y_{p}(x) = e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x + \dfrac{3}{4} \right)$$

Y por lo tanto, la solución general de la ecuación diferencial es

$$y(x) = c_{1}e^{x} + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x + \dfrac{3}{4} \right)$$

Este resultado es válido, sin embargo se puede simplificar más, ya que se puede reescribir a la solución como

$$y(x) = e^{x} \left( c_{1} + \dfrac{3}{4} \right) + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x \right)$$

y definir la constante $C_{1} = c_{1} + \dfrac{3}{4}$ para finalmente escribir la solución como

$$y(x) = C_{1} e^{x} + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x \right)$$

$\square$

Variación de parámetros en ecuaciones de orden superior

Este método se puede generalizar a ecuaciones de orden $n$ aunque, por su puesto, los cálculos se vuelven más extensos.

A continuación mostraremos el panorama general para ecuaciones diferenciales de orden $n$ y mostraremos los resultados para el caso $n = 3$ que nos mostrará la forma en que aumenta la complejidad de los cálculos.

La ecuación de orden $n$ es su forma estándar es

$$\dfrac{d^{n}y}{dx^{n}} + P_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + P_{1}(x) \dfrac{dy}{dx} + P_{0}(x) y = g(x) \label{22} \tag{22}$$

Si la solución complementaria de (\ref{22}) es

$$y_{c}(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{23} \tag{23}$$

Entonces una solución particular debe ser

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) + \cdots + k_{n}(x)y_{n}(x) \label{24} \tag{24}$$

Análogo a las ecuaciones (\ref{10}) y (\ref{11}), las derivadas $\dfrac{dk_{i}}{dx} = k^{\prime}_{i}$ con $i = 1, 2, \cdots, n$ se determinan del sistema de $n$ ecuaciones

\begin{align*}
y_{1}k^{\prime}_{1} + y_{2}k^{\prime}_{2} + \cdots + y_{n}k^{\prime}_{n} &= 0 \\
y^{\prime}_{1}k^{\prime}_{1} + y^{\prime}_{2}k^{\prime}_{2} + \cdots + y^{\prime}_{n}k^{\prime}_{n} &= 0 \\
\vdots \\
y^{(n -1)}_{1}k^{\prime}_{1} + y^{(n -1)}_{2}k^{\prime}_{2} + \cdots + y^{(n-1)}_{n}k^{\prime}_{n} &= g(x) \label{25} \tag{25}
\end{align*}

Al igual que el caso de segundo orden, las primeras $n -1$ ecuaciones del sistema son suposiciones que se hacen para simplificar la ecuación resultante de sustituir la solución (\ref{24}) en la ecuación (\ref{22}).

Usando la regla de Cramer para resolver el sistema se obtiene que

$$\dfrac{dk_{i}}{dx} = \dfrac{W_{i}}{W}; \hspace{1cm} i = 1, 2 , \cdots, n \label{26} \tag{26}$$

Donde $W$ es el Wronskiano del conjunto fundamental $\{ y_{1}(x), y_{2}(x), \cdots, y_{n}(x) \}$ y $W_{i}$ es el determinante que se obtiene de remplazar la $i$-ésima columna del Wronskiano por la columna formada por el lado derecho de (\ref{25}), es decir, la columna que consta de $(0, 0, \cdots, g(x))$.

Para que quede más claro lo anterior, en el caso $n = 3$ las $\dfrac{dk_{i}}{dx}$, $i = 1, 2, 3$ quedan como

$$\dfrac{dk_{1}}{dx} = \dfrac{W_{1}}{W}, \hspace{1cm} \dfrac{dk_{2}}{dx} = \dfrac{W_{2}}{W}, \hspace{1cm} \dfrac{dk_{3}}{dx} = \dfrac{W_{3}}{W} \label{27} \tag{27}$$

Donde

$$W = \begin{vmatrix}
y_{1} & y_{2} & y_{3} \\
y^{\prime}_{1} & y^{\prime}_{2} & y^{\prime}_{3} \\
y^{\prime \prime}_{1} & y^{\prime \prime}_{2} & y^{\prime \prime}_{3}
\end{vmatrix} \label{28} \tag{28}$$

y

\begin{align*}
W_{1} = \begin{vmatrix}
0 & y_{2} & y_{3} \\
0 & y^{\prime}_{2} & y^{\prime}_{3} \\
g(x) & y^{\prime \prime}_{2} & y^{\prime \prime}_{3}
\end{vmatrix}, \hspace{1cm} W_{2} = \begin{vmatrix}
y_{1} & 0 & y_{3} \\
y^{\prime}_{1} & 0 & y^{\prime}_{3} \\
y^{\prime \prime}_{1} & g(x) & y^{\prime \prime}_{3}
\end{vmatrix}, \hspace{1cm} W_{3} = \begin{vmatrix}
y_{1} & y_{2} & 0 \\
y^{\prime}_{1} & y^{\prime}_{2} & 0 \\
y^{\prime \prime}_{1} & y^{\prime \prime}_{2} & g(x)
\end{vmatrix}
\end{align*}

Habrá que integrar las ecuaciones de (\ref{27}) para obtener las funciones $k_{i}$, $i = 1, 2, 3$ y así obtener la solución particular

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) + k_{3}(x)y_{3}(x) \label{29} \tag{29}$$

Notemos que usando esta notación, los resultados (\ref{17}) y (\ref{19}) del caso $n = 2$ se pueden escribir como

$$\dfrac{dk_{1}}{dx} = \dfrac{W_{1}}{W} = -\dfrac{y_{2}g(x)}{W} \hspace{1cm} y \hspace{1cm} \dfrac{dk_{2}}{dx} = \dfrac{W_{2}}{W} = \dfrac{y_{1}g(x)}{W} \label{30} \tag{30}$$

Donde

\begin{align*} W = \begin{vmatrix}
y_{1} & y_{2} \\
y^{\prime}_{1} & y^{\prime}_{2}
\end{vmatrix}, \hspace{1cm} W_{1} = \begin{vmatrix}
0 & y_{2} \\
g(x) & y^{\prime}_{2}
\end{vmatrix} \hspace{1cm} y \hspace{1cm} W_{2} = \begin{vmatrix}
y_{1} & 0 \\
y^{\prime}_{1} & g(x)
\end{vmatrix} \label{31} \tag{31}
\end{align*}

Realicemos un ejemplo con una ecuación de orden $3$.

Ejemplo: Resolver la ecuación diferencial de tercer orden

$$\dfrac{d^{3}y}{dx^{3}} + \dfrac{dy}{dx} = \tan(x)$$

Solución: La función $g$ es

$$g(x) = \tan(x)$$

y la ecuación auxiliar es

$$k^{3} + k = k(k^{2} + 1) = 0$$

De donde $k_{1} = 0$, $k_{2} = i$ y $k_{3} = -i$. Dos raíces son complejas conjugadas con $\alpha = 0$ y $\beta = 1$. La primer raíz nos indica que la forma de una solución es

$$y_{1}(x) = e^{k_{1}x} = 1$$

mientras que las dos raíces restantes nos indican dos solución de la forma

$$y_{2}(x) = e^{\alpha x} \cos(\beta x) = \cos(x)$$

y

$$y_{3}(x) = e^{\alpha x} \sin(\beta x) = \sin(x)$$

Por lo tanto, la solución complementaria de la ecuación diferencial es

$$y_{c}(x) = c_{1} + c_{2} \cos(x) + c_{3} \sin(x)$$

Como vimos, el conjunto fundamental de soluciones es $\{ y_{1} = 1, y_{2} = \cos(x) , y_{3} = \sin(x) \}$, las primeras y segundas derivadas correspondientes son

$$\dfrac{dy_{1}}{dx} = 0, \hspace{1cm} \dfrac{dy_{2}}{dx} = -\sin(x), \hspace{1cm} \dfrac{dy_{3}}{dx} = \cos(x)$$

y

$$\dfrac{d^{2}y_{1}}{dx^{2}} = 0, \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} = -\cos(x), \hspace{1cm} \dfrac{d^{2}y_{3}}{dx^{2}} = -\sin(x)$$

Ahora calculemos los determinantes correspondientes, el primero de ellos es el Wronskiano

$$W = \begin{vmatrix}
1 & \cos(x) & \sin(x) \\
0 & -\sin(x) & \cos(x) \\
0 & -\cos(x) & -\sin(x)
\end{vmatrix} = \sin^{2}(x) + \cos^{2}(x) = 1$$

Para el resto de determinantes, tenemos

$$W_{1} = \begin{vmatrix}
0 & \cos(x) & \sin(x) \\
0 & -\sin(x) & \cos(x) \\
\tan(x) & -\cos(x) & -\sin(x)
\end{vmatrix} = \tan(x) \left[ \cos^{2}(x) + \sin^{2}(x) \right] = \tan(x)$$

$$W_{2} = \begin{vmatrix}
1 & 0 & \sin(x) \\
0 & 0 & \cos(x) \\
0 & \tan(x) & -\sin(x)
\end{vmatrix} = -\cos(x) \tan(x) = -\sin(x)$$

y

$$W_{3} = \begin{vmatrix}
1 & \cos(x) & 0 \\
0 & -\sin(x) & 0 \\
0 & -\cos(x) & \tan(x)
\end{vmatrix} = -\sin(x) \tan(x) = -\dfrac{\sin^{2}(x)}{\cos(x)}$$

Sustituyendo estos resultados en (\ref{27}), obtenemos

$$\dfrac{dk_{1}}{dx} = \tan(x), \hspace{1cm} \dfrac{dk_{2}}{dx} = -\sin(x), \hspace{1cm} \dfrac{dk_{3}}{dx} = -\dfrac{\sin^{2}(x)}{\cos(x)}$$

Procedemos a integrar cada ecuación (sin considerar constantes) para obtener las funciones que buscamos.

La primer integral es común,

$$k_{1}(x) = \int{\tan(x) dx} = -\ln|\cos(x)|$$

La segunda integral es directa

$$k_{2}(x) = -\int{\sin(x) dx} = \cos(x)$$

Mientras que para la tercer integral si se requiere de un mayor cálculo.

\begin{align*}
k_{3}(x) &= -\int{\dfrac{\sin^{2}(x)}{\cos(x)} dx} \\
&= -\int{\dfrac{1 -\cos^{2}(x)}{\cos(x)} dx} \\
&= -\int{\dfrac{1}{\cos(x)} dx} + \int{\cos(x) dx} \\
\end{align*}

Por un lado

$$-\int{\dfrac{1}{\cos(x)} dx} = -\int{\sec(x) dx} = -\ln|\tan(x) + \sec(x)|$$

por otro lado,

$$\int{\cos(x) dx} = \sin(x)$$

entonces

$$k_{3}(x) = -\ln|\tan(x) + \sec(x)| + \sin(x)$$

Ahora que conocemos las funciones incógnita concluimos que la solución particular de la ecuación diferencial es

\begin{align*}
y_{p}(x) &= -\ln|\cos(x)|(1) + \cos(x) [\cos(x)] + \left[ -\ln|\tan(x) + \sec(x)| + \sin(x) \right] (\sin(x)) \\
&= -\ln|\cos(x)| + \cos^{2}(x) -\sin(x) \ln|\tan(x) + \sec(x)| + \sin^{2}(x) \\
&= -\ln|\cos(x)| -\sin(x) \ln|\tan(x) + \sec(x)| \\
\end{align*}

Por lo tanto, la solución general de la ecuación diferencial de tercer orden es

$$y(x) = c_{1} + c_{2} \cos(x) + c_{3} \sin(x) -\ln|\cos(x)| -\sin(x) \ln|\tan(x) + \sec(x)|$$

$\square$

Como podemos notar, los cálculos se hacen más extensos, sin embargo los pasos a seguir son los mismos para cualquier orden.

El método de variación de parámetros, a diferencia del método de coeficientes indeterminados, tiene la ventaja de que siempre produce una solución de la ecuación diferencial independientemente de la forma de la función $g(x)$, siempre y cuando se pueda resolver la ecuación homogénea asociada. Además, el método de variación de parámetros es aplicable a ecuaciones diferenciales lineales con coeficientes variables.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de las siguientes ecuaciones diferenciales.
  • $\dfrac{d^{2}y}{dx^{2}} -9\dfrac{dy}{dx} = 18x^{2}e^{9x}$
  • $\dfrac{d^{2}y}{dx^{2}} + 9y = 18e^{x} \sin(x)$
  • $4 \dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + y = e^{x/2}\sqrt{1 -x^{2}}$
  1. Resolver las siguientes ecuaciones diferenciales para las condiciones iniciales dadas.
  • $\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} = 12e^{4x}(x + 1); \hspace{1cm} y(0) = 0, \hspace{0.6cm} y^{\prime}(0) = 4$
  • $\dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} -6y = 10e^{x} \sin(x); \hspace{1cm} y(0) = \dfrac{2}{17}, \hspace{0.6cm} y^{\prime}(0) = 0$
  1. Obtener la solución general de las siguientes ecuaciones diferenciales de tercer orden. Simplificar la forma de la solución redefiniendo las constantes.
  • $\dfrac{d^{3}y}{dx^{3}} + 4 \dfrac{dy}{dx} = \sec(2x)$
  • $\dfrac{d^{3}y}{dx^{3}} + \dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -y = 2e^{-x}$

Más adelante…

Hemos concluido con el estudio de las ecuaciones diferenciales lineales de orden superior con coeficientes constantes.

Lo que sigue es estudiar este mismo tipo de ecuaciones, pero en el caso en el que los coeficientes no son constantes, es decir, son coeficientes variables. Estas ecuaciones suelen ser mucho más difícil de resolver, sin embargo existe un tipo de ecuación especial, conocida como ecuación de Cauchy – Euler, que contiene coeficientes variables, pero que su método de resolución es bastante similar a lo que hemos desarrollado en el caso de coeficientes constantes, pues su resolución involucra resolver una ecuación auxiliar. En la siguiente entrada estudiaremos dicha ecuación.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales no homogéneas de segundo orden. Solución por variación de parámetros

Introducción

Es momento de estudiar el caso no homogéneo, es decir, ecuaciones del tipo $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=g(t)$$ donde la función $g$ no es la función constante cero. El primer método que estudiaremos es el de variación de parámetros que es, en cierta parte, análogo al método de variación de parámetros para ecuaciones lineales no homogéneas de primer orden, y que puedes encontrar en el siguiente enlace.

El teorema principal de esta entrada nos dice que la solución general a una ecuación lineal no homogénea de segundo orden puede verse como la suma de la solución general a la ecuación homogénea asociada, que denotaremos por $y_{H}$, y una solución particular a la ecuación no homogénea denotada por $y_{P}$.

Dado que en entradas anteriores estudiamos ecuaciones lineales homogéneas y sabemos cómo encontrar su solución general, nos enfocaremos en encontrar únicamente la solución particular. El método de variación de parámetros nos ayudará a resolver este problema.

Vamos a comenzar!

Soluciones a ecuaciones lineales no homogéneas de segundo orden

En el video demostramos que la solución general a una ecuación lineal no homogénea de segundo orden puede verse como la suma de la solución general a la ecuación homogénea asociada y una solución particular a la ecuación no homogénea denotada.

Método de variación de parámetros

En el primer video desarrollamos el método de variación de parámetros para encontrar a la solución particular $y_{P}$. En el segundo video empleamos este método para resolver dos ejemplos particulares.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra una expresión para $u_{2}(t)$ similar a la encontrada para $u_{1}(t)$ en el segundo video: $$u_{1}(t)=-\int \frac{g(t)y_{2}(t)}{W[y_{1},y_{2}](t)} dt$$ con $u_{1}(t)$, $u_{2}(t)$ que satisfacen $$y_{P}(t)=u_{1}(t)y_{1}(t)+u_{2}(t)y_{2}(t)$$ donde $y_{P}(t)$ es una solución particular a la ecuación diferencial $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=g(t)$$ y $y_{1}$, $y_{2}$ son soluciones a la ecuación homogénea asociada. (Revisa el video para mayor referencia).
  • Prueba que $y_{P}(t)=u_{1}(t)y_{1}(t)+u_{2}(t)y_{2}(t)$ es solución a la ecuación diferencial $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=g(t)$$ una vez que has encontrado las expresiones para $u_{1}(t)$ y $u_{2}(t)$.
  • Resuelve la ecuación diferencial $$\frac{d^{2}y}{dt^{2}}+2\frac{dy}{dt}+y=3e^{-t}$$ por el método de variación de parámetros.
  • Resuelve el problema de condición inicial $$3\frac{d^{2}y}{dt^{2}}+4\frac{dy}{dt}+y=e^{-t}\sin{t}; \,\,\,\,\,\, y(0)=1, \frac{dy}{dt}(0)=0.$$

Más adelante

Hemos presentado un primer método para resolver ecuaciones lineales no homogéneas de segundo orden. En la siguiente entrada estudiaremos otro método de resolución, en particular para resolver ecuaciones de la forma $$a\frac{d^{2}y}{dt^{2}}+b\frac{dy}{dt}+cy=g(t)$$ donde $a$, $b$ y $c$ son constantes, $a \neq 0$ y en la función $g(t)$ aparecen funciones exponenciales, polinómicas y funciones $\sin{\beta t}$ y $\cos{\beta t}$.

El método que estudiaremos será llamado coeficientes indeterminados.

Entradas relacionadas

Ecuaciones Diferenciales I: Ecuaciones diferenciales lineales de primer orden y el teorema de existencia y unicidad – Método de variación de parámetros

Las leyes de la naturaleza no son más que los pensamientos matemáticos de Dios.
– Euclides

Introducción

Hemos comenzado a desarrollar métodos de resolución de ecuaciones diferenciales lineales de primer orden. El tipo de ecuaciones que queremos resolver es

$$\dfrac{dy}{dx} + P(x) y = Q(x) \label{1} \tag{1}$$

En la entrada anterior vimos que la solución general $y(x)$ es la suma de la solución homogénea $y_{h}(x)$, más la solución particular $y_{p}(x)$.

$$y(x) = y_{h}(x) + y_{p}(x) \label{2} \tag{2}$$

La solución homogénea está dada como

$$y_{h}(x) = k e^{- \int P(x) dx} = \dfrac{k}{\mu (x)} \label{3} \tag{3}$$

Mientras que la solución particular tiene la forma

$$y_{p}(x) = e^{- \int{P(x) dx}} \left( \int{e^{\int{P(x) dx}} Q(x) dx} \right) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} \right) \label{4} \tag{4}$$

Donde $\mu (x)$ es el factor integrante

$$\mu(x) = e^{\int{P(x) dx}} \label{5} \tag{5}$$

Así, la solución general de la ecuación diferencial (\ref{1}) es

$$y(x) = k e^{-\int{P(x) dx}} + e^{-\int{P(x) dx}} \left(\int{e^{\int{P(x) dx}}Q(x) dx}\right) \label{6} \tag{6}$$

O de forma más compacta

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} + k \right) \label{7} \tag{7}$$

En la entrada anterior mencionamos que hay dos métodos distintos para la obtención de la solución particular, ya presentamos el método por factor integrante, en este entrada vamos a desarrollar el método conocido como variación de parámetros.

Método de variación de parámetros

Sabemos que la solución de la ecuación diferencial homogénea

$$\dfrac{dy}{dx} + P(x) y = 0 \label{8} \tag{8}$$

es

$$y_{h}(x) = k e^{- \int P(x) dx}$$

Este resultado nos incita a suponer que para la ecuación no homogénea

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

la solución particular puede tener la forma

$$y_{p}(x) = k(x) e^{- \int P(x) dx} \label{9} \tag{9}$$

En donde $k$ pasa a ser una función dependiente de $x$. El método de variación de parámetros consiste en determinar justamente la expresión explícita de $k(x)$.

Sustituyamos la solución propuesta (\ref{9}) en la ecuación no homogénea.

\begin{align*}
\dfrac{dy_{p}}{dx} + P(x) y_{p} &= \dfrac{d}{dx} \left(k e^{- \int P(x) dx} \right) + P(x) k e^{- \int P(x) dx} \\
&= \left[k \dfrac{d}{dx} \left( e^{- \int P(x) dx} \right) + \dfrac{dk}{dx} e^{- \int P(x) dx}\right] + P(x) k e^{- \int P(x) dx} \\
&= – k P(x) e^{- \int P(x) dx} + \dfrac{dk}{dx} e^{- \int P(x) dx} + k P(x) e^{- \int P(x) dx} \\
&= \dfrac{dk}{dx} e^{- \int P(x) dx} \\
&= Q(x)
\end{align*}

De la última igualdad obtenemos que

$$\dfrac{dk}{dx} = e^{\int P(x) dx} Q(x) \label{10} \tag{10}$$

Integremos ambos lados de la ecuación con respecto a $x$.

\begin{align*}
\int{\left( \dfrac{dk}{dx} \right) dx} &= \int{ \left( e^{\int P(x) dx} Q(x) \right) dx} \\
k(x) + c &= \int{ \left( e^{\int P(x) dx} Q(x) \right) dx} \\
\end{align*}

Si consideramos $c = 0$ obtenemos que la forma explícita de $k(x)$ es

$$k(x) = \int{ e^{\int P(x) dx} Q(x) dx} \label{11} \tag{11}$$

Sustituyamos este resultado en la solución particular (\ref{9}).

$$y_{p}(x) = \left( \int{e^{\int P(x) dx} Q(x) dx} \right) e^{- \int P(x) dx} \label{12} \tag{12}$$

Si consideramos el factor integrante (\ref{5}) esta función la podemos escribir como

$$y_{p}(x) = \dfrac{1}{\mu (x)} \left( \int{ \mu (x) Q(x) dx} \right) \label{13} \tag{13}$$

Hemos obtenido la misma expresión que usando el método por factor integrante visto en la entrada anterior.

Algunas consideraciones

La solución completa (o solución general) de la ecuación diferencial lineal (\ref{1}) es la suma de la solución homogénea $y_{h}(x)$, más la solución particular $y_{p}(x)$, es importante reconocer este hecho ya que en muchas ocasiones la ecuación homogénea, y por tanto la solución homogénea, serán muy relevantes si estamos estudiando algún fenómeno real. Sin embargo, cuando nuestro objetivo es obtener la solución completa no es necesario obtener ambas soluciones por separado para después sumarlas, sino que podemos intentar obtener directamente la solución general, esto está directamente relacionado con la omisión de constantes de integración que hemos hecho, así que es momento de explicar qué está ocurriendo con estas constantes.

Es posible desarrollar los métodos por factor integrante y variación de parámetros manteniendo las constantes de integración, aunque los cálculos se vuelven más extensos, sin embargo al final todas las constantes que resulten se pueden agrupar en una sola constante $C$, es así que en ambos métodos siempre llegaremos al resultado

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} + C \right) \label{14} \tag{14}$$

Donde $C$ es la constante resultante de juntar todas las constantes de integración que pudieran aparecer en el proceso.

El resultado (\ref{14}) corresponde a la solución general que hemos obtenido anteriormente, es decir, si en ambos métodos mantenemos a las constantes de integración podemos obtener la solución general. Lo que nosotros hicimos anteriormente fue que la constante $k$ de la ecuación (\ref{7}) la asociábamos a la solución homogénea (\ref{3}), de manera que al sumar ambas soluciones ya obteníamos la solución general, pero en realidad también se puede obtener de ambos métodos manteniendo a las constantes. Decidimos hacerlo así porque es importante el papel que pueden tomar por separado las soluciones homogénea y particular en algunas situaciones, además de que omitir las constantes evitó hacer cálculos extensos en ambos métodos.

Finalmente, como ya mencionamos antes, no se recomienda resolver ecuaciones diferenciales usando las formulas obtenidas para las soluciones, sino aplicar cada paso del método correspondiente, sin embargo, a continuación presentamos una serie de pasos que se recomiendan seguir para la resolución de ecuaciones diferenciales lineales de primer orden.

Método para resolver ecuaciones lineales

Si bien es cierto que ya conocemos las formas explícitas de las soluciones de las ecuaciones diferenciales lineales, es conveniente seguir una serie de pasos para resolverlas. Dichos pasos se describen a continuación.

  1. Escribir la ecuación lineal en la forma canónica

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

  1. Calcular el factor integrante $\mu (x)$ mediante la formula

$$\mu (x) = e^{\int{P(x) dx}}$$

  1. Multiplicar a la ecuación diferencial en su forma canónica por el factor integrante en ambos lados de la ecuación.

$$\mu (x) \dfrac{dy}{dx} + \mu (x) P(x) y = \mu (x) Q(x)$$

  1. Identificar que el lado izquierdo de la ecuación es la derivada de $\mu(x)$ por $y(x)$ y sustituir.

$$\dfrac{d}{dx} (\mu y) = \mu (x) Q(x)$$

  1. Integrar la última ecuación y dividir por $\mu (x)$ para obtener finalmente la solución general $y(x)$. En la última integración debemos considerar a la constante de integración.

Esta serie de pasos nos permiten obtener directamente la solución general de la ecuación diferencial lineal es por ello que en el último paso sí debemos considerar a la constante de integración, dicha constante representa el resultado de juntar todas las contantes que podremos omitir en pasos intermedios.

Realicemos un ejemplo en el que apliquemos este algoritmo de resolución.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\left( x^{2} +1 \right) \dfrac{dy}{dx} = x^{2} + 2x -1 -4xy$$

Solución: El primer paso es escribir a la ecuación diferencial en la forma canónica.

\begin{align*}
\left( x^{2} +1 \right) \dfrac{dy}{dx} &= x^{2} + 2x -1 -4xy \\
\dfrac{dy}{dx} &= \dfrac{x^{2} + 2x -1 -4xy}{x^{2} +1} \\
\dfrac{dy}{dx} &= \dfrac{x^{2} + 2x -1}{x^{2} +1} -\left( \dfrac{4x}{x^{2} +1} \right) y
\end{align*}

La forma canónica es

$$\dfrac{dy}{dx} + \left( \dfrac{4x}{x^{2} +1} \right) y = \dfrac{x^{2} + 2x -1}{x^{2} +1}$$

Identificamos que

$$P(x) = \dfrac{4x}{x^{2} +1} \hspace{1cm} y \hspace{1cm} Q(x) = \dfrac{x^{2} + 2x -1}{x^{2} +1}$$

El segundo paso es determinar el factor integrante.

$$\mu(x) = e^{\int{P(x) xd}} = e^{\int{\left( \dfrac{4x}{x^{2} +1} \right) dx}}$$

Resolvamos la integral omitiendo la constante de integración.

\begin{align*}
\int{\dfrac{4x}{x^{2} +1} dx} &= 4 \int{\dfrac{x}{x^{2} +1} dx} \\
&= \dfrac{4}{2} \ln{\left( x^{2} + 1 \right)} \\
&= 2 \ln{\left(x^{2} + 1\right)} \\
&= \ln{\left( x^{2} + 1\right)^{2}}
\end{align*}

Sustituimos en el factor integrante.

\begin{align*}
\mu (x) = e^{\ln{\left( x^{2} + 1\right)^{2}}} = \left( x^{2} + 1\right)^{2}
\end{align*}

Por tanto, el factor integrante es

$$\mu (x) = ( x^{2} + 1)^{2}$$

El tercer paso es multiplicar a la ecuación diferencial en su forma canónica por el factor integrante en ambos lados.

\begin{align*}
\left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + \left( x^{2} + 1\right)^{2} \left( \dfrac{4x}{x^{2} +1} \right) y &= \left( x^{2} + 1\right)^{2} \left(\dfrac{x^{2} + 2x -1}{x^{2} +1}\right) \\
\left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + 4x \left( x^{2} + 1\right) y &= \left( x^{2} + 1\right) \left(x^{2} + 2x -1\right) \\
\left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + 4x \left( x^{2} + 1\right) y &= x^{4} + 2x^{3} +2x -1
\end{align*}

El cuarto paso es identificar que

$$\dfrac{d}{dx}(\mu (x) y(x)) = \dfrac{d}{dx}\left( y \left( x^{2} + 1\right)^{2}\right) = \left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + 4x \left( x^{2} + 1\right) y$$

Así que ahora podemos escribir

$$\dfrac{d}{dx}\left( y \left( x^{2} + 1\right)^{2}\right) = x^{4} + 2x^{3} +2x -1$$

El quinto y último paso es integrar esta relación por ambos lados con respecto a $x$ considerando a la constante de integración.

\begin{align*}
\int{\dfrac{d}{dx}\left( y \left( x^{2} + 1\right)^{2}\right) dx} &= \int{\left( x^{4} + 2x^{3} +2x -1\right)}dx \\
y \left( x^{2} + 1\right)^{2} + k &= \int{\left( x^{4} + 2x^{3} +2x -1\right)} dx
\end{align*}

Resolvamos la integral.

\begin{align*}
\int{\left( x^{4} + 2x^{3} +2x -1\right)} dx &= \int{x^{4} dx} + \int{2x^{3} dx} + \int{2x dx} -\int{dx} \\
&= \dfrac{x^{5}}{5} + 2\left(\dfrac{x^{4}}{4}\right) + 2 \left(\dfrac{x^{2}}{2}\right) -x \\
&= \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x
\end{align*}

Omitimos todas las constantes de esta integral. Sustituyendo este resultado obtenemos

\begin{align*}
y \left( x^{2} + 1\right)^{2} + k &= \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x \\
y\left( x^{2} + 1\right)^{2} &= \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x + K \\
y(x) &= \dfrac{1}{\left(x^{2} + 1\right)^{2}} \left( \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x + K \right)
\end{align*}

Por lo tanto, la solución general de la ecuación diferencial

$$\left( x^{2} +1 \right) \dfrac{dy}{dx} = x^{2} + 2x -1 -4xy$$

es

$$y(x) = \dfrac{1}{\left(x^{2} + 1\right)^{2}} \left( \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x + K\right)$$

Donde $K$ es la constante que engloba a todas las contantes de integración que omitimos.

$\square$

Para concluir el análisis de las ecuaciones diferenciales lineales de primer orden, presentaremos el teorema de existencia y unicidad para este tipo de ecuaciones.

Teorema de existencia y unicidad

Ya presentamos el teorema de existencia y unicidad para ecuaciones diferenciales de primer orden, podemos usar este resultado para justificar el teorema de existencia y unicidad para el caso de las ecuaciones diferenciales lineales de primer orden.

Teorema: Consideremos la ecuación diferencial lineal

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

Si $P(x)$ y $Q(x)$ son funciones continuas en un intervalo $\delta \in \mathbb{R}$, entonces existe una única función $\gamma (x)$ tal que satisface el problema de valor inicial (PVI):

$$\dfrac{dy}{dx} + P(x) y = Q(x), \hspace{0.8cm} y(x_{0}) = y_{0}, \hspace{0.8cm} x_{0} \in \delta, \hspace{0.8cm} y_{0} \in Im(y).$$

Demostración: Consideremos la ecuación diferencial

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

Reescribamos esta ecuación en su forma normal.

$$\dfrac{dy}{dx} = Q(x) -P(x) y$$

Definimos

$$f(x, y) = Q(x) -P(x) y \label{15} \tag{15}$$

De manera que

$$\dfrac{dy}{dx} = f(x, y) \label{16} \tag{16}$$

Debido a que en un intervalo de solución $\delta$ debe satisfacerse que $P(x)$ y $Q(x)$ sean continuas, entonces tenemos garantizado que (\ref{15}) es continua y por tanto $\dfrac{\partial f}{\partial y}$ también lo es, con esto estamos cumpliendo las hipótesis del teorema de existencia y unicidad para ecuaciones diferenciales de primer orden que establecimos anteriormente, aplicando dicho teorema obtenemos que entonces existe algún intervalo $\delta_{0}: (x_{0} -h, x_{0} + h)$, $h > 0$, contenido en $\delta$, y una función única $\gamma (x)$, definida en $\delta_{0}$, que satisface la condición inicial $y(x_{0}) = y_{0}$.

$\square$

Apliquemos este resultado a la solución general. Consideremos la condición inicial $y(x_{0}) = y_{0}$ y la solución general de la ecuación diferencial no homogénea (\ref{1})

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{ \mu (x) Q(x) dx} + k \right)$$

Apliquemos la condición inicial.

$$y_{0} = y(x_{0}) = \dfrac{1}{\mu (x_{0})} \left( \int{ \mu (x) Q(x) dx} \Bigg|_{x = x_{0}} + k \right) \label{17} \tag{17}$$

De este resultado se puede despejar a $k$ obteniendo un único valor, digamos $k = k_{0}$, por lo tanto la función

$$\gamma (x) = \dfrac{1}{\mu (x_{0})} \left( \int{ \mu (x) Q(x) dx} + k_{0} \right) \label{18} \tag{18}$$

es solución del problema de valor inicial. Así, para cada $x_{0} \in \delta_{0}$, encontrar una solución particular de la ecuación (\ref{1}) es exactamente lo mismo que encontrar un valor adecuado de $k$ en la ecuación (\ref{17}), es decir, a toda $x_{0} \in \delta_{0}$ le corresponde un distinto $k$.

Con esto damos por concluido el desarrollo de métodos para resolver ecuaciones diferenciales lineales de primer orden, en la siguiente entrada comenzaremos a desarrollar métodos para resolver ecuaciones diferenciales de primer orden que no son lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. De acuerdo al algoritmo para resolver ecuaciones diferenciales lineales de primer orden, encontrar la solución general de las siguientes ecuaciones diferenciales.
  • $3\dfrac{y}{x} -8 + 3\dfrac{dy}{dx} = 0$
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0$
  • $\dfrac{dy}{dx} + \cos(x) (y -1) = 0$
  1. Una vez que se conoce la solución general de la ecuación diferencial
    $$x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0$$
    Resolver los siguientes problemas de valor inicial y analizar cada situación considerando el teorema de existencia y unicidad.
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0, \hspace{1cm} y(0) = 0$
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0, \hspace{1cm} y(0) = y_{0}, \hspace{1cm} y_{0} > 0$
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0, \hspace{1cm} y(x_{0}) = y_{0}, \hspace{1cm} x_{0} > 0, \hspace{0.3cm} y_{0} > 0$

    ¿Que se puede concluir al respecto?.

Más adelante…

Ya sabemos resolver ecuaciones diferenciales lineales de primer orden tanto homogéneas como no homogéneas y conocemos el teorema de existencia y unicidad que justifica los métodos que hemos desarrollado.

En la siguiente entrada comenzaremos a desarrollar métodos para resolver ecuaciones diferenciales de primer orden no lineales.

Entradas relacionadas