Archivo de la etiqueta: solución complementaria

Ecuaciones Diferenciales I: Sistemas lineales no homogéneos – Método de variación de parámetros

Las ciencias matemáticas exhiben particularmente orden, simetría
y límites; y esas son las más grandes formas de belleza.
– Aristóteles

Introducción

Ya sabemos resolver sistemas lineales homogéneos con coeficientes constantes, en esta entrada estudiaremos el caso no homogéneo.

Como hemos visto en las dos unidades anteriores, el método de variación de parámetros ha sido fundamental para resolver ecuaciones diferenciales en el caso no homogéneo. Éste mismo método es el que desarrollaremos en esta entrada para resolver sistemas lineales no homogéneos con coeficientes constantes.

Cabe mencionar que en esta entrada utilizaremos bastante el concepto de exponencial de una matriz y el de matriz fundamental de soluciones.

Sistemas lineales homogéneos

El sistema lineal que hemos estudiado es

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} \label{1} \tag{1}$$

Donde $\mathbf{A}$ es una matriz con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Ahora sabemos que la solución general del sistema lineal homogéneo (\ref{1}) es de la forma

$$\mathbf{Y}_{c}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) \label{3} \tag{3}$$

En donde las funciones $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$ son soluciones linealmente independientes del mismo sistema. Usamos el subíndice $c$ debido a que, como antes, al resolver el caso no homogéneo será necesario resolver primero el sistema homogéneo asociado y la solución general de dicho sistema será la solución complementaria del sistema no homogéneo.

Recordemos que la matriz que tiene por columnas a las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ de (\ref{3}) corresponde a la matriz fundamental de soluciones.

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1}(t) & \mathbf{Y}_{2}(t) & \cdots & \mathbf{Y}_{n}(t) \end{pmatrix} = \begin{pmatrix} y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{4} \tag{4}$$

Si definimos el vector de constantes

$$\mathbf{C} = \begin{pmatrix}
c_{1} \\ c_{2} \\ \vdots \\ c_{n}
\end{pmatrix} \label{5} \tag{5}$$

podemos escribir la solución (\ref{3}) como

$$\mathbf{Y}_{c}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} \label{6} \tag{6}$$

Recordemos este resultado para más adelante.

Sistemas lineales no homogéneos

El sistema lineal no homogéneo que intentaremos resolver es de la forma

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G} \label{7} \tag{7}$$

Donde $\mathbf{G} = \mathbf{G}(t)$ es una matriz de $n \times 1$ con componentes dependientes de $t$.

$$\mathbf{G}(t) = \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{8} \tag{8}$$

Dada la forma de la solución general de un sistema lineal homogéneo (\ref{3}), parecería natural pensar que el sistema lineal no homogéneo tiene por solución una función de la forma

$$\mathbf{Y}_{p}(t) = u_{1}(t) \mathbf{Y}_{1}(t) + u_{2}(t) \mathbf{Y}_{2}(t) + \cdots + u_{n}(t) \mathbf{Y}_{n}(t) \label{9} \tag{9}$$

En donde $u_{i}(t)$, $i = 1, 2, \cdots, n$ son funciones escalares de $t$ derivables y las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ forman una matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$. Si definimos el vector

$$\mathbf{U}(t) = \begin{pmatrix}
u_{1}(t) \\ u_{2}(t) \\ \vdots \\ u_{n}(t)
\end{pmatrix} \label{10} \tag{10}$$

Entonces la solución propuesta (\ref{9}) adquiere la forma

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \mathbf{U}(t) \label{11} \tag{11}$$

El método de variación de parámetros nos permitirá obtener la forma del vector $\mathbf{U}(t)$, una vez obtenida podremos formar la solución general del sistema lineal no homogéneo (\ref{7}) que, como siempre, será la superposición de la solución complementaria del sistema lineal homogéneo asociado $\mathbf{Y}_{c}(t)$ más la solución particular del sistema lineal no homogéneo $\mathbf{Y}_{p}(t)$, esto es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t) \label{12} \tag{12}$$

Variación de parámetros

Comencemos a desarrollar el método de variación de parámetros, como mencionamos antes, el objetivo es encontrar la forma explícita del vector (\ref{10}) para formar la solución particular del sistema lineal no homogéneo.

Consideremos la función propuesta (\ref{11}) y derivémosla.

$$\mathbf{Y}_{p}^{\prime}(t) = \hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) \label{13} \tag{13}$$

Si sustituimos (\ref{11}) y (\ref{13}) en el sistema lineal no homogéneo (\ref{7}), se tiene

$$\hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} [\hat{\mathbf{Y}}(t) \mathbf{U}(t)] + \mathbf{G}(t) \label{14} \tag{14}$$

Como $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones sabemos que satisface el sistema homogéneo, es decir,

$$\hat{\mathbf{Y}}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \label{15} \tag{15}$$

Si sustituimos en (\ref{14}) la ecuación queda como

$$\mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \mathbf{G}(t)$$

O bien,

$$\hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{G}(t) \label{16} \tag{16}$$

La matriz fundamental es no singular, de manera que siempre existe su inversa, esto nos permite establecer que

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) \label{17} \tag{17}$$

Esta ecuación es matricial y sabemos que es posible integrar sobre matrices, así que integremos la ecuación anterior con el objetivo de hallar la forma de $\mathbf{U}$.

$$\mathbf{U}(t) = \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{18} \tag{18}$$

Ahora que conocemos la forma de $\mathbf{U}(t)$, sustituimos en la solución propuesta (\ref{11}), de forma que una solución particular del sistema lineal no homogéneo es

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{19} \tag{19}$$

Por lo tanto, de (\ref{6}) y el resultado (\ref{19}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{20} \tag{20}$$

Si $\hat{\mathbf{Y}}(t)$ es la matriz fundamental de soluciones $e^{\mathbf{A} t}$ y considerando que $\hat{\mathbf{Y}}^{-1}(t) = e^{-\mathbf{A} t}$, el resultado anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{C} + e^{\mathbf{A}t} \int e^{-\mathbf{A} t} \mathbf{G}(t) dt \label{21} \tag{21}$$

Problema con valores iniciales

Consideremos el problema con valores iniciales

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G}; \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{22} \tag{22}$$

De nuestro desarrollo anterior consideremos la relación (\ref{17}).

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t)$$

En esta ocasión integremos de $t_{0}$ a $t$ y usemos el teorema fundamental del cálculo.

$$\mathbf{U}(t) = \mathbf{U}(t_{0}) + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{23} \tag{23}$$

Notemos que si aplicamos la condición inicial $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$ sobre la función (\ref{11}), se obtiene

$$\mathbf{Y}_{p}(t_{0}) = \hat{\mathbf{Y}}(t_{0}) \mathbf{U}(t_{0}) = \mathbf{Y}_{0} \label{24} \tag{24}$$

De donde,

$$\mathbf{U}(t_{0}) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} \label{25} \tag{25}$$

Sustituimos este resultado en la ecuación (\ref{23}).

$$\mathbf{U}(t) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{26} \tag{26}$$

Aquí debemos tener cuidado, si sustituimos la función (\ref{26}) en (\ref{11}), se obtiene

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{27} \tag{27}$$

Pero $\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0}$ es una matriz de constantes, digamos

$$\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} = \mathbf{C}$$

Entonces el resultado (\ref{27}) queda como

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{28} \tag{28}$$

Este resultado se parece a la ecuación (\ref{20}), es decir, a pesar de que sustituimos (\ref{26}) en (\ref{11}) esperando obtener la solución particular $\mathbf{Y}_{p}(t)$, en realidad estamos obteniendo la solución general, la solución general del problema de valores iniciales.

Si consideramos nuevamente que $\hat{\mathbf{Y}}(t) = e^{\mathbf{A} t}$, el resultado (\ref{27}) se reduce significativamente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} e^{-\mathbf{A} t_{0}} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{t_{0}}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{29} \tag{29}$$

O bien,

$$\mathbf{Y}(t) = e^{\mathbf{A}(t -t_{0})} \mathbf{Y}_{0} + \int_{t_{0}}^{t}e^{\mathbf{A} (t -s)} \mathbf{G}(s) ds \label{30} \tag{30}$$

Por otro lado, si $t_{0} = 0$, de (\ref{27}) se obtiene que

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(0) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds$$

Pero recordemos que

$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0) \label{31} \tag{31}$$

Entonces la solución anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{32} \tag{32}$$

Si nuestro propósito es determinar la solución general de un sistema lineal no homogéneo (\ref{7}), primero resolvemos el sistema lineal homogéneo asociado para obtener la solución complementaria en la forma (\ref{3}). Con las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ obtenidas formamos una matriz fundamental $\hat{\mathbf{Y}}(t)$, se calcula su inversa y se sustituyen las matrices correspondientes en la solución particular (\ref{19}). Una vez obtenidas ambas soluciones, la solución general del sistema lineal no homogéneo será

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

Sin embargo, si lo que tenemos es un problema de valores iniciales, debemos nuevamente obtener la solución del sistema lineal homogéneo asociado ya que eso es lo que nos permite formar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$, una vez obtenida esta función calculamos su inversa y se sustituyen las matrices correspondientes en la ecuación (\ref{27}), esto nos dará la solución completa del problema de valores iniciales, es decir, no es necesario aplicar las condiciones iniciales en la solución complementaria para obtener los valores de las constantes $c_{1}, c_{2}, \cdots, c_{n}$.

Para concluir con esta entrada realicemos dos ejemplos, en el primero de ellos obtendremos la solución general de un sistema lineal no homogéneo y en el segundo ejemplo resolveremos un problema con valores iniciales. Con estos ejemplos se espera que el método quede claro.

Ejemplo: Obtener la solución general del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
1 \\ -1
\end{pmatrix} e^{t}$$

Solución: Resolvamos primero el sistema homogéneo asociado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y}$$

En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz.

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
-\lambda & 2 \\ -1 & 3 -\lambda
\end{vmatrix} = 0$$

La ecuación característica es

$$\lambda^{2} -3 \lambda + 2 = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios son

$$\lambda_{1} = 1\hspace{1cm} y \hspace{1cm} \lambda_{2} = 2$$

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \begin{pmatrix}
-1 & 2 \\ -1 & 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + 2 k_{2} = 0$$

Es decir, $2 k_{2} = k_{1}$. Elegimos $k_{2} = 1$, entonces $k_{1} = 2$. Por lo tanto el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 2$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
-2 & 2 \\ -1 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + k_{2} = 0$$

Es decir, $k_{1} = k_{2}$. Elegimos $k_{1} = k_{2} = 1$. Por lo tanto, el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Con estos resultados concluimos que la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Para determinar la solución particular $\mathbf{Y}_{p}(t)$, formemos, con el resultado anterior, la matriz fundamental de soluciones (\ref{4}).

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix}$$

Como también requerimos de la matriz inversa, verifica que

$$\hat{\mathbf{Y}}^{-1}(t) = \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix}$$

La matriz $\mathbf{G}$ en este caso es

$$ \mathbf{G}(t) = \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix}$$

Sustituyamos estas matrices en la solución particular (\ref{19}).

\begin{align*}
\mathbf{Y}_{p}(t) &= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix} \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix} dt \\
&= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt
\end{align*}

Resolviendo la integral (sin considerar constantes de integración), se obtiene

$$\int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt = \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix} = \begin{pmatrix}
4t e^{t} + 3e^{t} \\ 2te^{t} + 3e^{t}
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}_{p}(t) =\begin{pmatrix}
4 \\ 2
\end{pmatrix} te^{t} + \begin{pmatrix}
3 \\ 3
\end{pmatrix} e^{t}$$

Por lo tanto, la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix} + \begin{pmatrix}
3 \\ 3
\end{pmatrix}e^{t} + \begin{pmatrix}
4 \\ 2
\end{pmatrix} t e^{t}$$

$\square$

Realicemos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix}$$

Solución: Primero debemos obtener la solución del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y}$$

Ello nos permitirá obtener la matriz fundamental de soluciones. En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz. La ecuación característica se obtendrá de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
1-\lambda & 0 & 0 \\ 2 & 1 -\lambda & -2 \\ 3 & 2 & 1 -\lambda
\end{vmatrix} = 0$$

Desarrollando el determinante obtendremos que

$$(1 -\lambda )(\lambda ^{2} -2 \lambda + 5) = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios de $\mathbf{A}$ son

$$\lambda_{1} = 1 \hspace{1cm} y \hspace{1cm} \lambda_{2} = 1 + 2i, \hspace{1cm} \lambda_{3} = 1 -2i$$

De acuerdo a los valores propios obtenidos, la manera de resolver el sistema homogéneo será aplicando la teoría vista en la entrada sobre valores propios complejos.

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \left[ \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} -\begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \right] \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 2 & 0 & -2 \\ 3 & 2 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema que se obtiene es

\begin{align*}
2 k_{1} -2 k_{3} &= 0 \\
3 k_{1} + 2 k_{2} &= 0
\end{align*}

De este sistema se observa que

\begin{align*}
k_{1} &= k_{3} \\
k_{2} &= -\dfrac{3k_{1}}{2}
\end{align*}

Elegimos $k_{1} = 2 = k_{3}$, de tal manera que $k_{2} = -3$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + 2i$.

Buscamos un vector $\mathbf{K}$, diferente de cero, tal que

$$[\mathbf{A} -(1 + 2i) \mathbf{I}] \mathbf{K} = \begin{pmatrix}
-2i & 0 & 0 \\ 2 & -2i & -2 \\ 3 & 2 & -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-2i k_{1} &= 0 \\
2k_{1} -2i k_{2} -2k_{3} &= 0 \\
3k_{1} + 2k_{2} -2i k_{3} &= 0
\end{align*}

De este sistema se observa que $k_{1} = 0$ y $k_{3} = -ik_{2}$. Elegimos $k_{2} = 1$, de manera que el segundo vector propio sea

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Caso 3: $\lambda_{2} = 1 -2i$.

Sabemos que este caso es el conjugado del caso anterior, por lo que directamente establecemos que el tercer vector propio es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

La solución general del sistema lineal homogéneo asociado, en su forma compleja, es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} + c_{3} e^{(1 -2i) t} \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

Sin embargo esta solución no nos sirve de mucho, pues desearíamos construir la matriz fundamental de soluciones con valores reales. Recordando lo visto en la entrada sobre valores propios complejos, podemos encontrar dos funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$, tal que la solución general sea de la forma

$$\mathbf{Y}_{c}(t) = c_{1} e^{\lambda_{1} t} + c_{2} \mathbf{W}_{1}(t) + c_{3} \mathbf{W}_{2}(t) \label{33} \tag{33}$$

Recordemos que las funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ están dadas por

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] \label{34} \tag{34}$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{35} \tag{35}$$

Consideremos el caso 2 en el que $\lambda_{2} = 1 + 2i$ y

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} $$

De estos resultados obtenemos que $\alpha = 1$, $\beta = 2$ y

$$\mathbf{U} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix}$$

Sustituyamos en la funciones (\ref{34}) y (\ref{35}). Por un lado,

\begin{align*}
\mathbf{W}_{1}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \cos(2t) -\begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \sin(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} -\begin{pmatrix}
0 \\ 0 \\ -\sin(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix}$$

Por otro lado,

\begin{align*}
\mathbf{W}_{2}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \sin(2t) + \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \cos(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

Recordemos que estas funciones también se pueden obtener considerando la identidad de Euler. Del caso 2 la solución que se obtiene es

$$\mathbf{Y}_{2c}(t) = e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Así,

$$\mathbf{W}_{1}(t) = Re \{ \mathbf{Y}_{2c}(t) \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = Im \{ \mathbf{Y}_{2c}(t) \}$$

Usando la identidad de Euler sobre esta solución obtenemos lo siguiente.

\begin{align*}
e^{(1 + 2i)t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} &= e^{t}[\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -i \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] + i e^{t} \left[ \sin(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -\cos(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ \sin(2t)
\end{pmatrix} \right] + ie^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

De donde,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

De esta forma, la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix} \label{36} \tag{36}$$

Esta solución es de la forma (\ref{3}) por lo que la matriz fundamental de soluciones, formada por estos vectores linealmente independientes, es

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t} & e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix}$$

Para obtener la solución del problema con valores iniciales usaremos el resultado (\ref{29}) para $t_{0} = 0$.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{0}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{37} \tag{37}$$

Es decir, consideraremos a la matriz $e^{\mathbf{A} t}$ como la matriz fundamental de soluciones. También es posible usar la relación (\ref{32}) usando la matriz $\hat{\mathbf{Y}}(t)$ antes establecida. ¿Por qué son equivalentes ambas formas?.

Determinemos la matriz $e^{\mathbf{A} t}$ usando la relación (\ref{31}). Si evaluamos $t = 0$ en la matriz $\hat{\mathbf{Y}}(t)$ se obtiene la matriz

$$\hat{\mathbf{Y}}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}$$

Comprueba que la matriz inversa es

$$\hat{\mathbf{Y}}^{ -1}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}^{ -1} = \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix}$$

Sustituyamos en (\ref{31}).

\begin{align*}
e^{\mathbf{A}t} &= \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t}& e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix} \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}
\end{align*}

Por lo tanto, la matriz que consideraremos como matriz fundamental de soluciones es

$$e^{\mathbf{A}t} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}$$

Como también requerimos de la inversa de esta matriz, verifica que

$$e^{-\mathbf{A}t} = e^{-t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) -\sin(2t) & \cos(2t) & \sin(2t) \\ 1 -\dfrac{3}{2} \sin(2t) -\cos(2t) & -\sin(2t) & \cos(2t)
\end{pmatrix}$$

En este caso la matriz $\mathbf{G}(t)$ es

$$\mathbf{G}(t) = \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}$$

Sustituyamos todos estos resultados en la solución (\ref{37}).

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{s} \cos(2s)
\end{pmatrix}ds$$

Por un lado,

$$e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix}$$

De tarea moral, determina las constantes $c_{1}$, $c_{2}$ y $c_{3}$ aplicando los valores iniciales sobre la solución complementaria (\ref{36}). ¿Qué relación tiene tu resultado con la operación anterior?.

Por otro lado,

$$e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} e^{s} \begin{pmatrix}
0 \\ 0 \\ \cos(2s)
\end{pmatrix} = \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix}$$

Sustituimos estas matrices en $\mathbf{Y}(t)$.

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds$$

Resolvamos la integral.

\begin{align*}
\int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds &= \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{t} – \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{0} \\
&= \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4t) \\ \dfrac{t}{2} + \dfrac{\sin(4t)}{8}
\end{pmatrix} -\begin{pmatrix}
0 \\ -\dfrac{1}{8} \\ 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}
\end{align*}

Entonces,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}$$

Ahora realicemos el producto del segundo sumando.

\begin{align*}
e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} &= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ \cos(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) -\sin(2t) \left( \dfrac{4t + \sin(4t)}{8} \right) \\ \sin(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) + \cos(2t) \left( \dfrac{4t + \sin(4t)}{8} \right)
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}
\end{align*}

Así,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}$$

Haciendo las operaciones correspondientes se obtiene finalmente que la solución al problema con valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\left( 1+ \dfrac{1}{2}t \right) \sin(2t) \\ \left( 1 + \dfrac{1}{2}t \right) \cos(2t) + \dfrac{5}{4} \sin(2t)
\end{pmatrix}$$

$\square$

Vemos que este método puede ser bastante largo y complicado, de hecho se puede volver una tarea imposible de hacer a mano si se tienen sistemas con matriz $\mathbf{A}$ de $3 \times 3$ o más. Se recomienda, en la medida de lo posible, usar algún programa computacional para llevar a cabo algunas de las operaciones, lo importante es entender como llevar a cabo el método.

Con esto concluimos lo que corresponde al estudio de los distintos métodos para resolver sistemas lineales. Prácticamente hemos concluido con la unidad 3 del curso.

En las siguientes dos entradas de esta unidad trataremos de justificar los teoremas de existencia y unicidad en el caso de los sistemas lineales, esto con el propósito de justificar toda la teoría desarrollada a lo largo de la unidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de los siguientes sistemas lineales no homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \cos(t) \\ \sin(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 \\ -\dfrac{1}{2} & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \csc(t) \\ \sec(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    e^{t} \\ e^{2t} \\ te^{3t}
    \end{pmatrix}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix} e^{2t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 & -2 \\ 1 & 1 & 1 \\ 2 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 0
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 0 \\ 0
    \end{pmatrix}$

Más adelante…

En la siguiente entrada demostraremos los teoremas de existencia y unicidad para el caso de los sistemas lineales de primer orden con coeficientes constantes homogéneos y no homogéneos y posteriormente, en la última entrada de esta unidad, justificaremos el teorema de existencia y unicidad en el caso general, es decir, para sistemas lineales y no lineales.

Entradas relacionadas

Ecuaciones Diferenciales I: Ecuaciones lineales no homogéneas de segundo orden – Método de variación de parámetros

Las matemáticas son un lugar donde puedes hacer
cosas que no puedes hacer en el mundo real.
– Marcus du Sautoy

Introducción

Con lo que hemos estudiado en las dos últimas entradas somos capaces de resolver ecuaciones diferenciales lineales de segundo orden homogéneas y no homogéneas con coeficientes constantes, es decir, ecuaciones de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = g(x) \label{1} \tag{1}$$

Con $a, b, c$ constantes y $g(x) = 0$ en el caso homogéneo o $g(x) \neq 0$ en el caso no homogéneo, en éste último caso aún estamos limitados a la forma que puede tener la función $g$, pues sabemos resolver las ecuaciones diferenciales en el caso en el que la función $g$ es una constante, una función polinomial, una función exponencial, funciones seno o coseno, o una combinación entre ellas. La pregunta ahora es, ¿cómo resolver este tipo de ecuaciones para cualquier tipo de función $g(x)$?.

En esta entrada desarrollaremos un método que nos permite obtener la solución general independientemente de la forma que tenga la función $g(x)$. A dicho método se le conoce como variación de parámetros.

El nombre de este método resulta familiar. En la unidad anterior desarrollamos éste método para el caso de las ecuaciones diferenciales lineales de primer orden como método alterno al método por factor integrante. Lo que haremos en esta entrada es una adaptación del método de variación de parámetros para el caso en el que las ecuaciones diferenciales son de orden superior, en particular, de segundo orden.

Variación de parámetros

Consideremos la ecuación diferencial

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g_{0}(x) \label{2} \tag{2}$$

Si $a_{2}(x) \neq 0$ para toda $x$ en el intervalo $\delta$ en el que está definida la solución, entonces podemos definir las funciones

$$P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}, \hspace{1cm} Q(x) = \dfrac{a_{0}(x)}{a_{2}(x)} \hspace{1cm} y \hspace{1cm} g(x) = \dfrac{g_{0}(x)}{a_{2}(x)}$$

de manera que la ecuación (\ref{2}) la podemos escribir en su forma estándar como

$$\dfrac{d^{2}y}{dx^{2}} + P(x)\dfrac{dy}{dx} + Q(x)y = g(x) \label{3} \tag{3}$$

En el caso de primer orden se hizo la suposición de que la solución particular era de la forma

$$y_{p}(x) = k(x)y_{1}(x) = k(x) e^{-\int{P(x)dx}}$$

Manteniendo esta idea, en el caso de segundo orden se busca una solución de la forma

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) \label{4} \tag{4}$$

Donde $y_{1}$ y $y_{2}$ forman un conjunto fundamental de soluciones en $\delta$ de la ecuación homogénea asociada a (\ref{3}). Determinemos la primera y segunda derivada de $y_{p}$ para sustituir los resultados en la ecuación diferencial (\ref{3}).

$$\dfrac{dy_{p}}{dx} = k_{1}\dfrac{dy_{1}}{dx} + y_{1}\dfrac{dk_{1}}{dx} + k_{2}\dfrac{dy_{2}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \label{5} \tag{5}$$

y

$$\dfrac{d^{2}y_{p}}{dx^{2}} = k_{1}\dfrac{d^{2}y_{1}}{dx^{2}} + 2\dfrac{dy_{1}}{dx}\dfrac{dk_{1}}{dx} + y_{1}\dfrac{d^{2}k_{1}}{dx^{2}} + k_{2}\dfrac{d^{2}y_{2}}{dx^{2}} + 2\dfrac{dy_{2}}{dx}\dfrac{dk_{2}}{dx} + y_{2}\dfrac{d^{2}k_{2}}{dx^{2}} \label{6} \tag{6}$$

Sustituyendo en (\ref{3}) y reorganizando los términos obtenemos lo siguiente.

\begin{align*}
k_{1} \left[ \dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Q y_{1} \right] + y_{1} \dfrac{d^{2}k_{1}}{dx^{2}} + \dfrac{dk_{1}}{dx} \dfrac{dy_{1}}{dx} + k_{2} \left[ \dfrac{d^{2}y_{2}}{dx^{2}} + P\dfrac{dy_{2}}{dx} + Q y_{2} \right] \\
+ y_{2} \dfrac{d^{2}k_{2}}{dx^{2}} + \dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} + P \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x)
\end{align*}

Como $y_{1}$ y $y_{2}$ son soluciones de la ecuación homogénea asociada, entonces

$$\dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Q y_{1} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} + P\dfrac{dy_{2}}{dx} + Q y_{2} = 0$$

y además notamos que

$$\dfrac{d}{dx} \left[ y_{1}\dfrac{dk_{1}}{dx} \right] = y_{1} \dfrac{d^{2}k_{1}}{dx^{2}} + \dfrac{dk_{1}}{dx} \dfrac{dy_{1}}{dx} \label{7} \tag{7}$$

y

$$\dfrac{d}{dx} \left[ y_{2}\dfrac{dk_{2}}{dx} \right] = y_{2} \dfrac{d^{2}k_{2}}{dx^{2}} + \dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} \label{8} \tag{8}$$

Considerando lo anterior la ecuación diferencial queda como

$$\dfrac{d}{dx} \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + P \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x) \label{9} \tag{9}$$

Nuestro propósito es determinar a las funciones $k_{1}(x)$ y $k_{2}(x)$ de (\ref{4}), esto implica que debemos formar un sistema con dos ecuaciones que debemos resolver para obtener dichas funciones. De acuerdo al resultado obtenido vamos a establecer la restricción de que las funciones $k_{1}$ y $k_{2}$ satisfacen la relación

$$y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} = 0 \label{10} \tag{10}$$

Considerando esto la ecuación se reduce a

$$\dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x) \label{11} \tag{11}$$

Las ecuaciones (\ref{10}) y (\ref{11}) corresponden al sistema de dos ecuaciones que debemos resolver.

Como podemos notar, es un sistema para determinar las derivadas de las funciones $k_{1}$ y $k_{2}$ y no las funciones mismas, esto implica que una vez que determinemos a las derivadas será necesario hacer una integración a cada una de ellas. Resolvamos el sistema.

Multipliquemos la ecuación (\ref{10}) por $\dfrac{dy_{2}}{dx}$ y la ecuación (\ref{11}) por $y_{2}$.

$$y_{1}\dfrac{dk_{1}}{dx} \dfrac{dy_{2}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} = 0 \label{12} \tag{12}$$

$$y_{2} \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + y_{2} \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = y_{2} g(x) \label{13} \tag{13}$$

Si a la ecuación (\ref{12}) le restamos la ecuación (\ref{13}) obtenemos lo siguiente.

$$\dfrac{dk_{1}}{dx} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2} \dfrac{dy_{1}}{dx} \right) = -y_{2}(x)g(x) \label{14} \tag{14}$$

Recordemos que el Wronskiano esta definido como

$$W(y_{1}, y_{2}) = y_{1} \dfrac{dy_{2}}{dx} -y_{2} \dfrac{dy_{1}}{dx} \label{15} \tag{15}$$

Entonces la ecuación (\ref{14}) la podemos escribir como

$$\dfrac{dk_{1}}{dx} \left[ W(y_{1}, y_{2}) \right] = -y_{2}(x)g(x) \label{16} \tag{16}$$

Como $y_{1}$ y $y_{2}$ forman un conjunto fundamental de soluciones de la ecuación homogénea asociada, entonces

$$W(y_{1}, y_{2}) \neq 0$$

Así, de la ecuación (\ref{16}) obtenemos que

$$\dfrac{dk_{1}}{dx} = -\dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} \label{17} \tag{17}$$

Hemos encontrado el valor de la derivada de la función $k_{1}(x)$, integrando obtenemos finalmente que

$$k_{1}(x) = -\int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{18} \tag{18}$$

En un proceso totalmente análogo, si multiplicamos a la ecuación (\ref{10}) por $\dfrac{dy_{1}}{dx}$ y a la ecuación (\ref{11}) por $y_{1}$ y realizamos los mismos pasos obtendremos la ecuación para la derivada de la función $k_{2}(x)$.

$$\dfrac{dk_{2}}{dx} = \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} \label{19} \tag{19}$$

Integrando obtendremos la función que buscamos

$$k_{2}(x) = \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{20} \tag{20}$$

Sustituyendo los resultados (\ref{18}) y (\ref{20}) en la solución particular (\ref{4}) obtenemos finalmente la solución que buscábamos

$$y_{p}(x) = -y_{1}(x) \int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} + y_{2}(x) \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{21} \tag{21}$$

El resultado (\ref{21}) corresponde a la solución particular de la ecuación diferencial (\ref{2}) que, a diferencial del método de coeficientes indeterminados, se aplica para cualquier función $g(x)$, aunque cabe mencionar que si la función $g$ es muy compleja, entonces nos resultará, en algunas ocasiones, complicado resolver las integrales involucradas.

A lo largo del curso hemos motivado a no memorizar las formulas y en su lugar desarrollar el procedimiento del método correspondiente, sin embargo, en esta ocasión se trata de un método muy largo y complicado para usarse cada vez que se intente resolver una ecuación diferencial, por lo que se recomienda seguir los siguientes pasos.

  • Primero se determina la solución complementaria $$y_{c} = c_{1}y_{1} + c_{2}y_{2}$$ de la ecuación diferencial homogénea asociada, esto nos permitirá determinar el conjunto fundamental de soluciones $\{y_{1}, y_{2}\}$.
  • Una vez conocido el conjunto fundamental de soluciones se procede a calcular el Wronskiano $W(y_{1}, y_{2})$.
  • Posteriormente se divide la ecuación diferencial por $a_{2}$ para escribir la ecuación es su forma estándar (\ref{3}) y así obtener la forma de la función $g(x)$.
  • Se sustituyen los valores correspondientes en (\ref{18}) y (\ref{20}) para obtener las funciones $k_{1}$ y $k_{2}$ respectivamente.
  • Finalmente se sustituyen los resultados en la solución particular $$y_{p} = k_{1}y_{1} + k_{2}y_{2}$$ y posteriormente en la solución general $$y = y_{c} + y_{p}$$

Cuando se calculan las integrales indefinidas (\ref{18}) y (\ref{20}) no es necesario considerar las constantes de integración. Para mostrar esto consideremos las constantes $c_{3}$ y $c_{4}$, tales que

\begin{align*}
y(x) &= y_{c}(x) + y_{p}(x) \\
&= c_{1}y_{1}(x) + c_{2}y_{2}(x) + \left[ k_{1}(x) + c_{3} \right] y_{1}(x) + \left[ k_{2}(x) + c_{4} \right] y_{2}(x) \\
&= \left[ c_{1} + c_{3} \right] y_{1}(x) + \left[ c_{2} + c_{4} \right] y_{2}(x) + k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) \\
&= C_{1}y_{1}(x) + C_{2}y_{2}(x) + k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x)
\end{align*}

Es decir, las constantes de la solución complementaria contienen todas las constantes que puedan aparecer en el método.

Realicemos algunos ejemplos.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$3 \dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 6y = e^{x} \sec(x)$$

Solución: El primer paso es obtener la solución complementaria. La ecuación auxiliar es

$$3k^{2} -6k + 6 = 0$$

De donde $k_{1} = 1 + i$ y $k_{2} = 1 -i$, identificamos que $\alpha = \beta = 1$, entonces la forma de la solución complementaria es

$$y_{c}(x) = c_{1}e^{x} \cos(x) + c_{2}e^{x} \sin(x)$$

El conjunto fundamental de soluciones esta conformado por las funciones

$$y_{1}(x) = e^{x} \cos(x) \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{x} \sin(x)$$

La derivada de ambas soluciones son

$$\dfrac{dy_{1}}{dx} = e^{x} \cos(x) -e^{x} \sin(x) \hspace{1cm} y \hspace{1cm} \dfrac{dy_{2}}{dx} = e^{x} \sin(x) + e^{x} \cos(x)$$

Usando estos resultados calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{x} \cos(x) & e^{x} \sin(x) \\
e^{x} \cos(x) -e^{x} \sin(x) & e^{x} \sin(x) + e^{x} \cos(x)
\end{vmatrix} \\
&= e^{2x} \cos(x) \sin(x) + e^{2x} \cos^{2}(x) -e^{2x} \cos(x) \sin(x) + e^{2x} \sin^{2}(x) \\
&= e^{2x}
\end{align*}

El Wronskiano es

$$W(x) = e^{2x}$$

¡Cuidado!, como en la ecuación diferencial la segunda derivada tiene un coeficiente, debemos dividir toda la ecuación por dicho coeficiente para obtener la forma estándar y así la función $g(x)$. La ecuación en su forma estándar es

$$\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = \dfrac{e^{x} \sec(x)}{3}$$

En este caso la función $g$ es

$$g(x) = \dfrac{e^{x} \sec(x)}{3}$$

Ahora que ya conocemos los valores que necesitábamos, recurrimos a las ecuaciones (\ref{18}) y (\ref{20}) para obtener las funciones que buscamos.

Para la función $k_{1}(x)$, tenemos lo siguiente.

\begin{align*}
k_{1}(x) &= -\int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} \\
&= -\int{\dfrac{\left( e^{x} \sin(x) \right) \left( \dfrac{e^{x} \sec(x)}{3} \right)}{e^{2x}} dx} \\
&= -\int{\dfrac{e^{2x} \sin(x) \sec(x)}{3e^{2x}} dx} \\
&= -\dfrac{1}{3} \int{\tan(x) dx} \\
&= \dfrac{1}{3} \ln|\cos(x)|
\end{align*}

La integral de la tangente es común. Por tanto, la función $k_{1}$ es

$$k_{1}(x) = \dfrac{1}{3} \ln|\cos(x)|$$

Para el caso de la función $k_{2}(x)$, tenemos lo siguiente.

\begin{align*}
k_{2}(x) &= \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \\
&= \int{\dfrac{\left( e^{x} \cos(x) \right) \left( \dfrac{e^{x} \sec(x)}{3} \right)}{e^{2x}} dx} \\
&= \int{\dfrac{e^{2x} \cos(x) \sec(x)}{3e^{2x}} dx} \\
&= \dfrac{1}{3} \int{dx} \\
&= \dfrac{1}{3}x
\end{align*}

La función $k_{2}$ es

$$k_{2}(x) = \dfrac{1}{3}x$$

Ya podemos establecer que la solución particular, de acuerdo a (\ref{4}), es

$$y_{p}(x) = \dfrac{1}{3} \ln|\cos(x)| \left[ e^{x} \cos(x) \right] + \dfrac{1}{3}x \left[ e^{x} \sin(x) \right]$$

Por lo tanto, la solución general de la ecuación diferencial

$$3 \dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 6y = e^{x} \sec(x)$$

es

$$y(x) = c_{1}e^{x} \cos(x) + c_{2}e^{x} \sin(x) + \dfrac{1}{3}e^{x} \cos(x) \ln|\cos(x)| + \dfrac{1}{3}x e^{x} \sin(x)$$

$\square$

Con este ejemplo encontramos un buen momento para reflexionar y darnos cuenta de que ya hemos avanzado mucho, tan sólo observa el tipo de ecuación que acabamos de resolver y no sólo eso, observa que tan compleja es la solución general.

¡Sigamos adelante!.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 2\dfrac{dy}{dx} + y = \dfrac{e^{-x}}{x}$$

Solución: Como la ecuación ya está es su forma estándar la función $g$ es

$$g(x) = \dfrac{e^{-x}}{x}$$

Determinemos la solución complementaria, la ecuación auxiliar es

$$k^{2} + 2k + 1 = 0$$

De donde $k_{1} = k_{2} = -1$, la multiplicidad de la solución nos indica que la forma de la solución complementaria es

$$y_{c}(x) = c_{1}e^{-x} + c_{2}xe^{-x}$$

El conjunto fundamental de soluciones esta conformado por las funciones

$$y_{1}(x) = e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = xe^{-x}$$

Usando estas soluciones y sus derivadas calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{-x} & xe^{-x} \\
-e^{-x} & e^{-x} -xe^{-x}
\end{vmatrix} \\
&= e^{-2x} -xe^{2x} + xe^{-2x} \\
&= e^{-2x}
\end{align*}

El Wronskiano es

$$W(x) = e^{-2x}$$

Sustituyamos estos resultados directamente en la ecuación (\ref{21}).

\begin{align*}
y_{p}(x) &= -e^{-x} \int {\dfrac{ \left( xe^{-x} \right) \left( \dfrac{e^{-x}}{x} \right) }{e^{-2x}}dx} + xe^{-x} \int {\dfrac{ \left( e^{-x} \right) \left( \dfrac{e^{-x}}{x} \right) }{e^{-2x}}dx} \\
&= -e^{-x}\int dx+xe^{-x}\int \dfrac{dx}{x} \\
&= -xe^{-x} + xe^{-x}\ln(x)
\end{align*}

La solución particular es

$$y_{p}(x) = -xe^{-x} + xe^{-x}\ln(x)$$

Por lo tanto, la solución general de la ecuación diferencial es

$$y(x) = c_{1}e^{-x} + c_{2}xe^{-x} -xe^{-x} + xe^{-x}\ln(x)$$

$\square$

Un ejemplo más.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -y = 4x^{3}e^{x}$$

Solución: La función $g$ es

$$g(x) = 4x^{3}e^{x}$$

y la ecuación auxiliar es

$$k^{2} -1 = 0$$

De donde $k_{1} = 1$ y $k_{2} = -1$. Entonces, la solución complementaria es

$$y_{c}(x) = c_{1}e^{x} + c_{2}e^{-x}$$

El conjunto fundamental de soluciones esta conformado por

$$y_{1}(x) = e^{x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{-x}$$

Usando estas funciones y sus derivadas calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{x} & e^{-x} \\
e^{x} & -e^{-x} \end{vmatrix} = -2
\end{align*}

El Wronskiano es $W = -2$. Sustituyendo estos resultados directamente en la ecuación (\ref{21}), obtenemos lo siguiente.

\begin{align*}
y_{p}(x) &= -e^{x} \int {\dfrac{(e^{-x})(4x^{3}e^{x})}{-2} dx} + e^{-x} \int {\dfrac{(e^{x})(4x^{3}e^{x})}{-2} dx} \\
&= 2e^{x} \int {x^{3} dx} -2e^{-x} \int {x^{3}e^{2x} dx} \\
&= \dfrac{1}{2}x^{4}e^{x} -2e^{-x} \int {x^{3}e^{2x} dx}
\end{align*}

La integral que nos falta se puede resolver por partes tomando $u = x^{2}$ y $v^{\prime} = e^{2x}$. Resolviendo la integral obtendremos lo siguiente.

$$\int {x^{3}e^{2x} dx} = \dfrac{1}{2}e^{2x}x^{3} -\dfrac{3}{4}e^{2x}x^{2} + \dfrac{3}{4}e^{2x}x -\dfrac{3}{8}e^{2x}$$

Sustituyendo en la solución particular tenemos

\begin{align*}
y_{p}(x) &= \dfrac{1}{2}x^{4}e^{x} -2e^{-x} \left( \dfrac{1}{2}e^{2x}x^{3} -\dfrac{3}{4}e^{2x}x^{2} + \dfrac{3}{4}e^{2x}x -\dfrac{3}{8}e^{2x} \right) \\
&= \dfrac{1}{2}x^{4}e^{x} -x^{3}e^{x} + \dfrac{3}{2}x^{2}e^{x} -\dfrac{3}{2}xe^{x} + \dfrac{3}{4}e^{x}
\end{align*}

Finalmente obtenemos como solución particular a la función

$$y_{p}(x) = e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x + \dfrac{3}{4} \right)$$

Y por lo tanto, la solución general de la ecuación diferencial es

$$y(x) = c_{1}e^{x} + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x + \dfrac{3}{4} \right)$$

Este resultado es válido, sin embargo se puede simplificar más, ya que se puede reescribir a la solución como

$$y(x) = e^{x} \left( c_{1} + \dfrac{3}{4} \right) + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x \right)$$

y definir la constante $C_{1} = c_{1} + \dfrac{3}{4}$ para finalmente escribir la solución como

$$y(x) = C_{1} e^{x} + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x \right)$$

$\square$

Variación de parámetros en ecuaciones de orden superior

Este método se puede generalizar a ecuaciones de orden $n$ aunque, por su puesto, los cálculos se vuelven más extensos.

A continuación mostraremos el panorama general para ecuaciones diferenciales de orden $n$ y mostraremos los resultados para el caso $n = 3$ que nos mostrará la forma en que aumenta la complejidad de los cálculos.

La ecuación de orden $n$ es su forma estándar es

$$\dfrac{d^{n}y}{dx^{n}} + P_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + P_{1}(x) \dfrac{dy}{dx} + P_{0}(x) y = g(x) \label{22} \tag{22}$$

Si la solución complementaria de (\ref{22}) es

$$y_{c}(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{23} \tag{23}$$

Entonces una solución particular debe ser

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) + \cdots + k_{n}(x)y_{n}(x) \label{24} \tag{24}$$

Análogo a las ecuaciones (\ref{10}) y (\ref{11}), las derivadas $\dfrac{dk_{i}}{dx} = k^{\prime}_{i}$ con $i = 1, 2, \cdots, n$ se determinan del sistema de $n$ ecuaciones

\begin{align*}
y_{1}k^{\prime}_{1} + y_{2}k^{\prime}_{2} + \cdots + y_{n}k^{\prime}_{n} &= 0 \\
y^{\prime}_{1}k^{\prime}_{1} + y^{\prime}_{2}k^{\prime}_{2} + \cdots + y^{\prime}_{n}k^{\prime}_{n} &= 0 \\
\vdots \\
y^{(n -1)}_{1}k^{\prime}_{1} + y^{(n -1)}_{2}k^{\prime}_{2} + \cdots + y^{(n-1)}_{n}k^{\prime}_{n} &= g(x) \label{25} \tag{25}
\end{align*}

Al igual que el caso de segundo orden, las primeras $n -1$ ecuaciones del sistema son suposiciones que se hacen para simplificar la ecuación resultante de sustituir la solución (\ref{24}) en la ecuación (\ref{22}).

Usando la regla de Cramer para resolver el sistema se obtiene que

$$\dfrac{dk_{i}}{dx} = \dfrac{W_{i}}{W}; \hspace{1cm} i = 1, 2 , \cdots, n \label{26} \tag{26}$$

Donde $W$ es el Wronskiano del conjunto fundamental $\{ y_{1}(x), y_{2}(x), \cdots, y_{n}(x) \}$ y $W_{i}$ es el determinante que se obtiene de remplazar la $i$-ésima columna del Wronskiano por la columna formada por el lado derecho de (\ref{25}), es decir, la columna que consta de $(0, 0, \cdots, g(x))$.

Para que quede más claro lo anterior, en el caso $n = 3$ las $\dfrac{dk_{i}}{dx}$, $i = 1, 2, 3$ quedan como

$$\dfrac{dk_{1}}{dx} = \dfrac{W_{1}}{W}, \hspace{1cm} \dfrac{dk_{2}}{dx} = \dfrac{W_{2}}{W}, \hspace{1cm} \dfrac{dk_{3}}{dx} = \dfrac{W_{3}}{W} \label{27} \tag{27}$$

Donde

$$W = \begin{vmatrix}
y_{1} & y_{2} & y_{3} \\
y^{\prime}_{1} & y^{\prime}_{2} & y^{\prime}_{3} \\
y^{\prime \prime}_{1} & y^{\prime \prime}_{2} & y^{\prime \prime}_{3}
\end{vmatrix} \label{28} \tag{28}$$

y

\begin{align*}
W_{1} = \begin{vmatrix}
0 & y_{2} & y_{3} \\
0 & y^{\prime}_{2} & y^{\prime}_{3} \\
g(x) & y^{\prime \prime}_{2} & y^{\prime \prime}_{3}
\end{vmatrix}, \hspace{1cm} W_{2} = \begin{vmatrix}
y_{1} & 0 & y_{3} \\
y^{\prime}_{1} & 0 & y^{\prime}_{3} \\
y^{\prime \prime}_{1} & g(x) & y^{\prime \prime}_{3}
\end{vmatrix}, \hspace{1cm} W_{3} = \begin{vmatrix}
y_{1} & y_{2} & 0 \\
y^{\prime}_{1} & y^{\prime}_{2} & 0 \\
y^{\prime \prime}_{1} & y^{\prime \prime}_{2} & g(x)
\end{vmatrix}
\end{align*}

Habrá que integrar las ecuaciones de (\ref{27}) para obtener las funciones $k_{i}$, $i = 1, 2, 3$ y así obtener la solución particular

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) + k_{3}(x)y_{3}(x) \label{29} \tag{29}$$

Notemos que usando esta notación, los resultados (\ref{17}) y (\ref{19}) del caso $n = 2$ se pueden escribir como

$$\dfrac{dk_{1}}{dx} = \dfrac{W_{1}}{W} = -\dfrac{y_{2}g(x)}{W} \hspace{1cm} y \hspace{1cm} \dfrac{dk_{2}}{dx} = \dfrac{W_{2}}{W} = \dfrac{y_{1}g(x)}{W} \label{30} \tag{30}$$

Donde

\begin{align*} W = \begin{vmatrix}
y_{1} & y_{2} \\
y^{\prime}_{1} & y^{\prime}_{2}
\end{vmatrix}, \hspace{1cm} W_{1} = \begin{vmatrix}
0 & y_{2} \\
g(x) & y^{\prime}_{2}
\end{vmatrix} \hspace{1cm} y \hspace{1cm} W_{2} = \begin{vmatrix}
y_{1} & 0 \\
y^{\prime}_{1} & g(x)
\end{vmatrix} \label{31} \tag{31}
\end{align*}

Realicemos un ejemplo con una ecuación de orden $3$.

Ejemplo: Resolver la ecuación diferencial de tercer orden

$$\dfrac{d^{3}y}{dx^{3}} + \dfrac{dy}{dx} = \tan(x)$$

Solución: La función $g$ es

$$g(x) = \tan(x)$$

y la ecuación auxiliar es

$$k^{3} + k = k(k^{2} + 1) = 0$$

De donde $k_{1} = 0$, $k_{2} = i$ y $k_{3} = -i$. Dos raíces son complejas conjugadas con $\alpha = 0$ y $\beta = 1$. La primer raíz nos indica que la forma de una solución es

$$y_{1}(x) = e^{k_{1}x} = 1$$

mientras que las dos raíces restantes nos indican dos solución de la forma

$$y_{2}(x) = e^{\alpha x} \cos(\beta x) = \cos(x)$$

y

$$y_{3}(x) = e^{\alpha x} \sin(\beta x) = \sin(x)$$

Por lo tanto, la solución complementaria de la ecuación diferencial es

$$y_{c}(x) = c_{1} + c_{2} \cos(x) + c_{3} \sin(x)$$

Como vimos, el conjunto fundamental de soluciones es $\{ y_{1} = 1, y_{2} = \cos(x) , y_{3} = \sin(x) \}$, las primeras y segundas derivadas correspondientes son

$$\dfrac{dy_{1}}{dx} = 0, \hspace{1cm} \dfrac{dy_{2}}{dx} = -\sin(x), \hspace{1cm} \dfrac{dy_{3}}{dx} = \cos(x)$$

y

$$\dfrac{d^{2}y_{1}}{dx^{2}} = 0, \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} = -\cos(x), \hspace{1cm} \dfrac{d^{2}y_{3}}{dx^{2}} = -\sin(x)$$

Ahora calculemos los determinantes correspondientes, el primero de ellos es el Wronskiano

$$W = \begin{vmatrix}
1 & \cos(x) & \sin(x) \\
0 & -\sin(x) & \cos(x) \\
0 & -\cos(x) & -\sin(x)
\end{vmatrix} = \sin^{2}(x) + \cos^{2}(x) = 1$$

Para el resto de determinantes, tenemos

$$W_{1} = \begin{vmatrix}
0 & \cos(x) & \sin(x) \\
0 & -\sin(x) & \cos(x) \\
\tan(x) & -\cos(x) & -\sin(x)
\end{vmatrix} = \tan(x) \left[ \cos^{2}(x) + \sin^{2}(x) \right] = \tan(x)$$

$$W_{2} = \begin{vmatrix}
1 & 0 & \sin(x) \\
0 & 0 & \cos(x) \\
0 & \tan(x) & -\sin(x)
\end{vmatrix} = -\cos(x) \tan(x) = -\sin(x)$$

y

$$W_{3} = \begin{vmatrix}
1 & \cos(x) & 0 \\
0 & -\sin(x) & 0 \\
0 & -\cos(x) & \tan(x)
\end{vmatrix} = -\sin(x) \tan(x) = -\dfrac{\sin^{2}(x)}{\cos(x)}$$

Sustituyendo estos resultados en (\ref{27}), obtenemos

$$\dfrac{dk_{1}}{dx} = \tan(x), \hspace{1cm} \dfrac{dk_{2}}{dx} = -\sin(x), \hspace{1cm} \dfrac{dk_{3}}{dx} = -\dfrac{\sin^{2}(x)}{\cos(x)}$$

Procedemos a integrar cada ecuación (sin considerar constantes) para obtener las funciones que buscamos.

La primer integral es común,

$$k_{1}(x) = \int{\tan(x) dx} = -\ln|\cos(x)|$$

La segunda integral es directa

$$k_{2}(x) = -\int{\sin(x) dx} = \cos(x)$$

Mientras que para la tercer integral si se requiere de un mayor cálculo.

\begin{align*}
k_{3}(x) &= -\int{\dfrac{\sin^{2}(x)}{\cos(x)} dx} \\
&= -\int{\dfrac{1 -\cos^{2}(x)}{\cos(x)} dx} \\
&= -\int{\dfrac{1}{\cos(x)} dx} + \int{\cos(x) dx} \\
\end{align*}

Por un lado

$$-\int{\dfrac{1}{\cos(x)} dx} = -\int{\sec(x) dx} = -\ln|\tan(x) + \sec(x)|$$

por otro lado,

$$\int{\cos(x) dx} = \sin(x)$$

entonces

$$k_{3}(x) = -\ln|\tan(x) + \sec(x)| + \sin(x)$$

Ahora que conocemos las funciones incógnita concluimos que la solución particular de la ecuación diferencial es

\begin{align*}
y_{p}(x) &= -\ln|\cos(x)|(1) + \cos(x) [\cos(x)] + \left[ -\ln|\tan(x) + \sec(x)| + \sin(x) \right] (\sin(x)) \\
&= -\ln|\cos(x)| + \cos^{2}(x) -\sin(x) \ln|\tan(x) + \sec(x)| + \sin^{2}(x) \\
&= -\ln|\cos(x)| -\sin(x) \ln|\tan(x) + \sec(x)| \\
\end{align*}

Por lo tanto, la solución general de la ecuación diferencial de tercer orden es

$$y(x) = c_{1} + c_{2} \cos(x) + c_{3} \sin(x) -\ln|\cos(x)| -\sin(x) \ln|\tan(x) + \sec(x)|$$

$\square$

Como podemos notar, los cálculos se hacen más extensos, sin embargo los pasos a seguir son los mismos para cualquier orden.

El método de variación de parámetros, a diferencia del método de coeficientes indeterminados, tiene la ventaja de que siempre produce una solución de la ecuación diferencial independientemente de la forma de la función $g(x)$, siempre y cuando se pueda resolver la ecuación homogénea asociada. Además, el método de variación de parámetros es aplicable a ecuaciones diferenciales lineales con coeficientes variables.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de las siguientes ecuaciones diferenciales.
  • $\dfrac{d^{2}y}{dx^{2}} -9\dfrac{dy}{dx} = 18x^{2}e^{9x}$
  • $\dfrac{d^{2}y}{dx^{2}} + 9y = 18e^{x} \sin(x)$
  • $4 \dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + y = e^{x/2}\sqrt{1 -x^{2}}$
  1. Resolver las siguientes ecuaciones diferenciales para las condiciones iniciales dadas.
  • $\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} = 12e^{4x}(x + 1); \hspace{1cm} y(0) = 0, \hspace{0.6cm} y^{\prime}(0) = 4$
  • $\dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} -6y = 10e^{x} \sin(x); \hspace{1cm} y(0) = \dfrac{2}{17}, \hspace{0.6cm} y^{\prime}(0) = 0$
  1. Obtener la solución general de las siguientes ecuaciones diferenciales de tercer orden. Simplificar la forma de la solución redefiniendo las constantes.
  • $\dfrac{d^{3}y}{dx^{3}} + 4 \dfrac{dy}{dx} = \sec(2x)$
  • $\dfrac{d^{3}y}{dx^{3}} + \dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -y = 2e^{-x}$

Más adelante…

Hemos concluido con el estudio de las ecuaciones diferenciales lineales de orden superior con coeficientes constantes.

Lo que sigue es estudiar este mismo tipo de ecuaciones, pero en el caso en el que los coeficientes no son constantes, es decir, son coeficientes variables. Estas ecuaciones suelen ser mucho más difícil de resolver, sin embargo existe un tipo de ecuación especial, conocida como ecuación de Cauchy – Euler, que contiene coeficientes variables, pero que su método de resolución es bastante similar a lo que hemos desarrollado en el caso de coeficientes constantes, pues su resolución involucra resolver una ecuación auxiliar. En la siguiente entrada estudiaremos dicha ecuación.

Entradas relacionadas