Archivo de la etiqueta: soluciones linealmente independientes

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios repetidos

Por Omar González Franco

La matemática es la ciencia del orden y la medida, de bellas
cadenas de razonamientos, todos sencillos y fáciles.
– Descartes

Introducción

El método de valores y vectores propios nos ha permitido obtener las soluciones generales de sistemas lineales homogéneos. Ya vimos los casos en los que los valores propios son reales y distintos y cuando son complejos, en esta entrada presentaremos el caso en el que algunos de los valores propios son repetidos.

En este caso se presenta un problema y es que nosotros sabemos que si una matriz $\mathbf{A}$ de $n \times n$ con componentes constantes tiene $n$ valores propios distintos, entonces tendremos $n$ vectores propios que son linealmente independientes y por tanto tendremos $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Si se presenta el caso en el que algunos valores propios son repetidos, entonces tendremos $k < n$ valores propios que son distintos y por tanto $k$ vectores propios linealmente independientes, lo que significa que nos faltarán $n -k$ soluciones linealmente independientes del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. El problema aquí es ¿cómo obtener las soluciones linealmente independientes que nos faltan?, para así determinar la solución general del sistema lineal. Recordemos que la solución general corresponde a la combinación lineal de las $n$ soluciones linealmente independientes del sistema.

En esta entrada resolveremos este problema y lo interesante es que el concepto de exponencial de una matriz es lo que nos ayudará.

Vectores propios generalizados

De la primera unidad recordemos que la función $y(t) = ce^{at}$ es una solución de la ecuación diferencial escalar $y^{\prime}(t) = ay$ para cualesquiera constantes $a$ y $c$. De manera análoga, se desearía que la función vectorial

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} \label{1} \tag{1}$$

fuera una solución del sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

para cualquier vector constante $\mathbf{K}$.

En la entrada en la que definimos la exponencial de una matriz demostramos que la función $\mathbf{Y}(t) = e^{\mathbf{A} t}$ no sólo es solución del sistema lineal (\ref{2}), sino que incluso es una matriz fundamental de soluciones. También vimos que la derivada de $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es

$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t} \label{3} \tag{3}$$

Usando este resultado mostremos lo siguiente.

$$\dfrac{d}{dt} (e^{\mathbf{A}t} \mathbf{K}) = (\mathbf{A} e^{\mathbf{A}t}) \mathbf{K} = \mathbf{A} (e^{\mathbf{A}t} \mathbf{K}) \label{4} \tag{4}$$

Esto muestra que la función $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K}$ efectivamente es solución del sistema lineal (\ref{2}).

Ahora que sabemos que (\ref{1}) es solución del sistema lineal (\ref{2}) veamos cómo esto puede ayudarnos a encontrar $n$ vectores $\mathbf{K}$ linealmente independientes. Notemos lo siguiente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} = e^{\mathbf{A} t} e^{(\lambda \mathbf{I} -\lambda \mathbf{I})t} \mathbf{K} = e^{(\mathbf{A} -\lambda \mathbf{I})t}e^{\lambda \mathbf{I}t} \mathbf{K} \label{5} \tag{5}$$

para cualquier constante $\lambda$ y en donde hemos usado el hecho de que

$$(\mathbf{A} -\lambda \mathbf{I})(\lambda \mathbf{I}) = (\lambda \mathbf{I})(\mathbf{A} -\lambda \mathbf{I}) \label{6} \tag{6}$$

De acuerdo a la definición de exponencial de una matriz observemos lo siguiente.

$$e^{\lambda \mathbf{I} t} = \sum_{k = 0}^{\infty} \dfrac{(\lambda \mathbf{I} t)^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I}^{k} t^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I} t^{k}}{k!} = \left( \sum_{k = 0}^{\infty} \dfrac{ (\lambda t)^{k}}{k!} \right) \mathbf{I} = e^{\lambda t} \mathbf{I} = e^{\lambda t}$$

Por lo tanto, (\ref{5}) se puede escribir como

$$\mathbf{Y}(t) = e^{\mathbf{A}t} \mathbf{K} = e^{\lambda t} e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} \label{7} \tag{7}$$

Concentrémonos un momento en el término $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ de la solución anterior. Recordando que la exponencial $e^{\mathbf{A} t}$ es

$$e^{\mathbf{A}t} = \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty}\mathbf{A}^{k} \dfrac{t^{k}}{k!} \label{8} \tag{8}$$

entonces la exponencial $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ es

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} = \mathbf{I} + (\mathbf{A} -\lambda \mathbf{I}) t + (\mathbf{A} -\lambda \mathbf{I})^{2} \dfrac{t^{2}}{2!} + \cdots + (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!}$$

y, así mismo

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \left( \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{9} \tag{9}$$

Supongamos que existe un entero $m$, tal que

$$(\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} = \mathbf{0} \label{10} \tag{10}$$

Entonces la serie infinita (\ref{9}) terminará después de $m$ términos, pues si se satisface (\ref{10}), entonces se cumple

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Para $l > 0$ entero. Esto es claro debido a que

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = (\mathbf{A} -\lambda \mathbf{I})^{l} \left[ (\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} \right] = \mathbf{0}$$

Por lo tanto,

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \label{12} \tag{12}$$

Así, la solución (\ref{7}) se puede escribir como

\begin{align*}
\mathbf{Y}(t) &= e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \right] \\
&= e^{\lambda t} \left( \sum_{k = 0}^{m -1} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{13} \tag{13}
\end{align*}

No es casualidad que estemos usando la notación $\lambda$ y $\mathbf{K}$, estas cantidades corresponden a los valores y vectores propios de la matriz de coeficientes $\mathbf{A}$ del sistema lineal (\ref{2}), respectivamente.

El vector propio $\mathbf{K}$ que satisface (\ref{10}) recibe un nombre particular.

El resultado que nos interesa es la solución (\ref{13}). En el método de valores y vectores propios lo que hacemos es determinar los valores propios de la matriz $\mathbf{A}$ y con ellos posteriormente determinamos los vectores propios. Los vectores propios se determinan con la ecuación vectorial

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{14} \tag{14}$$

Observemos que si se satisface (\ref{14}), entonces la serie (\ref{13}) se reduce a $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$ que es la solución que ya conocíamos. Si los valores y vectores propios son complejos simplemente se aplica la teoría de la entrada anterior sobre la misma solución $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$.

A continuación presentamos el algoritmo para encontrar $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Algoritmo para encontrar $n$ soluciones linealmente independientes

  • Primero determinamos todos los valores y vectores propios de $\mathbf{A}$. Si $\mathbf{A}$ tiene $n$ vectores linealmente independientes, entonces el sistema lineal (\ref{2}) tiene $n$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Esto es lo que siempre hemos hecho.
  • Supongamos que $\mathbf{A}$ tiene únicamente $k < n$ vectores propios linealmente independientes, entonces se tendrá sólo $k$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Para determinar soluciones adicionales tomamos un valor propio $\lambda $ de $\mathbf{A}$ y buscamos todos los vectores $\mathbf{K}$ para los cuales se cumple simultáneamente
    $$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{15} \tag{15}$$
    Para cada uno de los vectores propios generalizados $\mathbf{K}$ encontrados, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \right]\label{16} \tag{16}$$
    Esto se obtiene de la solución (\ref{13}). Hacemos esto para todos los valores propios distintos $\lambda $ de $\mathbf{A}$.
  • Si aún no se tienen suficientes soluciones, entonces se buscan todos los vectores propios generalizados $\mathbf{K}$ para los cuales
    $$(\mathbf{A} -\lambda \mathbf{I})^{3} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq \mathbf{0}, \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{17} \tag{17}$$
    Para cada uno de tales vectores $\mathbf{K}$, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \dfrac{t^{2}}{2!}(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \right] \label{18} \tag{18}$$
    Nuevamente, este resultado se obtiene de considerar (\ref{17}) en (\ref{13}).
  • Este procedimiento se puede continuar hasta encontrar $n$ soluciones linealmente independientes.

Los puntos antes establecidos son los pasos a seguir para obtener $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Realicemos un ejemplo en el que apliquemos el algoritmo anterior para que todo quede más claro.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix}$$

Solución: El primer paso es determinar todos los valores y vectores propios de la matriz $\mathbf{A}$. La ecuación característica de $\mathbf{A}$ se obtiene de calcular el siguiente determinante.

$$\begin{vmatrix}
2 -\lambda & 1 & 3 \\ 0 & 2 -\lambda & -1 \\ 0 & 0 & 2 -\lambda
\end{vmatrix} = 0$$

Es sencillo notar que el polinomio característico es

$$P(\lambda) = (2 -\lambda )^{3}$$

y la ecuación característica es

$$(2 -\lambda )^{3} = 0$$

Vemos que la única raíz que se obtiene es $\lambda = 2$, éste es el único valor propio de $\mathbf{A}$ con multiplicidad tres ($r$ = 3). Un vector propio $\mathbf{K} \neq \mathbf{0}$ lo obtenemos de resolver la ecuación vectorial

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema se deduce que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser arbitrario lo elegimos como $k_{1} = 1$. Por lo tanto, un vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{1}(t) = e^{2t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

es una solución del sistema lineal dado. Esta es la única solución linealmente independiente que pudimos encontrar con el método tradicional. La matriz del sistema es de $3 \times 3$, así que nos hacen faltan 2 soluciones linealmente independientes para poder formar un conjunto fundamental de soluciones y, por tanto, formar la solución general.

Pasemos al segundo punto del algoritmo.

Ahora buscamos todos los vectores $\mathbf{K} \neq \mathbf{0}$, tal que se satisface (\ref{15}), es decir

$$(\mathbf{A} -2\mathbf{I})^{2} \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema deducimos que $k_{3} = 0$ y tanto $k_{1}$ como $k_{2}$ son arbitrarios, nosotros les podemos asignar algún valor, pero cuidado, recordemos que una condición adicional que tenemos es que este nuevo vector también satisfaga que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} \neq \mathbf{0}$$

Un vector que satisface (\ref{15}) simultáneamente es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

En este caso una solución del sistema lineal esta dada por (\ref{16}).

\begin{align*}
\mathbf{Y}_{2}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{Y}_{2}(t) = e^{2t} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix}$$

En este proceso hemos encontrado dos vectores linealmente independientes, a saber

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Ahora procedemos a buscar un vector propio generalizado más que satisfaga (\ref{17}) y tal que la solución sea de la forma (\ref{18}).

\begin{align*}
(\mathbf{A} -2 \mathbf{I})^{3} \mathbf{K} &= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}
\end{align*}

Es claro que cualquier vector es solución de esta ecuación, sin embargo también se debe satisfacer que

$$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq 0 \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq 0$$

Un vector que satisface lo anterior es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{18}) una solución del sistema lineal es

\begin{align*}
\mathbf{Y}_{3}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) + \dfrac{t^{2}}{2}(\mathbf{A} -2 \mathbf{I})^{2} \right] \mathbf{K}_{3} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix} \right] \\
\end{align*}

En este caso los vectores linealmente encontrados son

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}, \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{3} = \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix}$$

Y la tercer solución linealmente independiente es

$$\mathbf{Y}_{3}(t) = e^{2t} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix}$$

Ahora que tenemos las tres soluciones linealmente independientes del sistema lineal dado podemos concluir que la solución general del sistema es

$$\mathbf{Y}(t) = e^{2t} \left[ c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right]$$

Las constantes $c_{1}$, $c_{2}$ y $c_{3}$ se determinan a partir de los valores iniciales.

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}+ c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{2} \\ c_{3}
\end{pmatrix} $$

Esto implica que $c_{1} = 1$, $c_{2} = 2$ y $c_{3} = 1$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = e^{2t} \left[ \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + 2 \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right] = e^{2t} \begin{pmatrix}
1+ 5t -\dfrac{1}{2}t^{2} \\ 2 -t \\ 1
\end{pmatrix}$$

$\square$

Para concluir con el método de valores y vectores propios enunciaremos un importante teorema que es bueno tener en cuenta cuando trabajamos con valores y vectores propios. Este resultado es conocido como teorema de Cayley – Hamilton, la demostración no la haremos ya que se requiere de teoría de álgebra lineal que no veremos en este curso, pero que por supuesto puedes revisar en entradas de la materia correspondiente.

Teorema de Cayley – Hamilton

En el ejemplo anterior obtuvimos que la ecuación característica de la matriz $\mathbf{A}$ es

$$P(\lambda) = (2 -\lambda)^{3} = 0 \label{19} \tag{19}$$

Observemos que si sustituimos $\lambda$ por la matriz $\mathbf{A}$ obtenemos lo siguiente.

\begin{align*}
P(\mathbf{A}) &= (2 \mathbf{I} -\mathbf{A})^{3} \\
&= \left[ \begin{pmatrix}
2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 2
\end{pmatrix} – \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \right]^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix}
\end{align*}

Vemos que se cumple

$$P(\mathbf{A}) = (2 \mathbf{I} -\mathbf{A})^{3} = \mathbf{0} \label{20} \tag{20}$$

Esto no es casualidad, resulta que cualquier matriz $\mathbf{A}$ de $n \times n$ ¡satisface su propia ecuación característica!. El teorema de Cayley – Hamilton establece este hecho.

Con esto concluimos esta entrada y el estudio de los sistemas lineales homogéneos. En la siguiente entrada aprenderemos a resolver sistemas lineales no homogéneos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 3 \\ -3 & 5
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 1 \\ 2 & 1 & -1 \\ -3 & 2 & 4
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & -1 & 0 \\ 0 & 2 & 1 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & -1 & 2
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 1 & 2 \\ -1 & 1 & 1 \\ -2 & 1 & 3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -4 & -4 & 0 \\ 10 & 9 & 1 \\ -4 & -3 & 1
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    2 \\ 1 \\ -1
    \end{pmatrix}$

Más adelante…

Hemos concluido con los tres casos del método de valores y vectores propios para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas.

En la siguiente entrada comenzaremos a resolver sistemas lineales no homogéneos, el método que se utiliza es nuevamente el método de variación de parámetros. Veremos cómo es que este método se adapta a los sistemas lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Soluciones a sistemas de ecuaciones diferenciales

Por Omar González Franco

Los errores y dificultades no resueltos en el pasado de las matemáticas
siempre han sido las oportunidades de su futuro.
– E. T. Bell

Introducción

En la entrada anterior vimos lo que es un sistema de ecuaciones diferenciales, en particular un sistema lineal de primer orden. Vimos también lo que es un problema de valores iniciales y establecimos la notación matricial.

Así mismo, vimos cómo es que una ecuación diferencial lineal de orden $n$ se puede transformar en un sistema lineal de primer orden, esto tiene bastante ventaja ya que, una vez que veamos cómo resolver sistemas de ecuaciones diferenciales, muchas veces será más sencillo resolver el sistema que resolver la ecuación de orden $n$ aplicando los métodos que ya conocemos.

En esta entrada estudiaremos las propiedades de las soluciones de los sistemas lineales de primer orden.

Cabe mencionar que mucho de lo que desarrollaremos en esta entrada es bastante similar a la teoría vista con las ecuaciones diferenciales de orden $n$, comenzando por la validez del principio de superposición.

A partir de ahora sólo usaremos la notación matricial y toda la teoría básica del álgebra lineal que éstas conllevan.

Soluciones de sistemas lineales de primer orden

Comencemos por estudiar el caso homogéneo. El sistema lineal de primer orden homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime} \\ y_{2}^{\prime} \\ \vdots \\ y_{n}^{\prime}
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1} \\ y_{2} \\ \vdots \\ y_{n}
\end{pmatrix} \label{1} \tag{1}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} \label{2} \tag{2}$$

En la entrada anterior definimos la solución de un sistema de ecuaciones diferenciales en el intervalo $\delta$ como el conjunto de $n$ funciones

$$S_{0} = \{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\} \label{3} \tag{3}$$

definidas en $\delta$ y diferenciables en el mismo intervalo, tales que satisfacen simultáneamente las $n$ ecuaciones diferenciables de un sistema lineal.

Las soluciones pueden ser escritas como el vector

$$\mathbf{Y} = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \label{4} \tag{4}$$

cuyos elementos son funciones derivables que satisfacen un sistema lineal en el intervalo $\delta$.

En las siguientes definiciones y teoremas se supondrá que los coeficientes $a_{ij}(t)$, $i, j \in \{1, 2, 3, \cdots, n\}$ y ,para el caso no homogéneo, las funciones $g_{i}(t)$, son continuas en algún intervalo común $\delta$.

Comencemos por mostrar que el principio de superposición también es valido para sistemas lineales.

Demostración: Consideremos la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

con

$$\mathbf{Y}_{i} = \begin{pmatrix}
y_{1i} \\ y_{2i} \\ \vdots \\ y_{ni}
\end{pmatrix}$$

para $i = 1, 2, \cdots, m$. La derivada de $\mathbf{Y}_{i}$ esta dada por

$$\mathbf{Y}_{i}^{\prime} = \begin{pmatrix}
y_{1i}^{\prime} \\ y_{2i}^{\prime} \\ \vdots \\ y_{ni}^{\prime}
\end{pmatrix}$$

Entonces la derivada de la combinación lineal es

\begin{align*}
\mathbf{Y}^{\prime} &= \begin{pmatrix}
c_{1}y_{11}^{\prime} + c_{2}y_{12}^{\prime} + \cdots + c_{m}y_{1m}^{\prime} \\
c_{1}y_{21}^{\prime} + c_{2}y_{22}^{\prime} + \cdots + c_{m}y_{2m}^{\prime} \\
\vdots \\
c_{1}y_{n1}^{\prime} + c_{2}y_{n2}^{\prime} + \cdots + c_{m}y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \begin{pmatrix}
y_{11}^{\prime} \\ y_{21}^{\prime} \\ \vdots \\ y_{n1}^{\prime}
\end{pmatrix} + c_{2} \begin{pmatrix}
y_{12}^{\prime} \\ y_{22}^{\prime} \\ \vdots \\ y_{n2}^{\prime}
\end{pmatrix} + \cdots + c_{m} \begin{pmatrix}
y_{1m}^{\prime} \\ y_{2m}^{\prime} \\ \vdots \\ y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \mathbf{Y}_{1}^{\prime} + c_{2} \mathbf{Y}_{2}^{\prime} + \cdots + c_{m} \mathbf{Y}_{m}^{\prime}
\end{align*}

Como cada $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, m$, es solución del sistema homogéneo (\ref{2}) en $\delta$, entonces

$$\mathbf{Y}_{i}^{\prime} = \mathbf{A} \mathbf{Y}_{i}$$

así

\begin{align*}
\mathbf{Y}^{\prime} &= c_{1} (\mathbf{AY}_{1}) + c_{2} (\mathbf{AY}_{2}) + \cdots + c_{m} (\mathbf{AY}_{m}) \\
&= \mathbf{A}(c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}) \\
&= \mathbf{AY}
\end{align*}

En donde se ha hecho uso de la propiedad distributiva de la matriz $\mathbf{A}$ y de la hipótesis (\ref{5}). Por lo tanto, la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

también es solución y los es en el mismo intervalo común $\delta$ ya que esta compuesta de soluciones definidas en dicho intervalo.

$\square$

Intenta hacer la demostración.

Realicemos un ejemplo.

Ejemplo: Probar que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

es solución del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

Solución: Probemos que cada uno de los vectores de la combinación lineal es solución y usemos el principio de superposición.

Los vectores son

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Por un lado, derivemos estos vectores.

$$\mathbf{Y}^{\prime}_{1} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{2} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{3} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos cada uno de los vectores en el sistema lineal y usemos los resultados anteriores.

$$\mathbf{AY}_{1} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
1 -1 \\ 1 -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{1}$$

$$\mathbf{AY}_{2} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
e^{2t} + e^{2t} \\ e^{2t} + e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{2}$$

y

$$\mathbf{AY}_{3} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix} = \mathbf{Y}^{\prime}_{3}$$

De esta manera queda mostrado que los tres vectores son solución, ya que satisfacen el sistema. Por el principio de superposición concluimos que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

también es solución del sistema lineal.

$\square$

El principio de superposición nos indica que un sistema lineal puede tener más de una solución, sin embargo, similar al caso de ecuaciones diferenciales de orden $n$, buscamos soluciones que sean linealmente independientes entre sí. A continuación definimos la dependencia e independencia lineal de las soluciones en este contexto.

En la unidad anterior definimos una herramienta muy útil que, además de ayudarnos a resolver ecuaciones diferenciales de orden superior en algunos métodos, nos ayuda a determinar si un conjunto de soluciones es linealmente independiente, dicha herramienta es el Wronskiano, la definición en el caso de los sistemas lineales de primer orden, es la siguiente.

Se puede demostrar que si el Wronskiano es distinto de cero, entonces las soluciones son linealmente independientes, igual que antes, esto es conocido como el criterio para soluciones linealmente independientes. Para demostrar este hecho es conveniente recordar algunos resultados de álgebra que podremos usar en la demostración.

Recordemos que un sistema lineal de $n$ ecuaciones con $n$ incógnitas es un conjunto de ecuaciones

$$\begin{matrix}
b_{11}u_{1} + b_{12}u_{2} + \cdots + b_{1n}u_{n} = d_{1} \\
b_{21}u_{1} + b_{22}u_{2} + \cdots + b_{2n}u_{n} = d_{2}\\
\vdots\\
b_{n1}u_{1} + b_{n2}u_{2} + \cdots + b_{nn}u_{n} = d_{n}
\end{matrix} \label{9} \tag{9}$$

Con $b_{i, j}$ y $d_{i}$, $i, j \in \{1,2, 3, \cdots, n\}$ números reales dados y $u_{i}$, $i = 1, 2, \cdots, n$ las incógnitas. Usando la notación matricial podemos escribir el sistema (\ref{9}) como

$$\mathbf{BU} = \mathbf{D} \label{10} \tag{10}$$

con

$$\mathbf{B} = \begin{pmatrix}
b_{11} & b_{12} & \cdots & b_{1n} \\
b_{21} & b_{22} & \cdots & b_{2n} \\
\vdots & & & \vdots \\
b_{n1} & b_{n2} & \cdots & b_{nn}
\end{pmatrix}, \hspace{1cm} \mathbf{U} = \begin{pmatrix}
u_{1} \\ u_{2} \\ \vdots \\ u_{n}
\end{pmatrix}, \hspace{1cm} \mathbf{D} = \begin{pmatrix}
d_{1} \\ d_{2} \\ \vdots \\ d_{n}
\end{pmatrix}$$

Los resultados que nos interesan son los siguientes.

Si $\mathbf{D} = \mathbf{0}$, el sistema (\ref{10}) también recibe el nombre de sistema homogéneo.

Con estos resultados podemos demostrar el criterio para soluciones linealmente independientes que se enuncia a continuación.

Demostración:

$\Rightarrow$) Por demostrar: $W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$.

Sea $t_{0} \in \delta$ en el que $W(t_{0}) = 0$, en donde $W(t_{0})$ denota al Wronskiano con cada vector solución evaluado en el punto $t_{0}$.

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0})) $$

En una combinación de ambos teoremas de los resultados de álgebra podemos deducir que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$, no todos cero, tal que

$$\mathbf{Y}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = 0 \label{11} \tag{11}$$

Lo que tenemos es un sistema lineal de $n$ ecuaciones homogéneo con $n$ incógnitas (sistema lineal en el contexto algebraico (\ref{10}) con $\mathbf{D} = \mathbf{0}$, no sistema lineal de ecuaciones diferenciales), dichas incógnitas son las constantes $c_{i}$, $i = 1, 2, \cdots, n$. La relación (\ref{11}) se cumple debido a que si el Wronskiano es igual a cero, entonces es posible que el sistema no tenga solución trivial y mucho menos una solución única, esto lo deducimos de los teoremas de álgebra que establecimos.

Por otro lado, sabemos por hipótesis que los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son solución del sistema homogéneo (\ref{2}) en el intervalo $\delta$, por el principio de superposición sabemos también que la combinación lineal

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n}$$

es solución de (\ref{2}) en $\delta$. Del resultado (\ref{11}) y de la unicidad de la solución se deduce que $\mathbf{Y}(t) = 0$ para algún punto $t = t_{0} \in \delta$, es decir,

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Pero por hipótesis los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes en $\delta$, lo que implica que

$$c_{1} = c_{2} = \cdots = c_{n} = 0$$

lo cual es una contradicción con lo que establecimos en (\ref{11}). Por lo tanto, el Wronskiano tiene que ser distinto de cero, es decir

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

$\Leftarrow$) Por demostrar: $S$ es linealmente independiente.

Este caso también lo demostraremos por contradicción. Supongamos que los vectores solución $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente dependientes en $\delta$, esto implica que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$ no todos cero, tal que

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Este sistema lo podemos escribir en la forma (\ref{9}) como

$$\begin{matrix}
c_{1}y_{11} + c_{2}y_{12} + \cdots + c_{n}y_{1n} = 0 \\
c_{1}y_{21} + c_{2}y_{22} + \cdots + c_{n}y_{2n} = 0 \\
\vdots\\
c_{1}y_{n1} + c_{2}y_{n2} + \cdots + c_{n}y_{nn} = 0
\end{matrix}$$

En donde las funciones $y_{ij}$, $i, j \in \{1, 2, 3, \cdots, n\}$ son los coeficientes y las constantes $c_{i}$, $i = 1, 2, \cdots, n$ son las incógnitas. Debido a que las $c_{i}$ no son todas cero implica que el sistema no tiene solución trivial y por el segundo teorema de los resultados de álgebra concluimos que

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = 0$$

Pero, por hipótesis

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

lo cual es una contradicción y todo nace de considerar a $S$ como un conjunto linealmente dependiente. Por lo tanto, el conjunto de soluciones

$$S = \{\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}\}$$

es linealmente independiente en $\delta$.

$\square$

Un resultado interesante se enuncia a continuación.

Este resultado nos garantiza que si $W \neq 0$ para algún punto $t_{0} \in \delta$, entonces $W \neq 0$ para toda $t \in \delta$ y por el criterio anterior las soluciones serán linealmente independientes en ese intervalo.

El conjunto de soluciones linealmente independientes del sistema lineal (\ref{2}) recibe un nombre especial.

El siguiente teorema nos garantiza la existencia de este conjunto.

El conjunto fundamental de soluciones está constituido por vectores que son linealmente independientes entre sí, con estos vectores es posible formar una matriz cuyas columnas están formadas con las entradas de dichos vectores, esta matriz tiene un nombre especial.

Un hecho interesante es que el determinante de la matriz fundamental de soluciones corresponde al Wronskiano.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = |\mathbf{M}(t)| \label{13} \tag{13}$$

Realicemos un ejemplo, para ello consideremos el sistema lineal del ejemplo anterior.

Ejemplo: Mostrar que las soluciones

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

son linealmente independientes.

Solución: En el ejemplo anterior ya comprobamos que efectivamente son solución del sistema lineal dado. Para determinar si son linealmente independientes veamos si el Wronskiano es distinto de cero.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \mathbf{Y}_{3}) = \begin{vmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{vmatrix} = e^{5t} + 0 + 0 -0 -0 -(-e^{5t}) = 2e^{5t} \neq 0$$

Como $W \neq 0$, $\forall$ $t \in \mathbb{R}$, entonces los vectores dados son linealmente independientes y por lo tanto forman un conjunto fundamental de soluciones en $\mathbb{R}$.

$$S = \left\{ \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} \right\}$$

La matriz fundamental de soluciones es

$$\mathbf{M}(t) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$

$\square$

Un buen ejercicio sería mostrar que un conjunto de soluciones del sistema lineal homogéneo (\ref{2}) forma un espacio vectorial, es relativamente sencillo probar cada una de las propiedades o axiomas que definen a un espacio vectorial. El resultado a demostrar de tarea moral es el siguiente.

Soluciones generales a sistemas lineales

Ahora que conocemos algunas propiedades de las soluciones de sistemas lineales, es momento de conocer la forma general de las soluciones de los sistemas lineales tanto homogéneos como no homogéneos.

Comencemos por enunciar el teorema que establece la forma de la solución general de un sistema lineal homogéneo (\ref{2}).

Demostración: Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema lineal homogéneo en el intervalo $\delta$, sea $t_{0} \in \delta$ y supongamos que

$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0}$$

Es decir, la función $\mathbf{Y}(t)$ satisface el problema de valores iniciales $\mathbf{Y}^{\prime} = \mathbf{AY}; \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$.

Por otro lado, por el principio de superposición sabemos que la combinación lineal

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

también es solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Donde $c_{i}$, $i = 1, 2, \cdots, n$ son constantes arbitrarias y las $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, n$ son las soluciones del conjunto fundamental de soluciones del sistema lineal. Supongamos que

$$\hat{\mathbf{Y}}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Lo que tenemos es el siguiente sistema de $n$ ecuaciones.

$$\begin{matrix}
c_{1}y_{11}(t_{0}) + c_{2}y_{12}(t_{0}) + \cdots + c_{n}y_{1n}(t_{0}) = b_{1} \\
c_{1}y_{21}(t_{0}) + c_{2}y_{22}(t_{0}) + \cdots + c_{n}y_{2n}(t_{0}) = b_{2} \\
\vdots \\
c_{1}y_{n1}(t_{0}) + c_{2}y_{n2}(t_{0}) + \cdots + c_{n}y_{nn}(t_{0}) = b_{n}
\end{matrix}$$

En donde las incógnitas son las contantes $c_{i}$, $i = 1, 2, \cdots, n$. Como las funciones $y_{ij}$, $i,j \in \{1, 2, 3, \cdots, n \}$ pertenecen a vectores del conjunto de soluciones, entonces sabemos que $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes y por el criterio para soluciones linealmente independientes inferimos que $W(t_{0}) \neq 0$, donde

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0}))$$

De los resultados de álgebra deducimos que el sistema de $n$ ecuaciones tiene solución única, esto significa que existen constantes únicas $c_{1}, c_{2}, \cdots, c_{n}$, tal que

$$c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Esto nos indica que

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

es solución del problema de valores iniciales. Por el teorema de existencia y unicidad para sistemas lineales homogéneas concluimos que $\mathbf{Y}(t) = \hat{\mathbf{Y}}(t)$, es decir,

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

Como $\mathbf{Y}(t)$ es una solución arbitraria, entonces debe ser la solución general del sistema lineal homogéneo en $\delta$.

$\square$

Para concluir la entrada estudiemos el caso no homogéneo.

Sistemas no homogéneos

El sistema lineal de primer orden no homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{15} \tag{15}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} + \mathbf{G} \label{16} \tag{16}$$

El vector de funciones que satisface el sistema (\ref{16}) es una solución y recibe un nombre.

A continuación se enuncia el teorema que nos muestra la forma general de la solución de un sistema lineal no homogéneo.

Demostración: Sea

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
y_{1p} \\ y_{2p} \\ \vdots \\ y_{np}
\end{pmatrix}$$

una solución particular de (\ref{16}) y sean $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$, $n$ soluciones linealmente independientes del sistema homogéneo asociado $\mathbf{Y^{\prime}} = \mathbf{AY}$.

Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema no homogéneo, notemos lo siguiente.

\begin{align*}
(\mathbf{Y}(t) -\mathbf{Y}_{p}(t))^{\prime} &= \mathbf{Y}^{\prime}(t) -\mathbf{Y}_{p}^{\prime}(t) \\
&= (\mathbf{AY}(t) + \mathbf{G}) -(\mathbf{AY}_{p}(t) + \mathbf{G}) \\
&= \mathbf{A} (\mathbf{Y}(t) -\mathbf{Y}_{p}(t))
\end{align*}

Este resultado nos indica que $\mathbf{Y}(t) -\mathbf{Y}_{p}(t)$ es solución del sistema homogéneo, eso significa que se puede escribir como

$$\mathbf{Y}(t) -\mathbf{Y}_{p}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t)$$

entonces, la solución $\mathbf{Y}$ tiene la forma

$$\mathbf{Y}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) \label{19} \tag{19}$$

La solución $\mathbf{Y}(t)$, al ser cualquier solución del sistema lineal no homogéneo, podemos deducir que la solución general debe tener la forma (\ref{19}), por lo que concluimos que $\mathbf{Y}(t)$ se trata de la solución general de (\ref{16}).

Considerando la hipótesis (\ref{17}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

$\square$

Cuando estamos trabajando con un sistema lineal no homogéneo, la solución general del sistema lineal homogéneo asociado (\ref{17}) recibe un nombre particular.

Concluyamos con un ejemplo.

Ejemplo: Probar que el vector

$$\mathbf{Y}_{p} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

es una solución particular del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Solución: Por un lado, derivemos el vector dado.

$$\mathbf{Y}^{\prime}_{p} = \begin{pmatrix}
-\dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ -e^{t} + \dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos directamente en el sistema al vector dado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Operando obtenemos lo siguiente.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} + e^{t} \\ -\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t}+e^{2t} \\ \dfrac{3}{2}t^{2}e^{3t} + te^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Los resultados obtenidos son los mismos, por lo tanto el vector $\mathbf{Y}_{p}$ es solución del sistema.

En los ejemplos anteriores de esta entrada probamos que el conjunto fundamental de soluciones del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

esta constituido por los vectores linealmente independientes

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

de manera que la función complementaria es

$$\mathbf{Y}_{c} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Como la solución general es

$$\mathbf{Y} = \mathbf{Y}_{c} + \mathbf{Y}_{p}$$

Entonces la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} + \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

$\square$

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Los siguientes vectores son soluciones de un sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$. Determinar si forman un conjunto fundamental de soluciones en $\mathbb{R}$.
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ -1
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    2 \\ 6
    \end{pmatrix}e^{t} + \begin{pmatrix}
    8 \\ -8
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ 6 \\ -13
    \end{pmatrix},\hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    1 \\ -2 \\ -1
    \end{pmatrix}e^{-4t}, \hspace{1cm} \mathbf{Y}_{3}= \begin{pmatrix}
    2 \\ 3 \\ -2
    \end{pmatrix}e^{3t}$
  1. Probar que el vector $\mathbf{Y}_{p}$ es una solución particular del sistema lineal dado.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 1 \\ 3 & 4
    \end{pmatrix} \mathbf{Y} -\begin{pmatrix}
    1 \\ 7
    \end{pmatrix}e^{t}, \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}e^{t} + \begin{pmatrix}
    1 \\ -1
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 & 3 \\
    -4 & 2 & 0 \\
    -6 & 1 & 0
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    -1 \\ 4 \\ 3
    \end{pmatrix} \sin(3t), \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    \sin(3t) \\ 0 \\ \cos (3t)
    \end{pmatrix}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 6 & 0 \\ 1 & 0 & 1 \\ 1 & 1 & 0
    \end{pmatrix} \mathbf{Y}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    6 \\ -1 \\ -5
    \end{pmatrix}e^{-t} + c_{2} \begin{pmatrix}
    -3 \\ 1 \\ 1
    \end{pmatrix}e^{-2t} + c_{3} \begin{pmatrix}
    2 \\ 1 \\ 1
    \end{pmatrix}e^{3t}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 \\ -1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}t^{2} + \begin{pmatrix}
    4 \\ -6
    \end{pmatrix}t + \begin{pmatrix}
    -1 \\ 5
    \end{pmatrix}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    1 \\ -1 -\sqrt{2}
    \end{pmatrix}e^{\sqrt{2t}} + c_{2} \begin{pmatrix}
    1 \\ -1 + \sqrt{2}
    \end{pmatrix}e^{-\sqrt{2t}} + \begin{pmatrix}
    1 \\ 0 \end{pmatrix}t^{2} + \begin{pmatrix}
    -2 \\ 4
    \end{pmatrix}t + \begin{pmatrix}
    1 \\ 0
    \end{pmatrix}$
  1. Demostrar que el conjunto de soluciones del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$ forma un espacio vectorial con la suma y el producto por escalares usuales de matrices.

Más adelante…

Ahora que conocemos lo que son los sistemas lineales de ecuaciones diferenciales y las propiedades de sus soluciones estamos casi listos para comenzar a desarrollar los distintos métodos de resolución, sin embargo, antes de ello es necesario definir una herramienta matemática que será de suma utilidad en el desarrollo posterior de esta unidad. Dicha herramienta es la exponencial de una matriz.

En la siguiente entrada definiremos lo que significa $e^{\mathbf{A} t}$, donde $\mathbf{A}$ es una matriz de $n \times n$ con componentes constantes y veremos como se relaciona con un sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Así mismo, profundizaremos en el concepto de matriz fundamental de soluciones.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Soluciones a ecuaciones diferenciales de orden superior

Por Omar González Franco

Las matemáticas son la música de la razón.
– James Joseph Sylvester

Introducción

En la entrada anterior comenzamos a estudiar los problemas con valores iniciales (PVI) y problemas con valores en la frontera (PVF), ambos para el caso de las ecuaciones diferenciales lineales de orden superior. Vimos también que si $y_{1}, y_{2}, \cdots, y_{k}$ son $k$ soluciones de una ecuación homogénea de $n$-ésimo orden en un intervalo $\delta$, entonces la combinación lineal

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x) \label{1} \tag{1}$$

donde las $c_{i}$, $i = 1, 2, \cdots, k$ son constantes, también es solución en el intervalo $\delta$, este resultado es conocido como principio de superposición y nuestro propósito en esta entrada es estudiar las propiedades de todas estas soluciones donde la independencia lineal de las funciones jugará un papel muy importante en la construcción del conjunto fundamental de soluciones y de la solución general.

Es importante tener presente el concepto de conjunto fundamental de soluciones presentado en la entrada anterior.

Soluciones a ecuaciones diferenciales lineales de orden superior

Estamos interesados en soluciones linealmente independientes de una ecuación diferencial lineal homogénea de orden superior de la forma

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{2} \tag{2}$$

Al intentar responder la pregunta de si el conjunto de $n$ soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de (\ref{2}) es linealmente independiente podemos apelar directamente a la definición de independencia lineal, sin embargo esta pregunta se puede responder de una forma mecánica usando un determinante llamado el Wronskiano.

El Wronskiano es una herramienta que podemos utilizar para determinar si el conjunto de soluciones de la ecuación diferencial (\ref{2}) es un conjunto linealmente independiente y la forma de hacerlo es a través del siguiente teorema conocido como criterio para soluciones linealmente independientes.

Este teorema nos dice que sólo basta mostrar que el Wronskiano es distinto de cero para garantizar que el conjunto de soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ es linealmente independiente y por tanto formará un conjunto fundamental de soluciones.

Al conjunto de soluciones linealmente independiente $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de la ecuación (\ref{2}) se le denomina fundamental porque, así como cualquier vector en $\mathbb{R}^{3}$ se puede expresar como una combinación lineal de los vectores linealmente independientes $\hat{i}, \hat{j}$ y $\hat{k}$, cualquier solución de una ecuación diferencial de la forma (\ref{2}) se puede expresar como una combinación lineal de las $n$ soluciones del conjunto fundamental, podemos decir que las soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ son los bloques básicos para la solución general de la ecuación.

En el siguiente teorema se enuncia la forma general de la solución de la ecuación diferencial (\ref{2}).

Aterricemos estas ideas generales al caso de las ecuaciones diferenciales lineales homogéneas de segundo orden.

Ecuaciones lineales homogéneas de segundo orden

Una ecuación diferencial lineal homogénea de segundo orden es de la forma

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{6} \tag{6}$$

Sobre esta ecuación desarrollaremos la siguiente teoría. Primero definamos el Wronskiano para el caso $n = 2$.

Ahora que conocemos la forma del Wronskiano para $n = 2$, demostremos el teorema de la solución general para el caso $n = 2$.

Demostración: Sea $y(x)$ una solución de la ecuación diferencial (\ref{6}) en el intervalo $\delta$ y sea $x_{0} \in \delta$, tal que

$y(x_{0}) = \alpha \hspace{1cm} y \hspace{1cm} \dfrac{dy}{dx}(x_{0}) = \beta$$

con $\alpha$ y $\beta$ constantes. Supongamos que existen $c_{1}$ y $c_{2}$ constantes tales que

$$\alpha = c_{1}y_{1}(x_{0}) + c_{2}y_{2}(x_{0}) \label{8} \tag{8}$$

y

$$\beta = c_{1} \dfrac{dy_{1}}{dx}(x_{0}) + c_{2} \dfrac{dy_{2}}{dx}(x_{0}) \label{9} \tag{9}$$

esto debido a que por hipótesis $y_{1}(x)$ y $y_{2}(x)$ son soluciones de la ecuación diferencial y por tanto la combinación lineal también lo será. Aplicando el teorema de existencia y unicidad obtenemos que la solución $y(x)$ tiene que ser de la forma

$$y(x) = c_{1}y_{1} + c_{2}y_{2}$$

por lo que nuestro problema se reduce a demostrar que las constantes $c_{1}$ y $c_{2}$ existen.

Si multiplicamos a la ecuación (\ref{8}) por $\dfrac{dy_{2}}{dx}(x_{0})$ y a la ecuación (\ref{9}) por $y_{2}(x_{0})$ obtenemos lo siguiente, respectivamente.

$$\alpha \dfrac{dy_{2}}{dx}(x_{0}) = c_{1}y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) + c_{2}y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \label{10} \tag{10}$$

y

$$\beta y_{2}(x_{0}) = c_{1} y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) + c_{2} y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \label{11} \tag{11}$$

Restémosle a la ecuación (\ref{10}) la ecuación (\ref{11}).

\begin{align*}
\alpha \dfrac{dy_{2}}{dx}(x_{0}) -\beta y_{2}(x_{0}) &= c_{1} y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -c_{1} y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) \\
&= c_{1} \left( y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) \right) \label{12} \tag{12}
\end{align*}

Sabemos que el Wronskiano, en $x = x_{0}$, está definido como

$$W(y_{1}(x_{0}), y_{2}(x_{0})) = y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) \label{13} \tag{13}$$

Por comodidad denotaremos a $W(y_{1}(x_{0}), y_{2}(x_{0}))$ como $W(x_{0})$. Entonces la ecuación (\ref{12}) se puede escribir de la siguiente manera.

$$\alpha \dfrac{dy_{2}}{dx}(x_{0}) -\beta y_{2}(x_{0}) = c_{1} W(x_{0}) \label{14} \tag{14}$$

Debido a que por hipótesis $W(y_{1}, y_{2}) \neq 0$ para toda $x \in \delta$, en particular lo es en $x = x_{0}$, por tanto podemos despejar a la constante $c_{1}$ y así obtener un valor para dicha constante lo que muestra su existencia.

Para obtener la expresión de $c_{2}$ hacemos algo similar, multiplicamos a la ecuación (\ref{8}) por $\dfrac{dy_{1}}{dx}(x_{0})$ y a la ecuación (\ref{9}) por $y_{1}(x_{0})$ y repetimos el mismo procedimiento demostrando así que existe un valor para la constante $c_{2}$.

Como hemos encontrado valores para $c_{1}$ y $c_{2}$, entonces existen y por lo tanto la solución general a la ecuación (\ref{4}) es

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) \label{15} \tag{15}$$

$\square$

Ya hemos definido lo que es el conjunto fundamental de soluciones de una ecuación diferencial de orden $n$, para el caso $n = 2$ lo podemos definir de la siguiente manera.

Así, si encontramos un conjunto fundamental de soluciones $\{ y_{1}(x), y_{2}(x) \}$, entonces

$$W(y_{1}, y_{2}) \neq 0$$

para toda $x \in \delta$ y por tanto

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x)$$

será la solución general de la ecuación diferencial (\ref{4}).

Del criterio para soluciones linealmente independientes se puede hacer notar que cuando $y_{1}, y_{2}, \cdots, y_{n}$ son $n$ soluciones de la ecuación diferencial (\ref{2}) en un intervalo $\delta$, el Wronskiano $W(y_{1}, y_{2}, \cdots, y_{n})$ es siempre igual a cero o nunca es cero en todo $\delta$. Vamos a demostrar este hecho para el caso $n = 2$.

Demostración: Como $y_{1}(x)$ y $y_{2}(x)$ son soluciones de la ecuación (\ref{6}), entonces

$$a_{2}(x) \dfrac{d^{2}y_{1}}{dx^{2}} + a_{1}(x) \dfrac{dy_{1}}{dx} + a_{0}(x)y_{1} = 0 \label{16} \tag{16}$$

y

$$a_{2}(x) \dfrac{d^{2}y_{2}}{dx^{2}} + a_{1}(x) \dfrac{dy_{2}}{dx} + a_{0}(x)y_{2} = 0 \label{17} \tag{17}$$

Si multiplicamos a la ecuación (\ref{16}) por $y_{2}$ y a la ecuación (\ref{17}) por $y_{1}$ obtenemos lo siguiente, respectivamente.

$$y_{2}a_{2}(x) \dfrac{d^{2}y_{1}}{dx^{2}} + y_{2} a_{1}(x) \dfrac{dy_{1}}{dx} + y_{2}a_{0}(x)y_{1} = 0 \label{18} \tag{18}$$

y

$$y_{1}a_{2}(x) \dfrac{d^{2}y_{2}}{dx^{2}} + y_{1}a_{1}(x) \dfrac{dy_{2}}{dx} + y_{1}a_{0}(x)y_{2} = 0 \label{19} \tag{19}$$

A la ecuación (\ref{19}) vamos a restarle la ecuación (\ref{18}).

$$a_{2}(x) \left( y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}} \right) + a_{1}(x) \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}\right) = 0 \label{20} \tag{20}$$

Sabemos que

$$W(y_{1}, y_{2}) = y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}$$

y notemos lo siguiente

\begin{align*}
\dfrac{dW}{dx} &= \dfrac{d}{dx} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}\right) \\
&= \dfrac{dy_{1}}{dx} \dfrac{dy_{2}}{dx} + y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -\dfrac{dy_{2}}{dx} \dfrac{dy_{1}}{dx} -y_{2} \dfrac{d^{2}y_{1}}{dx^{2}} \\
&= y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}}
\end{align*}

Es decir,

$$\dfrac{dW}{dx} = y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}} \label{21} \tag{21}$$

En términos del Wronskiano la ecuación (\ref{20}) se puede escribir como

$$a_{2}(x) \dfrac{dW}{dx} + a_{1}(x) W = 0 \label{22} \tag{22}$$

Como $a_{2}(x) \neq 0$ para toda $x \in \delta$, entonces podemos definir la función

$$P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}$$

tal que la ecuación (\ref{22}) se pueda escribir como

$$\dfrac{dW}{dx} + P(x) W = 0 \label{23} \tag{23}$$

Esta resultado corresponde a una ecuación diferencial lineal homogénea de primer orden y ya sabemos que la solución es de la forma

$$W(x) = ke^{-\int{P(x)} dx}$$

de manera que hay dos posibilidades:

  • Si $k = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} W(x) = 0, \hspace{0.5cm} \forall x \in \delta$
  • Si $k \neq 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} W(x) \neq 0, \hspace{0.5cm} \forall x \in \delta$

$\square$

El criterio para soluciones linealmente independientes nos garantiza que si el Wronskiano es distinto de cero, entonces el conjunto de soluciones es linealmente independiente en $\delta$, lo opuesto es cierto bajo ciertas condiciones, si el Wronskiano es igual a cero, entonces el conjunto de soluciones es linealmente dependiente. Demostremos este hecho.

Demostración: Por hipótesis

$$W(y_{1}(x), y_{2}(x)) = 0$$

$\forall x \in \delta$, es decir

$$y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} = 0 \label{24} \tag{24}$$

Consideremos el siguiente resultado.

$$\dfrac{d}{dx} \left( -\dfrac{y_{1}}{y_{2}} \right) = \dfrac{1}{y^{2}_{2}} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} \right) \label{25} \tag{25}$$

Donde hemos considerado la hipótesis $y_{2} \neq 0$. Si usamos la hipótesis (\ref{24}) obtenemos que

$$\dfrac{d}{dx} \left( -\dfrac{y_{1}}{y_{2}} \right) = 0$$

$\forall x \in \delta$, integrando esta ecuación obtenemos que

$$-\dfrac{y_{1}}{y_{2}} = -k$$

O bien,

$$y_{1}(x) = k y_{2}(x) \label{26} \tag{26}$$

con $k$ una constante. Esto demuestra que $y_{1}$ y $y_{2}$ son linealmente dependientes.

$\square$

Hay que tener muy presentes las hipótesis de este teorema, pues es posible que el Wronskiano sea cero aún cuando las funciones consideradas en un cierto intervalo sean linealmente independientes en él.

Como consecuencia del teorema anterior podemos establecer el criterio para soluciones linealmente independientes en el caso $n = 2$.

Realicemos un ejemplo.

Ejemplo: En la entrada anterior de tarea moral tenías que verificar que las funciones

$$y_{1}(x) = e^{-3x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{4x}$$

forman un conjunto fundamental de soluciones de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -12y = 0$$

en $\delta = (-\infty, \infty)$. Demostremos esto mismo usando los teoremas vistos anteriormente.

Solución: Consideremos las soluciones

$$y_{1}(x) = e^{-3x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{4x}$$

y sus respectivas derivadas

$$\dfrac{dy_{1}}{dx} = -3e^{-3x} \hspace{1cm} y \hspace{1cm} \dfrac{dy_{2}}{dx} = 4e^{4x}$$

Calculemos el Wronskiano.

\begin{align*}
W(y_{1}, y_{2}) = \begin{vmatrix}
e^{-3x} & e^{4x} \\
-3e^{-3x} & 4e^{4x} \\
\end{vmatrix} = e^{-3x}(4e^{4x}) -e^{4x}(-3e^{-3x}) = 7e^{-x} \neq 0
\end{align*}

Como

$$W(y_{1}, y_{2}) = 7 e^{-x} \neq 0$$

entonces $\{ y_{1}(x) = e^{-3x}, y_{2}(x) = e^{4x}\}$ forma un conjunto fundamental de soluciones y la solución general está dada por

$$y(x) = c_{1}e^{-3x} + c_{2}e^{4x}$$

$\square$

Con esto concluimos el estudio de algunas propiedades importantes de las soluciones a la ecuación diferencial lineal homogénea de orden superior, terminemos esta entrada con el estudio del caso no homogéneo.

Ecuaciones no homogéneas

La ecuación diferencial lineal no homogénea de $n$-ésimo orden es

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{27} \tag{27}$$

Nuestro objetivo es obtener la forma general de la solución de la ecuación no homogénea (\ref{27}) y estudiar algunas propiedades de las soluciones.

Si recordamos al operador polinomial

$$\mathcal{L} = a_{n}(x)D^{n} + a_{n -1}(x)D^{n -1} + \cdots + a_{1}(x)D + a_{0}(x) \label{28} \tag{28}$$

la definición anterior implica que

$$\mathcal{L}\{y_{p}\} = g(x) \label{29} \tag{29}$$

Veamos el siguiente resultado.

Demostración: Sea $y(x)$ la combinación lineal

$$y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$$

si aplicamos el operador polinomial, tenemos

\begin{align*}
\mathcal{L} \{y(x)\} &= \mathcal{L} \{c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}\} \\
&= c_{1}\mathcal{L}\{y_{1}\} + c_{2}\mathcal{L}\{y_{2}\} + \cdots + c_{n}\mathcal{L}\{y_{n}\} + \mathcal{L}\{y_{p}\} \\
&= 0 + g(x) \\
&= g(x)
\end{align*}

Ya que $\mathcal{L}\{y_{i}\} = 0$ para cada $i = 1, 2, \cdots, n$ por ser cada $y_{i}$ solución de la ecuación homogénea, mientras que $\mathcal{L}\{y_{p}\} = g(x)$ por ser solución de la ecuación no homogénea. Entonces, como

$$\mathcal{L} \{y(x)\} = g(x)$$

concluimos que la combinación lineal

$$y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$$

es solución de la ecuación diferencial no homogénea.

$\square$

¿Y qué ocurre si las soluciones $y_{1}, y_{2}, \cdots, y_{n}$ forman un conjunto fundamental de soluciones?. La respuesta es que la combinación lineal

$$y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$$

sería la solución general de la ecuación diferencial no homogénea (\ref{27}). Demostremos este resultado.

Demostración: Sea $y(x)$ la solución general de la ecuación no homogénea (\ref{27}) y sea $y_{p}(x)$ una solución particular de la misma ecuación, ambas definidas en el intervalo $\delta$, de manera que

$$\mathcal{L} \{ y(x)\} = \mathcal{L} \{ y_{p}(x)\} = g(x)$$

con $\mathcal{L}$ el operador polinomial (\ref{28}). Nuestro objetivo es encontrar la forma explícita de $y(x)$.

Definamos la función

$$h(x) = y(x) -y_{p}(x) \label{32} \tag{32}$$

y notemos lo siguiente.

\begin{align*}
\mathcal{L} \{ h(x) \} &= \mathcal{L} \{ y(x) -y_{p}(x) \} \\
&= \mathcal{L} \{ y(x) \} -\mathcal{L} \{ y_{p}(x) \} \\
&= g(x) -g(x) \\
&= 0
\end{align*}

Esto es,

$$\mathcal{L} \{ h(x) \} = 0$$

lo que significa que la función $h(x)$ es solución de la ecuación homogénea (\ref{2}) y por el teorema de la solución general de ecuaciones homogéneas podemos establecer que la función $h(x)$ tiene la siguiente forma.

$$h(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{33} \tag{33}$$

Con $\{ y_{1}, y_{2}, \cdots, y_{n} \}$ un conjunto fundamental de soluciones. Sustituyendo (\ref{33}) en (\ref{32}) y despejando a la solución general $y(x)$ obtenemos finalmente que

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) + y_{p}(x)$$

que es lo que queríamos demostrar.

$\square$

La diferencia entre las soluciones $(\ref{30})$ y $(\ref{31})$ es que en $(\ref{31})$ las $y_{i}, i = 1, 2, \cdots, n$ forman un conjunto fundamental de soluciones, es decir, son linealmente independientes entre sí, mientras que en (\ref{30}) no necesariamente forman una conjunto fundamental y sin embargo, también son solución de la ecuación (\ref{27}).

En el caso de las ecuaciones no homogéneas vemos que la solución general corresponde a la suma de la solución general de la ecuación homogénea asociada más una solución particular de la ecuación no homogénea. En este caso no homogéneo la solución general de la ecuación homogénea tiene un nombre particular.

Por tanto, resolver una ecuación lineal no homogénea implica resolver primero la ecuación homogénea asociada para obtener la función complementaria $y_{c}(x)$ y luego se encuentra una solución particular $y_{p}(x)$ de la ecuación no homogénea para finalmente sumarlas

$$y(x) = y_{c}(x) + y_{p}(x) \label{34} \tag{34}$$

Realicemos un ejemplo.

Ejemplo: Probar que la función

$$y(x) = c_{1} e^{2x} + c_{2}x e^{2x} + x^{2} e^{2x} + x -2$$

definida en el intervalo $\delta = (-\infty, \infty)$, es la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2 e^{2x} + 4x -12$$

Solución: Primero probemos que las funciones

$$y_{1} = e^{2x} \hspace{1cm} y \hspace{1cm} y_{2} = x e^{2x}$$

forman un conjunto fundamental de soluciones de la ecuación homogénea asociada

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 0$$

Para ello veamos que $y_{1}$ y $y_{2}$ son soluciones de la ecuación homogénea y que son linealmente independientes, es decir, que $W(y_{1}, y_{2}) \neq 0$. Calculemos las derivadas.

$$y_{1} = e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{dy_{1}}{dx} = 2 e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{1}}{dx^{2}} = 4 e^{2x}$$

$$y_{2} = xe^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{dy_{2}}{dx} = e^{2x} + 2x e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} = 4 e^{2x} + 4x e^{2x}$$

De tarea moral muestra que ambas funciones son solución de la ecuación homogénea asociada, es decir, que

$$\dfrac{d^{2}y_{1}}{dx^{2}} -4 \dfrac{dy_{1}}{dx} + 4y_{1} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} -4 \dfrac{dy_{2}}{dx} + 4y_{2} = 0$$

Ahora probemos que forman un conjunto fundamental de soluciones, para ello calculemos el Wronskiano.

\begin{align*}
W(y_{1}, y_{2}) = \begin{vmatrix}
e^{2x} & xe^{2x} \\
2 e^{2x} & e^{2x} + 2x e^{2x} \\
\end{vmatrix} = e^{2x}(e^{2x} + 2x e^{2x}) -xe^{2x}(2e^{2x}) = e^{4x} \neq 0
\end{align*}

Como $W(y_{1}, y_{2}) \neq 0$, $\forall x \in \delta$, por los teoremas vistos anteriormente concluimos que $\{y_{1} = e^{2x}, y_{2} = x e^{2x} \}$ forma un conjunto fundamental de soluciones de la ecuación homogénea asociada y que la solución general a dicha ecuación es

$$y_{c}(x) = c_{1} e^{2x} + c_{2}x e^{2x}$$

donde el subíndice $c$ indica que es la función complementaria.

Ahora verifiquemos que la función

$$y_{p}(x) = x^{2} e^{2x} + x -2$$

es una solución particular de la ecuación no homogénea. Calculemos la primera y segunda derivada.

$$\dfrac{dy_{p}}{dx} = 2x e^{2x} + 2x^{2} e^{2x} + 1$$

$$\dfrac{d^{2}y_{p}}{dx^{2}} = 2 e^{2x} + 8x e^{2x} + 4x^{2} e^{2x}$$

Sustituyamos en la ecuación diferencial.

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y &= (2 e^{2x} + 8x e^{2x} + 4x^{2} e^{2x}) -4(2x e^{2x} + 2x^{2} e^{2x} + 1) +4(x^{2} e^{2x} + x -2) \\
&= 2e^{2x} + (8x e^{2x} -8x e^{2x}) + (4x^{2} e^{2x} -8x^{2} e^{2x} + 4x^{2} e^{2x}) + 4x -12 \\
&= 2e^{2x} +4x -12
\end{align*}

Esto es,

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} +4x -12$$

que justo corresponde a la ecuación diferencial no homogénea, por lo tanto, efectivamente $y_{p}$ es una solución particular.

Como $\{y_{1} = e^{2x}, y_{2} = x e^{2x} \}$ es un conjunto fundamental de soluciones de la ecuación homogénea asociada y

$$y_{p}(x) = x^{2} e^{2x} + x -2$$

es una solución particular de la ecuación no homogénea, por el teorema de la solución general de ecuaciones no homogéneas concluimos que la función

$$y(x) = c_{1} e^{2x} + c_{2}x e^{2x} + x^{2} e^{2x} + x -2$$

es la solución general de la ecuación no homogénea.

$\square$

Hay algo muy interesante que ocurre en el ejemplo anterior. Mostramos que la función

$$y_{p}(x) = x^{2} e^{2x} + x -2$$

es una solución particular de la ecuación no homogénea

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} +4x -12 = g(x)$$

Sin embargo, si haces los cálculos correspondientes notarás que la función

$$y_{p1}(x) = x^{2} e^{2x}$$

es una solución particular de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} = g_{1}(x)$$

mientras que la función

$$y_{p2}(x) = x -2$$

es una solución particular de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 4x -12 = g_{2}(x)$$

Así, si superponemos las soluciones particulares

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x)$$

obtenemos en la ecuación diferencial la superposición de la funciones

$$g(x) = g_{1}(x) + g_{2}(x)$$

Lo anterior es efecto del principio de superposición para ecuaciones no homogéneas.

Demostración: Sea $\mathcal{L}$ el operador polinomial (\ref{28}) y sean $y_{pi}(x)$, $i = 1, 2, \cdots, k$, soluciones particulares de las ecuaciones no homogéneas

$$\mathcal{L} \{ y_{pi}(x) \} = g_{i}(x)$$

$i = 1, 2, \cdots, k$ respectivamente. Definamos la función

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x)$$

Nuestro objetivo es demostrar que la función $y_{p}(x)$ es una solución particular de la ecuación (\ref{37}), es decir, que se cumple que

$$\mathcal{L} \{ y_{p}(x) \} = g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x)$$

En efecto

\begin{align*}
\mathcal{L} \{ y_{p}(x)\} &= \mathcal{L} \{ y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x) \} \\
&= \mathcal{L} \{ y_{p1}(x) \} + \mathcal{L} \{ y_{p2}(x) \} + \cdots + \mathcal{L} \{ y_{pk}(x) \} \\
&= g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x)
\end{align*}

Con esto queda probado que

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x)$$

es solución de (\ref{37}).

$\square$

Realicemos un último ejemplo.

Ejemplo: Probar que

  • $y_{p1}(x) = -4x^{2} \hspace{0.5cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8$,
  • $y_{p2}(x) = e^{2x} \hspace{0.9cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = 2e^{2x}$,
  • $y_{p3}(x) = xe^{x} \hspace{0.9cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = 2x e^{x} -e^{x}$.

y probar que la superposición

$$y(x) = y_{p1}(x) + y_{p2}(x) + y_{p3}(x) = -4x^{2} + e^{2x} + xe^{x}$$

es una solución de

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8 + 2e^{2x} + 2xe^{x} -e^{x}$$

Solución: Sean

$$g_{1}(x) = -16x^{2} + 24x -8, \hspace{1cm} g_{2}(x) = 2e^{2x} \hspace{1cm} y \hspace{1cm} g_{3}(x) = 2x e^{x} -e^{x}$$

De tarea moral muestra que efectivamente,

$$\dfrac{d^{2}y_{p1}}{dx^{2}} -3\dfrac{dy_{p1}}{dx} + 4y_{p1} = g_{1}(x)$$

$$\dfrac{d^{2}y_{p2}}{dx^{2}} -3\dfrac{dy_{p2}}{dx} + 4y_{p2} = g_{2}(x)$$

$$\dfrac{d^{2}y_{p3}}{dx^{2}} -3\dfrac{dy_{p3}}{dx} + 4y_{p3} = g_{3}(x)$$

Por el principio de superposición para ecuaciones no homogéneas sabemos que la función

$$y(x) = y_{p1}(x) + y_{p2}(x) + y_{p3}(x)$$

es solución de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = g_{1}(x) + g_{2}(x) + g_{3}(x)$$

Por lo tanto, la función

$$y(x) = -4x^{2} + e^{2x} + xe^{x}$$

es solución de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8 + 2e^{2x} + 2xe^{x} -e^{x}$$

Si gustas puedes calcular la primera y segunda derivada de $y(x)$ y verificar la ecuación anterior para asegurarte del resultado.

$\square$

Con esto concluimos nuestro estudio sobre algunas propiedades de las ecuaciones diferenciales lineales de orden superior. En la siguiente entrada conoceremos un primer método para resolver ecuaciones diferenciales de segundo orden.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Dadas las soluciones de las siguientes ecuaciones diferenciales lineales homogéneas de orden superior en el intervalo dado, calcular el Wronskiano para determinar si es un conjunto fundamental de soluciones y en caso de serlo dar la solución general.
  • $x^{3} \dfrac{d^{3}y}{dx^{3}} + 6x^{2} \dfrac{d^{2}y}{dx^{2}} + 4x \dfrac{dy}{dx} -4y = 0$, con soluciones

$\hspace{1cm} y_{1} = x, \hspace{0.6cm} y_{2} = \dfrac{1}{x^{2}}, \hspace{0.6cm} y_{3} = \dfrac{1}{x^{2}} \ln(x); \hspace{1cm} \delta = (0, \infty)$.

  • $\dfrac{d^{4}y}{dx^{4}} + \dfrac{d^{2}y}{dx^{2}} = 0$, con soluciones

$\hspace{1cm} y_{1} = 1, \hspace{0.6cm} y_{2} = x, \hspace{0.6cm} y_{3} = \cos(x), \hspace{0.6cm} y_{4} = \sin(x); \hspace{1cm} \delta = (\infty, \infty)$.

  1. Dadas las soluciones de las siguientes ecuaciones diferenciales lineales no homogéneas de orden superior en el intervalo dado, probar que se trata de la solución general de la ecuación.
  • $\dfrac{d^{2}y}{dx^{2}} -7 \dfrac{dy}{dx} + 10y = 24 e^{x}$, con solución

$\hspace{1cm} y(x) = c_{1} e^{2x} + c_{2} e^{5x} + 6 e^{x}; \hspace{1cm} \delta = (\infty, \infty)$.

  • $2x^{2} \dfrac{d^{2}y}{dx^{2}} + 5x \dfrac{dy}{dx} + y = x^{2} -x$, con solución

$\hspace{1cm} y(x) = c_{1} \dfrac{1}{\sqrt{x}} + c_{2} \dfrac{1}{x} + \dfrac{1}{15}x^{2} -\dfrac{1}{6}x; \hspace{1cm} \delta = (0, \infty)$.

  1. Comprobar que las funciones $$y_{p1}(x) = 3 e^{2x} \hspace{1cm} y \hspace{1cm} y_{p2}(x) = x^{2} + 3x$$ son, respectivamente, soluciones particulares de $$\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = -9 e^{2x} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = 5x^{2} + 3x -16$$
  1. Usando el ejercicio anterior, encontrar la solución particular de las siguientes ecuaciones.
  • $\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = 5x^{2} + 3x -16 -9 e^{2x}$
  • $\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = -10x^{2} -6x +32 + e^{2x}$

Más adelante…

Ahora que ya conocemos algunas propiedades de las ecuaciones diferenciales de orden superior y sus soluciones, en particular de las ecuaciones lineales de segundo orden, es momento de comenzar a desarrollar los distintos métodos de resolución de estas ecuaciones diferenciales.

En la siguiente entrada comenzaremos con un método que permite reducir una ecuación de segundo orden en una ecuación de primer orden, de tal manera que podremos resolverla aplicando alguno de los métodos vistos en la unidad anterior. No es casualidad que dicho método se conozca como método de reducción de orden.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»