Archivo del Autor: Omar González Franco

Ecuaciones Diferenciales I: Ecuaciones diferenciales homogéneas con coeficientes constantes

Introducción

Continuando con nuestro desarrollo de métodos de resolución de ecuaciones diferenciales de orden superior, en particular de segundo orden, en esta entrada estudiaremos un método de resolución aplicado sólo a ecuaciones diferenciales lineales homogéneas de segundo orden con coeficientes constantes, es decir, de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = 0$$

Con $a, b$ y $c$ contantes.

Antes de comenzar vamos a motivar el análisis que desarrollaremos a lo largo de la unidad considerando primero las ecuaciones diferenciales de primer orden.

Ecuaciones diferenciales lineales homogéneas de primer orden con coeficientes constantes

En la primer unidad estudiamos las ecuaciones lineales homogéneas de la forma

$$a_{1}(x) \dfrac{dy}{dx} + a_{0}(x) y = 0 \label{1} \tag{1}$$

Si $a_{1}(x) \neq 0$ podemos definir $P(x) = \dfrac{a_{0}(x)}{a_{1}(x)}$ y reescribir la ecuación anterior en su forma canónica como

$$\dfrac{dy}{dx} + P(x) y = 0 \label{2} \tag{2}$$

Cuando estudiamos su método de resolución concluimos que la solución general a esta ecuación es

$$y(x) = k e^{-\int{P(x) dx}} \label{3} \tag{3}$$

Consideremos ahora el caso en el que $a_{1}(x) = a \neq 0$ y $a_{0}(x) = b$ son números constantes, con esto la ecuación (\ref{1}) se puede escribir como

$$a \dfrac{dy}{dx} + b y = 0 \label{4} \tag{4}$$

Si definimos la constante $c = \dfrac{b}{a}$ podremos escribir la ecuación anterior en su forma canónica

$$\dfrac{dy}{dx} + cy = 0 \label{5} \tag{5}$$

En la unidad anterior vimos que esta ecuación se puede resolver ya sea por variables separables o con ayuda de un factor integrante, sin embargo hay un método de resolución que sólo implica hacer un poco de álgebra.

Definiendo $k = -c$ la ecuación (\ref{5}) la podemos escribir de la siguiente manera:

$$\dfrac{dy}{dx} = ky \label{6} \tag{6}$$

La solución se puede intuir rápidamente, buscamos una función $y$ tal que su derivada sea igual a ella misma multiplicada por una constante y la función que satisface esto es

$$y(x) = e^{kx} \label{7} \tag{7}$$

Puedes observar que al derivarla recuperamos la ecuación (\ref{6})

$$\dfrac{dy}{dx} = k e^{kx} = ky$$

Ahora que conocemos la solución, sustituyamos $y = e^{kx}$ y su derivada $\dfrac{dy}{dx} = k e^{kx}$ en la ecuación (\ref{4})

$$a k e^{kx} + b e^{kx} = 0$$

Factorizando la función exponencial tenemos

$$e^{kx} (ak + b) = 0$$

Como $e^{kx} \neq 0$, $\forall x \in \mathbb{R}$ entonces necesariamente

$$ak + b = 0 \label{8} \tag{8}$$

De donde $k = -\dfrac{b}{a}$, sustituyendo en la solución (\ref{7}) tenemos que

$$y(x) = e^{-\frac{b}{a} x}$$

Por lo tanto, la solución general a la ecuación diferencial lineal homogénea de primer orden con coeficientes constantes (\ref{4}) es

$$y(x) = c_{1}e^{-\frac{b}{a} x} \label{9} \tag{9}$$

Ejemplo: Determinar la solución general de la ecuación diferencial $8 \dfrac{dy}{dx} + 16y = 0$.

Solución: Al ser una ecuación con coeficientes constantes, sabemos que la forma de la solución es $y = e^{kx}$. Si sustituimos $y$ y su derivada $\dfrac{dy}{dx}$ en la ecuación diferencial obtenemos que $e^{kx}(8k + 16) = 0$ de donde se debe satisfacer que $8k + 16 = 0$, si despejamos a $k$ se obtiene $k = -\dfrac{16}{8} = -2$, de manera que una solución a la ecuación diferencial es $y = e^{-2x}$, y por tanto su solución general en el intervalo $\delta = (-\infty, \infty)$ es $y(x) = c_{1} e^{-2x}$.

$\square$

Lo interesante es que esta idea de soluciones exponenciales se puede extender a ecuaciones diferenciales homogéneas de orden superior

$$a_{n} \dfrac{d^{n}y}{dx^{n}} + a_{n -1} \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{1} \dfrac{dy}{dx} + a_{0} y = 0$$

donde los coeficientes $a_{i}$, $i = 0, 1, 2, …, n$, son constantes reales y $a_{n} \neq 0$.

Este análisis nos sirvió para motivar el siguiente método de resolución de ecuaciones diferenciales de segundo orden.

Ecuaciones diferenciales lineales homogéneas de segundo orden con coeficientes constantes

La ecuación diferencial que queremos resolver es de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = 0 \label{10} \tag{10}$$

Con $a, b$ y $c$ constantes. Igual que antes, lo que intentamos es encontrar una solución de la forma $y(x) = e^{kx}$, su primera y segunda derivada están dadas por

$$\dfrac{dy}{dx} = k e^{kx} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = k^{2} e^{kx}$$

Si sustituimos en la ecuación (\ref{10}), tenemos

\begin{align*}
ak^{2} e^{kx} + bke^{kx} + ce^{kx} &= 0 \\
e^{kx} (ak^{2} + bk + c) &= 0
\end{align*}

Nuevamente $e^{kx} \neq 0, \forall x \in \mathbb{R}$, así que necesariamente

$$ak^{2} + bk + c= 0 \label{11} \tag{11}$$

El problema se ha reducido a obtener las raíces de la ecuación anterior, dicha ecuación tiene un nombre especial.

Definición: La ecuación $ak^{2} + bk + c= 0$ se conoce como la ecuación auxiliar de la ecuación diferencial (\ref{10}).

La dos raíces de la ecuación auxiliar son:

$$k_{1} = \dfrac{-b + \sqrt{b^{2} -4ac}}{2a} \hspace{1cm} y \hspace{1cm} k_{2} = \dfrac{-b -\sqrt{b^{2} -4ac}}{2a}$$

De tus cursos de álgebra recordarás que el discriminate $\Delta = b^{2} -4ac$ puede ser positivo, cero o negativo, en cada caso ocurre lo siguiente:

  • Si $\Delta > 0$ entonces $k_{1}$ y $k_{2}$ son reales y distintos.
  • Si $\Delta = 0$ entonces $k_{1}$ y $k_{2}$ son reales e iguales, y
  • Si $\Delta < 0$ entonces $k_{1}$ y $k_{2}$ son números conjugados complejos.

Estudiemos cada caso y veamos el tipo de solución que se obtiene en cada uno.

Caso 1: Discriminante positivo

Ya vimos que la solución es de la forma $y = e^{kx}$. Si el discriminante es positivo entonces al resolver la ecuación auxiliar obtendremos dos raíces reales y distintas $k_{1}$ y $k_{2}$ de manera que se tendrán dos soluciones a la ecuación diferencial (\ref{10}), dichas soluciones son:

$$y_{1}(x) = e^{k_{1} x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{k_{2} x}$$

Notemos lo siguiente.

\begin{align*}
W(y_{1}, y_{2}) &= \begin{vmatrix}
e^{k_{1} x} & e^{k_{2} x} \\
k_{1} e^{k_{1} x} & k_{2} e^{k_{2} x} \end{vmatrix} \\
&= k_{2} e^{k_{2} x} e^{k_{1} x} -k_{1} e^{k_{1} x} e^{k_{2} x} \\
&= (k_{2} -k_{1}) e^{(k_{1} + k_{2}) x} \neq 0
\end{align*}

Como el Wronskiano es distinto de cero $\forall x \in \mathbb{R}$ esto nos indica que ambas funciones son linealmente independientes en $\mathbb{R}$ y por tanto forman un conjunto fundamental de soluciones de manera que la solución general a la ecuación (\ref{10}), en el caso en el que el discriminante es positivo, es

$$y(x) = c_{1} e^{k_{1} x} + c_{2} e^{k_{2} x} \label{12} \tag{12}$$

Con

$$k_{1} = \dfrac{-b + \sqrt{b^{2} -4ac}}{2a} \hspace{1cm} y \hspace{1cm} k_{2} = \dfrac{-b -\sqrt{b^{2} -4ac}}{2a}$$

Caso 2: Discriminante igual a cero

En este caso como $\Delta = b^{2} -4ac = 0$, entonces $k_{1} = k_{2} = -\dfrac{b}{2a}$, de esta manera sólo obtendremos una solución exponencial

$$y_{1}(x) = e^{k_{1} x} = e^{k_{2} x} = e^{-\frac{b}{2a} x} \label{13} \tag{13}$$

Para obtener la segunda solución vamos a aplicar el método de reducción de orden visto en la entrada anterior, en donde obtuvimos que una segunda solución linealmente independiente es de la forma

$$y_{2}(x) = y_{1}(x) \int{\dfrac{e^{-\int{P(x) dx}}}{y_{1}^{2}(x)} dx} \label{14} \tag{14}$$

En este caso de coeficientes constantes si la ecuación (\ref{10}) la dividimos por la constante $a \neq 0$ obtenemos

$$\dfrac{d^{2}y}{dx^{2}} + \dfrac{b}{a} \dfrac{dy}{dx} + \dfrac{c}{a}y = 0$$

Si definimos las constantes $P = \dfrac{b}{a}$ y $Q = \dfrac{c}{a}$ la ecuación anterior se puede reescribir como

$$\dfrac{d^{2}y}{dx^{2}} + P \dfrac{dy}{dx} + Qy = 0 \label{15} \tag{15}$$

Vamos a sustituir $P(x) = P = \dfrac{b}{a}$ y $y_{1}(x) = e^{-\frac{b}{2a} x}$ en la segunda solución (\ref{14}):

\begin{align*}
y_{2}(x) &= e^{-\frac{b}{2a} x} \int{\dfrac{e^{-\int{\frac{b}{a}dx}}}{\left( e^{-\frac{b}{2a} x} \right)^{2}} dx} \\
&= e^{-\frac{b}{2a} x} \int{\dfrac{e^{-\frac{b}{a}x}}{e^{-\frac{b}{a} x}} dx} \\
&= e^{-\frac{b}{2a} x} \int{dx} \\
&= x e^{-\frac{b}{2a} x}
\end{align*}

Con esto, la segunda solución a la ecuación (\ref{10}) para este segundo caso es:

$$y_{2}(x) = xe^{k_{1}x} = xe^{k_{2}x} = x e^{-\frac{b}{2a} x} \label{16} \tag{16}$$

Usando (\ref{13}) y (\ref{16}) nuevamente notamos que

\begin{align*}
W(y_{1}, y_{2}) &= \begin{vmatrix}
e^{k_{1} x} & xe^{k_{1} x} \\
k_{1} e^{k_{1} x} & e^{k_{1} x} + x k_{1} e^{k_{1} x} \end{vmatrix} \\
&= e^{k_{1} x}(e^{k_{1} x} + x k_{1} e^{k_{1} x}) -x e^{k_{1} x} (k_{1} e^{k_{1} x}) \\
&= e^{2k_{1} x} + x k_{1} e^{2k_{1} x} -x k_{1} e^{2k_{1} x} \\
&= e^{2k_{1} x} \neq 0
\end{align*}

Como el Wronskiano es distinto de cero $\forall x \in \mathbb{R}$, entonces ambas funciones son linealmente independientes en $\mathbb{R}$ y por tanto forman un conjunto fundamental de soluciones de manera que la solución general a la ecuación (\ref{10}), en el caso en el que el discriminante es cero, es

$$y(x) = c_{1}e^{k_{1}x} + c_{2} xe^{k_{1}x} \label{17} \tag{17}$$

Con $k_{1} = -\dfrac{b}{2a}$.

Revisemos el último caso.

Caso 3: Discriminante negativo

Sabemos que

$$k_{1} = \dfrac{-b + \sqrt{b^{2} -4ac}}{2a} \hspace{1cm} y \hspace{1cm} k_{2} = \dfrac{-b -\sqrt{b^{2} -4ac}}{2a}$$

Si el discriminante es menor a cero definimos $-w = b^{2} -4ac$ con $w \in \mathbb{R}^{+}$, tal que

$$k_{1} = \dfrac{-b + \sqrt{-w}}{2a} = \dfrac{-b}{2a} + i\dfrac{\sqrt{w}}{2a}$$

y

$$k_{2} = \dfrac{-b -\sqrt{-w}}{2a} = \dfrac{-b}{2a} -i\dfrac{\sqrt{w}}{2a}$$

Donde $i^{2} = -1$, definimos $\alpha = \dfrac{-b}{2a}$ y $\beta = \dfrac{\sqrt{w}}{2a}$, de esta forma las raíces a la ecuación auxiliar son los números complejos conjugados $k_{1} = \alpha + i\beta$ y $k_{2} = \alpha -i\beta$, donde $\alpha$ y $\beta$ son números reales positivos. Dado que ambas raíces son distintas, similar al caso 1, tendremos dos soluciones dadas por

$$y_{1}(x) = e^{(\alpha + i\beta) x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{(\alpha -i\beta) x}$$

De tarea moral demuestra que $W(y_{1}, y_{2}) = -2i \beta e^{2 \alpha x} \neq 0$, y por tanto $\{ y_{1}, y_{2} \}$ forma un conjunto fundamental de soluciones, es así que la solución general está dada por la combinación lineal

$$y(x) = c_{1}e^{(a + i\beta) x} + c_{2}e^{(a -i\beta) x} \label{18} \tag{18}$$

A pesar de que la función anterior es la solución a la ecuación diferencial (\ref{10}), es común trabajar con una solución que contenga funciones reales en lugar de exponenciales complejas. Con el fin de hallar una expresión distinta para la solución $y(x)$, vamos a considerar la formula de Euler

$$e^{i\theta} = \cos \theta + i\sin \theta \label{19} \tag{19}$$

con $\theta \in \mathbb{R}$. De esta formula y considerando las propiedades de que $\cos (-\beta x) = \cos (\beta x)$ y $\sin (-\beta x) = -\sin (\beta x)$ es que podemos escribir las siguientes expresiones

$$e^{i\beta x} = \cos (\beta x) + i \sin (\beta x) \hspace{1cm} y \hspace{1cm} e^{-i\beta x} = \cos (\beta x) -i \sin (\beta x)$$

De las ecuaciones anteriores puedes observar que se cumplen las siguientes igualdades

$$e^{i\beta x} + e^{-i\beta x} = 2 \cos (\beta x) \hspace{1cm} y \hspace{1cm} e^{i\beta x} -e^{-i\beta x} = 2i \sin (\beta x)$$

Estas ecuaciones nos servirán mas adelante ya que, dada la solución (\ref{18}), si ocurre que $c_{1} = c_{2} = 1$, entonces se obtiene la solución

\begin{align*}
y_{1}(x) &= e^{(a + i\beta )x} + e^{(a -i\beta )x} \\
&= e^{ax} (e^{i\beta x} + e^{-i\beta x}) \\
&= 2 e^{ax} \cos (\beta x)
\end{align*}

Y si ocurre que $c_{1} = 1$ y $c_{2} = -1$, entonces se obtiene la solución

\begin{align*}
y_{2}(x) &= e^{(a + i\beta )x} -e^{(a -i\beta )x} \\
&= e^{ax}(e^{i\beta x} -e^{-i\beta x}) \\
&= 2ie^{ax}\sin (\beta x)
\end{align*}

Con estos resultados vemos que las funciones $g(x) = e^{\alpha x} \cos (\beta x)$ y $h(x) = e^{\alpha x} \sin (\beta x)$ son ahora funciones reales y además de ello son soluciones a la ecuación (\ref{10}).

En la primer entrada de esta segunda unidad demostramos que un múltiplo constante $y(x) = c y_{1}(x)$ de una solución $y_{1}$ de una ecuación diferencial lineal homogénea es también una solución, usando este resultado es que podemos asegurar que las funciones $C_{1}g(x)$ y $C_{2}h(x)$ son también solución. De tarea moral muestra que

$$W(C_{1} e^{\alpha x} \cos (\beta x), C_{2} e^{\alpha x} \sin (\beta x)) = C_{1}C_{2} \beta e^{2 \alpha x} \neq 0$$

Es decir, el Wronskiano de las soluciones es distinto de cero. De esta manera podemos afirmar que ambas funciones forman un conjunto fundamental de soluciones en cierto intervalo $\delta$ y, por lo tanto, podemos concluir que la solución general real a la ecuación (\ref{10}) en el caso en el que el discriminante es negativo es

$$y(x) = C_{1} e^{ax} \cos (\beta x) + C_{2} e^{ax} \sin (\beta x) = e^{ax} (C_{1} \cos (\beta x) + C_{2}\sin (\beta x)) \label{20} \tag{20}$$

Ejemplos

Realicemos una serie de ejemplos en los que tengamos que identificar a que caso pertenecen las ecuaciones diferenciales y así poder obtener su solución.

Ejemplo: Resolver el siguiente PVI: $\dfrac{d^{2}y}{dx^{2}} -4\dfrac{dy}{dx} -5y = 0$, con $y(1) = 0$ y $y^{\prime}(1) = 2$.

Solución: Consideremos la solución $y = e^{kx}$ y sus primeras dos derivadas $\dfrac{dy}{dx}= ke^{kx}$ y $\dfrac{d^{2}y}{dx^{2}}= k^{2}e^{kx}$, sustituyendo en la ecuación diferencial obtenemos lo siguiente:

$$k^{2} e^{kx} -4ke^{kx} -5e^{kx} = e^{kx}(k^{2} -4k -5) = 0$$

Como $e^{kx} \neq 0, \forall x \in \mathbb{R}$ entonces la ecuación auxiliar es $k^{2} -4k -5 = 0$, resolviendo para $k$ tenemos

$$k= \dfrac{4\pm \sqrt{16+20}}{2}= \dfrac{4\pm 6}{2}$$

De donde $k_{1} = 5$ y $k_{2} = -1$. Como ambas raíces son reales y distintas (y $\Delta = 36 > 0$), entonces la ecuación pertenece al caso 1 por lo que podemos afirmar que la solución es de la forma (\ref{12})

$$y(x) = c_{1} e^{5x} + c_{2} e^{-x}$$

La derivada está dada como

$$\dfrac{dy}{dx} = 5 c_{1} e^{5x} -c_{2}e^{-x}$$

Aplicando las condiciones iniciales tenemos

$$y(1) = c_{1}e^{5} + c_{2}e^{-1} = 0 \hspace{1cm} y \hspace{1cm} y^{\prime}(1) = 5 c_{1}e^{5} -c_{2}e^{-1} = 2$$

Si resolvemos el sistema de ecuaciones obtendremos que $c_{1} = \dfrac{e^{-5}}{3}$ y $c_{2} = -\dfrac{e^{1}}{3}$. Por lo tanto, la solución particular del PVI es

$$y(x) = \dfrac{1}{3}e^{5(x -1)} -\dfrac{1}{3}e^{1 -x}$$

$\square$

Ejemplo: Resolver el siguiente PVF: $\dfrac{d^{2}y}{dx^{2}} -10\dfrac{dy}{dx} + 25y = 0$ con $y(0) = 1$ y $y(1) = 0$.

Solución: Consideramos nuevamente la solución $y = e^{kx}$ y sus derivadas $\dfrac{dy}{dx} = ke^{kx}$ y $\dfrac{d^{2}y}{dx^{2}} = k^{2}e^{kx}$, sustituyendo en la ecuación diferencial tenemos

$$k^{2}e^{kx} -10ke^{kx} + 25e^{kx} = e^{kx}(k^{2} -10k + 25) = 0$$

Como $e^{kx} \neq 0, \forall x \in \mathbb{R}$ entonces la ecuación auxiliar es $k^{2} -10k +25 = 0$. Resolviendo para $k$ tenemos

$$k = \dfrac{10 \pm \sqrt{100 -100}}{2} = \dfrac{10}{2} = 5$$

Notamos que $k_{1} = k_{2} = 5$, es decir, son raíces reales e iguales ($\Delta = 0$) por lo que estamos situados en el segundo caso y la solución está dada por la ecuación (\ref{17})

$$y(x) = c_{1} e^{5x} + c_{2}x e^{5x}$$

Aplicamos las condiciones en la frontera

$$y(0) = c_{1} = 1 \hspace{1cm} y \hspace{1cm} y(1) = c_{1}e^{5} + c_{2}e^{5} = 0$$

Obteniendo que $c_{1} = 1$ y $c_{2} = -1$. Por lo tanto, la solución particular al PVF es

$$y(x) = e^{5x} -x e^{5x}$$

Y además es única al no depender de ningún parámetro libre.

$\square$

Ejemplo: Obtener la solución general de la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + 3y = 0$.

Solución: Considerando la solución $y= e^{kx}$, calculando su primera y segunda derivada y sustituyendo en la ecuación diferencial obtendremos que la ecuación auxiliar es $k^{2} + 2k + 3 = 0$. Resolviendo para $k$, tenemos

$$k = \dfrac{-2 \pm \sqrt{4 -12}}{2} = \dfrac{-2 \pm \sqrt{-8}}{2} = \dfrac{-2 \pm 2i\sqrt{2}}{2} = -1 \pm i \sqrt{2}$$

Las raíces son $k_{1} = -1 + i \sqrt{2}$ y $k_{2} = -1 -i \sqrt{2}$, así mismo, identificamos que $\alpha = -1$ y $\beta = \sqrt{2}$. Al tratarse de raíces complejas notamos que corresponde al caso 3 y su solución compleja esta dada, de acuerdo a la ecuación (\ref{18}), como

$$y(x) = c_{1} e^{(-1 + i \sqrt{2})x} + c_{2} e^{(-1 -i \sqrt{2})x}$$

Sin embargo, una solución real es mucho más práctica de forma que si consideramos la ecuación (\ref{20}) concluimos que la solución general real de la ecuación diferencial es

$$y(x) = e^{-x}(C_{1} \cos (\sqrt{2} x) + C_{2} \sin (\sqrt{2} x))$$

$\square$

Ejemplo: Obtener la solución general de la ecuación diferencial $2\dfrac{d^{2}y}{dx^{2}} + 2\dfrac{dy}{dx} + y = 0$.

Solución: Considerando la solución $y= e^{kx}$, calculando su primera y segunda derivada y sustituyendo en la ecuación es como obtendremos que la ecuación auxiliar es $2k^{2} + 2k + 1 = 0$. Resolviendo para $k$, tenemos

$$k = \dfrac{-2 \pm \sqrt{4 -4}}{4} = -\dfrac{2}{4}$$

En este caso $k_{1} = k_{2} = -\dfrac{1}{2}$, es decir, las raíces son reales e iguales de manera que estamos en el caso dos y por lo tanto la solución general es

$$y(x) = c_{1}e^{-\frac{x}{2}} + c_{2}x e^{-\frac{x}{2}}$$

$\square$

Ejemplo: Obtener la solución general de la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -6y = 0$.

Solución: Repitiendo el mismo paso de siempre obtenemos que la ecuación auxiliar es $k^{2} -k -6 = 0$, resolviendo para $k$ tenemos

$$k = \dfrac{1 \pm \sqrt{1 + 24}}{2}$$

Por lo que las raíces son $k_{1} = 3$ y $k_{2} = -2$. Al ser reales y distintas notamos que estamos en circunstancias del caso uno y por tanto la solución general es

$$y(x) = c_{1}e^{3x} + c_{2}e^{-2x}$$

$\square$

Uno más

Ejemplo: Obtener la solución general de la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} + 8\dfrac{dy}{dx} + 16y = 0$.

Solución: La ecuación auxiliar en este caso es $k^{2} + 8k + 16= 0$, resolviendo para $k$ se tiene

$$k = \dfrac{8 \pm \sqrt{64 -64}}{2} = \dfrac{8}{2} = 4$$

Las raíces son $k_{1} = k_{2} = 4$, al ser reales e iguales concluimos que la solución general es

$$y(x) = c_{1}e^{4x} + c_{2}x e^{4x}$$

$\square$

Revisemos dos ecuaciones con una forma particular.

Dos ecuaciones particulares

Las ecuaciones diferenciales

$$\dfrac{d^{2}y}{dx^{2}} + m^{2}y = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} -m^{2}y = 0$$

Con $m \in \mathbb{R}$, son importantes en matemáticas aplicadas. Vamos a obtener la forma de la solución de cada una de ellas.

Para el caso de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + m^{2}y = 0 \label{21} \tag{21}$$

Considerando nuevamente la solución $y(x) = e^{kx}$, la ecuación auxiliar en este caso es $k^{2} + m^{2} = 0$ cuyas raíces son complejas y están dadas por $k_{1} = im$ y $k_{2} = -im$. Si recordamos el caso 3, las raíces son de la forma $k_{1} = \alpha +i\beta$ y $k_{2} = \alpha -i\beta$ así, en este caso tenemos que $\alpha = 0$ y $\beta = m$. Por lo tanto, de la ecuación (\ref{20}) concluimos que la solución a la ecuación (\ref{21}) es

$$y(x) = c_{1} \cos (mx) + c_{2}\sin (mx) \label{22} \tag{22}$$

Ejemplo: Obtener la solución general de la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} + 9y = 0$.

Solución: La ecuación a resolver es de la forma (\ref{21}) con $m = 3$. La ecuación auxiliar en este caso es $k^{2} + 9 = 0$, de donde $k_{1} = i3$ y $k_{2} = -i3$, es decir, $\alpha = 0, \beta = m = 3$. De acuerdo a la ecuación (\ref{22}) la solución general a la ecuación diferencial es

$$y(x) = c_{1} \cos (3x) + c_{2} \sin (3x)$$

$\square$

Por otra parte, para el caso de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -m^{2}y = 0 \label{23} \tag{23}$$

La ecuación auxiliar es $k^{2} -m^{2} = 0$ cuyas raíces son $k_{1} = m$ y $k_{2} = -m$, vemos que en este caso las raíces son reales, entonces la ecuación pertenece al caso 1 y por tanto la solución general está dada de acuerdo a la ecuación (\ref{12}), esto es

$$y(x) = c_{1} e^{mx} + c_{2} e^{-mx} \label{24} \tag{24}$$

Lo interesante de la ecuación (\ref{23}) es que si en su solución (\ref{24}) se elige $c_{1} = c_{2} = \dfrac{1}{2}$ tenemos que

$$y_{1}(x) = \dfrac{1}{2} \left( e^{mx} + e^{-mx} \right) = \cosh (mx)$$

Y si se elige $c_{1} = \dfrac{1}{2}$ y $c_{2} = -\dfrac{1}{2}$ entonces

$$y_{2}(x) = \dfrac{1}{2} \left( e^{mx} -e^{-mx} \right) = \sinh (mx)$$

Puedes comprobar que $W(y_{1}, y_{2}) \neq 0$ lo que prueba que ambas soluciones son linealmente independientes en algún intervalo $\delta$. Este análisis nos permite establecer una forma alternativa de la solución a la ecuación (\ref{23}) dada por

$$y(x) = c_{1} \cosh (mx) + c_{2} \sinh (mx) \label{25} \tag{25}$$

Ejemplo: Resolver el PVI $\dfrac{d^{2}y}{dx^{2}} -3y = 0$ con $y(0) = 1$ y $y^{\prime}(0) = 5$ usando primero la forma de la solución dada en (\ref{24}) y posteriormente resolverlo de nuevo usando la forma de la solución dada en (\ref{25}).

Solución: La ecuación a resolver es de la forma (\ref{23}) con $m = \sqrt{3}$. Considerando la solución $y = e^{kx}$ obtenemos que la ecuación auxiliar es $k^{2} -3 = 0$, de donde $k_{1} = m = \sqrt{3}$ y $k_{2} = -m = -\sqrt{3}$. Usando la ecuación (\ref{24}) concluimos que la solución a la ecuación es

$$y(x) = c_{1} e^{\sqrt{3} x} + c_{2} e^{-\sqrt{3} x}$$

La derivada de la solución es

$$\dfrac{dy}{dx} = \sqrt{3} c_{1} e^{\sqrt{3} x} -\sqrt{3} c_{2} e^{-\sqrt{3} x}$$

Aplicando las condiciones iniciales obtenemos lo siguiente:

$$y(0) = c_{1} + c_{2} = 1 \hspace{1cm} \Rightarrow \hspace{1cm} c_{2} = 1 -c_{1}$$

Por otro lado

$$y^{\prime}(0) = \sqrt{3} c_{1} -\sqrt{3} c_{2} = 5$$

Si sustituimos el valor de $c_{2}$ tenemos

\begin{align*}
\sqrt{3} c_{1} -\sqrt{3} (1 -c_{1}) &= 5 \\
{\sqrt{3}}(c_{1} -1 +c_{1}) &= 5 \\
2 c_{1} -1 &= \dfrac{5}{\sqrt{3}} \\
2c_{1} &= \dfrac{5}{\sqrt{3}} +1 \\
c_{1} &= \dfrac{5}{2\sqrt{3}} + \dfrac{1}{2}
\end{align*}

Sustituyendo en $c_{2}$ se tiene

$$c_{2} = 1 -\left( \dfrac{5}{2\sqrt{3}} -\dfrac{1}{2} \right) = \dfrac{1}{2} -\dfrac{5}{2\sqrt{3}}$$

Por lo tanto, la solución particular del PVI es

$$y(x) = \dfrac{1}{2} \left( 1 + \dfrac{5}{\sqrt{3}} \right) e^{\sqrt{3} x} + \dfrac{1}{2} \left(1 -\dfrac{5}{\sqrt{3}} \right) e^{-\sqrt{3} x}$$

Si por otro lado consideramos la forma de la solución (\ref{25}) obtenemos que

$$y(x) = c_{1} \cosh(\sqrt{3} x) + c_{2} \sinh(\sqrt{3} x)$$

y su derivada

$$\dfrac{dy}{dx} = \sqrt{3} c_{1} \sinh(\sqrt{3} x) + \sqrt{3} c_{2} \cosh(\sqrt{3} x)$$

Aplicando las condiciones iniciales

$$y(0) = c_{1} = 1 \hspace{1cm} y \hspace{1cm} y^{\prime}(0) = {\sqrt{3}c_{2}} = 5$$

De donde $c_{1} = 1$ y $c_{2} = \dfrac{5}{\sqrt{3}}$. Por lo tanto, la solución alternativa al PVI es

$$y(x) = \cosh (\sqrt{3} x) + \dfrac{5}{\sqrt{3}} \sinh(\sqrt{3} x)$$

$\square$

Para concluir la entrada revisemos brevemente estos mismos resultados para el caso de las ecuaciones de orden superior a dos.

Ecuaciones de orden superior

Es posible aplicar éste método de resolución para el caso de las ecuaciones diferenciales lineales homogéneas de orden superior a dos con coeficientes constantes, sin embargo desarrollar esta teoría desde cero puede ser muy complejo. Ahora que hemos sido muy detallados en el desarrollo de este método para el caso de las ecuaciones de segundo orden, vamos sólo a enunciar los posibles resultados para las ecuaciones de orden superior.

Es importante recordar que estamos estudiando las ecuaciones homogéneas y lineales con coeficientes constantes por lo que una ecuación de orden $n > 2$ con estas características tiene la siguiente forma:

$$a_{n} \dfrac{d^{n}y}{dx^{n}} + a_{n -1} \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{2} \dfrac{d^{2}y}{dx^{2}} + a_{1} \dfrac{dy}{dx} + a_{0}y = 0 \label{26} \tag{26}$$

Donde $a_{i}, i = 0, 1, \cdots, n$ son constantes.

Igual que antes, se considera la solución $y(x) = e^{kx}$ de manera que al sustituir esta función y las correspondientes derivadas en la ecuación (\ref{26}) obtenemos la siguiente ecuación auxiliar

$$a_{n} k^{n} + a_{n -1} k^{n -1} + \cdots + a_{2} k^{2} + a_{1} k + a_{0} =0 \label{27} \tag{27}$$

que tendrá $n$ raíces, estas raíces como sabemos pueden ser reales o complejas, iguales o distintas. La solución general para caso está dada de la siguiente manera.

  • Si las raíces son reales y distintas, la solución estará dada por

$$y(x) = c_{1} e^{k_{1} x} + c_{2} e^{k_{2} x} + \cdots + c_{n} e^{k_{n}x} \label{28} \tag{28}$$

  • Si las raíces son reales e iguales, la solución estará dada por

$$y(x) = e^{kx}(c_{1} + c_{2}x + c_{3}x^{2} + \cdots + c_{k}x^{k -1}) \label{29} \tag{29}$$

En el caso de orden superior es posible tener raíces reales y de ellas que unas sean iguales y otras diferentes, en este caso se usan los dos puntos anteriores respectivamente.

Por ejemplo, supongamos que de una ecuación de sexto orden se obtienen seis raíces tales que

$$k_{1} \neq k_{2} = k_{3} \neq k_{4} \hspace{1cm} y \hspace{1cm} k_{1} \neq k_{4} = k_{5} = k_{6}$$

Entonces la solución estaría dada por

$$y(x) = c_{1} e^{k_{1} x} + c_{2} e^{k_{2} x} + c_{3}x e^{k_{3} x} + c_{4} e^{k_{4} x} + c_{5}x e^{k_{5} x} + c_{6}x^{2} e^{k_{6} x}$$

Es decir, el par de raíces $k_{1} \neq k_{2}$ al ser diferentes genera la solución $c_{1} e^{k_{1} x} + c_{2} e^{k_{2} x}$, el par de raíces $k_{2} = k_{3}$ al ser iguales genera la solución $c_{2} e^{k_{2} x} + c_{3}x e^{k_{3} x}$, el par de raíces $k_{1} \neq k_{4}$ genera la solución $c_{1} e^{k_{1} x} + c_{4} e^{k_{4} x}$ y finalmente las raíces $k_{4} = k_{5} = k_{6}$ genera la solución $c_{4} e^{k_{4} x} + c_{5}x e^{k_{5} x} + c_{6}x^{2} e^{k_{6} x}$, esto de acuerdo a los dos puntos anteriores (\ref{28}) y (\ref{29}).

Finalmente

  • Si las raíces son complejas, para cada par conjugado la solución es:

$$y(x) = e^{\alpha x}(C_{1} \cos (\beta x) + C_{2} \sin (\beta x))$$

Si hay otro par igual, la función

$$y(x) = e^{\alpha x}x (C_{1} \cos (\beta x) + C_{2} \sin (\beta x))$$

será solución y si hay otro par igual, la función

$$y(x) = e^{\alpha x}x^{2} (C_{1} \cos (\beta x) + C_{2} \sin (\beta x))$$

será solución y así sucesivamente.

Ejemplo: Resolver el siguiente PVI: $\dfrac{d^{3}y}{dx^{3}} -7 \dfrac{d^{2}y}{dx^{2}} + 4\dfrac{dy}{dx} + 12y = 0$, con $y(0) = 1; y^{\prime}(0) = 0; y^{\prime \prime}(0) = 36$.

Solución: Proponiendo la solución $y = e^{kx}$ la ecuación auxiliar que se obtiene es $k^{3} -7k^{2} +4k +12 = 0$. Factorizando esta ecuación obtenemos que $(k + 1)(k -2)(k -6) = 0$, de donde $k_{1} = -1$, $k_{2} = 2$ y $k_{3} = 6$. Como las raíces son reales y diferentes, entonces la solución a la ecuación diferencial es de la forma (\ref{28}):

$$y(x) = c_{1} e^{-x} + c_{2} e^{2x} + c_{3} e^{6x}$$

Para aplicar las condiciones iniciales calculamos la primera y segunda derivada de la solución.

$$\dfrac{dy}{dx} = -c_{1} e^{-x} + 2c_{2} e^{2x} + 6c_{3} e^{6x} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = c_{1} e^{-x} + 4c_{2} e^{2x} + 36c_{3} e^{6x}$$

Si aplicamos las condiciones iniciales vamos a obtener el siguiente sistema de ecuaciones, respectivamente:

\begin{align*}
c_{1} + c_{2} + c_{3} &= 1 \\
-c_{1} + 2c_{2} + 6c_{3} &= 0 \\
c_{1} + 4c_{2} + 36c_{3} &= 36 \\
\end{align*}

Resolviendo el sistema de ecuaciones obtendremos que $c_{1} = \dfrac{16}{7}$, $c_{2} = -\dfrac{5}{2}$ y $c_{3} = \dfrac{17}{14}$. Por lo tanto, la solución particular de la ecuación diferencial de orden 3 es

$$y(x) = \dfrac{16}{7} e^{-x} -\dfrac{5}{2} e^{2x} + \dfrac{17}{14} e^{6x}$$

$\square$

La dificultad de resolver ecuaciones de orden mayor a 2 realmente radica en que se vuelve más complicado encontrar las raíces de la ecuación auxiliar y resolver el sistema de ecuaciones que se genere en problemas con valores iniciales o con valores en la frontera. Un método para factorizar la ecuación auxiliar y obtener las raíces puede ser la división sintética que seguramente conoces de tus cursos de álgebra, así como el método de Gauss-Jordan para obtener las soluciones de un sistema de ecuaciones lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtén la solución general de las siguientes ecuaciones diferenciales con coeficientes constantes.
  • $4 \dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} = 0$
  • $3 \dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 13y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -2 \sqrt{3} \dfrac{dy}{dx} + 3y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} + 4 \dfrac{dy}{dx} -y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 5y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 13y = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -\dfrac{4}{3} \dfrac{dy}{dx} + \dfrac{4}{9} y = 0$
  1. Resuelve los siguientes problemas con valores iniciales:
  • $\dfrac{d^{2}y}{dx^{2}} + y = 0; \hspace{1cm} y \left( \dfrac{\pi}{3} \right) = 0, \hspace{0.5cm} y^{\prime} \left( \dfrac{\pi}{3} \right) = 2$
  • $\dfrac{d^{3}y}{dx^{3}} + 2 \dfrac{d^{2}y}{dx^{2}} -5 \dfrac{dy}{dx} -6y = 0; \hspace{1cm} y(0) = y^{\prime}(0) = 0, \hspace{0.5cm} y^{\prime \prime} (0) = 1$
  1. Resuelve los siguientes problemas con valores en la frontera:
  • $\dfrac{d^{2}y}{dx^{2}} + 4y = 0; \hspace{1cm} y(0) = 0, \hspace{0.5cm} y(\pi) = 0$
  • $\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = 0; \hspace{1cm} y(0) = 1, \hspace{0.5cm} y(\pi) = 1$
  1. Resolver el siguiente problema con valores iniciales usando primero la forma de la solución dada en (\ref{24}) y posteriormente resolverlo de nuevo usando la forma de la solución dada en (\ref{25}).
  • $\dfrac{d^{2}y}{dx^{2}} -y = 0; \hspace{1cm} y(0) = 1, \hspace{0.5cm} y^{\prime}(1) = 0$

Más adelante…

Continuando con el desarrollo de métodos de resolución de ecuaciones diferenciales de orden superior, en la siguiente entrada desarrollaremos un método que permite resolver ecuaciones que no son homogéneas.

Entradas relacionadas

Ecuaciones Diferenciales I: Método de reducción de orden

Introducción

Hemos comenzado esta segunda unidad estudiando algunas de las propiedades de las soluciones a ecuaciones diferenciales lineales homogéneas y no homogéneas de orden superior. Como mencionamos en la entrada anterior, es momento de comenzar a desarrollar distintos métodos de resolución de ecuaciones diferenciales de orden superior, sin embargo, debido a la complejidad que surge de aumentar el orden, en esta entrada sólo consideraremos las ecuaciones diferenciales de segundo orden.

En esta entrada desarrollaremos el método de reducción de orden, como su nombre lo indica, lo que haremos básicamente es hacer un cambio de variable o una sustitución adecuada que permita que la ecuación de segundo orden pase a ser una ecuación de primer orden y de esta manera aplicar alguno de los métodos vistos en la unidad anterior para resolver la ecuación.

Hay dos distintas formas de reducir una ecuación de segundo orden, la primera de ellas consiste en hacer un cambio de variable $z = \dfrac{dy}{dx}$, esta forma se aplica en ecuaciones tanto lineales como no lineales pero deben satisfacer algunas condiciones y por otro lado, la segunda forma se aplica sólo a ecuaciones lineales homogéneas en las que tenemos conocimiento previo de una solución no trivial. En este segundo caso, considerando que conocemos una solución $y_{1}(x)$, haremos la sustitución $y_{2}(x) = u(x) y_{1}(x)$ para reducir de orden a la ecuación y al resolverla obtendremos la función $u(x)$ y por tanto la segunda solución $y_{2}(x)$ tal que $\{ y_{1}, y_{2} \}$ forme un conjunto fundamental de soluciones de la ecuación diferencial y de esta manera podamos establecer la solución general.

Comencemos por desarrollar la primer forma bajo un cambio de variable.

Ecuaciones reducibles a ecuaciones de primer orden

Hay cierto tipo de ecuaciones de segundo orden que pueden reducirse a una ecuación de primer orden y ser resueltas por los métodos que ya conocemos, vistos en la unidad anterior. Un primer tipo de ecuación son las ecuaciones lineales en las que la variable dependiente $y$ no aparece explícitamente.

Sabemos que una ecuación diferencial lineal no homogénea de segundo orden tiene la siguiente forma:

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x) y = g(x) \label{1} \tag{1}$$

Si la variable dependiente $y$ no se encuentra explícitamente en la ecuación obtenemos la siguiente forma:

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} = g(x) \label{2} \tag{2}$$

Es quizá natural pensar que una forma de resolver la ecuación (\ref{2}) es integrarla dos veces, es esto lo que haremos considerando el siguiente cambio de variable:

$$z = \dfrac{dy}{dx}; \hspace{1cm} \dfrac{dz}{dx} = \dfrac{d^{2}y}{dx^{2}} \label{3} \tag{3}$$

Sean $a_{2}(x) \neq 0$, $P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}$ y $Q(x) = \dfrac{g(x)}{a_{2}(x)}$. Si sustituimos estas funciones y el cambio de variable (\ref{3}) en la ecuación (\ref{2}) lograremos reducirla a una ecuación lineal de primer orden con $z$ la variable dependiente.

$$\dfrac{dz}{dx} + P(x) z = Q(x) \label{4} \tag{4}$$

En la unidad anterior desarrollamos distintos métodos para resolver este tipo de ecuaciones. Una vez que resolvamos la ecuación (\ref{4}) y regresemos a la variable original veremos que dicho resultado nuevamente corresponde a una ecuación de primer orden que podrá ser resuelta una vez más con los métodos vistos anteriormente. Realicemos un ejemplo:

Ejemplo: Reducir de orden a la ecuación diferencial de segundo orden $x \dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} = x$ para $x > 0$ y obtener su solución.

Solución: Primero vamos a dividir toda la ecuación por $x \neq 0$.

$$\dfrac{d^{2}y}{dx^{2}} -\dfrac{1}{x} \dfrac{dy}{dx} = 1$$

Ahora podemos hacer el cambio de variable (\ref{3}) para obtener la forma (\ref{4}).

$$\dfrac{dz}{dx} -\dfrac{1}{x}z = 1 \label{5} \tag{5}$$

Ya no deberíamos tener problema con resolver esta ecuación. El método más eficaz para resolverla es aplicar el método por factor integrante. De la ecuación reducida (\ref{5}) notamos que $P(x) = -\dfrac{1}{x}$ y $Q(x) = 1$. El factor integrante, es este caso, es

$$\mu(x) = e^{\int {P(x)} dx} = e^{-\int \frac{1}{x} dx} = e^{-\ln(x)} = \dfrac{1}{x} \hspace{1cm} \Rightarrow \hspace{1cm} \mu(x) = \dfrac{1}{x}$$

Multiplicamos la ecuación (\ref{5}) por el factor integrante,

$$\dfrac{1}{x} \dfrac{dz}{dx} -\dfrac{z}{x^{2}} = \dfrac{1}{x}$$

e identificamos que

$$\dfrac{d}{dx} \left( \dfrac{z}{x} \right) = \dfrac{1}{x} \dfrac{dz}{dx} -\dfrac{z}{x^{2}}$$

De ambas ecuaciones tenemos que

$$\dfrac{d}{dx} \left( \dfrac{z}{x} \right) = \dfrac{1}{x}$$

Ahora podemos integrar ambos lados de la ecuación con respecto a $x > 0$.

\begin{align*}
\int \dfrac{d}{dx} \left( \dfrac{z}{x} \right) dx &= \int \dfrac{1}{x} dx \\
\dfrac{z}{x} &= \ln (x) + c_{1} \\
z(x) &= x \ln (x) + xc_{1}
\end{align*}

Hemos resuelto la ecuación para la variable $z$, regresemos a la variable original para resolver la nueva ecuación de primer orden.

$$\dfrac{dy}{dx} = x \ln(x) + xc_{1} \label{6} \tag{6}$$

Esta ecuación ahora puede ser resuelta por separación de variables en su versión simple de integración directa, integremos ambos lados de la ecuación con respecto a $x$,

\begin{align*}
\int \dfrac{dy}{dx} dx &= \int x \ln(x) dx + \int xc_{1} dx \\
y(x) &= \int x \ln(x) dx + c_{1} \dfrac{x^{2}}{2}
\end{align*}

Hay que resolver la integral $\int{x \ln(x) dx}$, para ello tomemos $u(x) = \ln(x)$ y $\dfrac{dv}{dx} = x$, así mismo, $\dfrac{du}{dx} = \dfrac{1}{x}$ y $v(x) = \dfrac{x^{2}}{2}$. Entonces

\begin{align*}
\int{x \ln(x) dx} &= \dfrac{x^{2}}{2} \ln(x) -\int{\dfrac{x}{2} dx} \\
&= \dfrac{x^{2}}{2} \ln(x) -\dfrac{x^{2}}{4} + c_{2}
\end{align*}

Sustituyendo en la función $y(x)$.

$$y(x) = \dfrac{x^{2}}{2} \ln(x) -\dfrac{x^{2}}{4} + c_{1} \dfrac{x^{2}}{2} + c_{2}$$

Por lo tanto, la solución general a la ecuación diferencial $x \dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} = x$ es

$$y(x) = \dfrac{x^{2}}{2} \left( \ln(x) -\dfrac{1}{2} \right) + c_{1} \dfrac{x^{2}}{2} + c_{2} \label{7} \tag{7}$$

Verifica por tu cuenta que es la solución general ya que el conjunto $\left\{ y_{1}(x) = \dfrac{x^{2}}{2}, y_{2}(x) = 1 \right\}$ es un conjunto fundamental de soluciones de la ecuación homogénea asociada y $y_{p}(x) = \dfrac{x^{2}}{2} \left( \ln(x) -\dfrac{1}{2} \right)$ es una solución particular de la ecuación no homogénea.

$\square$

Reducción de orden en ecuaciones no lineales

Es posible aplicar un método similar en ecuaciones de segundo orden que pueden ser tanto lineales como NO son lineales, en este caso, a diferencia del caso anterior, la variable dependiente $y$ puede aparecer en la ecuación, sin embargo es necesario que la variable independiente $x$ sea la que no aparezca explícitamente. Este tipo de ecuaciones también pueden reducirse a una ecuación de primer orden pero tomando el siguiente cambio de variable:

$$\dfrac{dy}{dx} = z; \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = z \dfrac{dz}{dy} \label{8} \tag{8}$$

Donde la segunda expresión se deduce de aplicar la regla de la cadena

$$\dfrac{d^{2}y}{dx^{2}} = \dfrac{dz}{dx} = \dfrac{dz}{dy} \dfrac{dy}{dx} = z \dfrac{dz}{dy}$$

Realicemos un ejemplo con una ecuación no lineal.

Ejemplo: Reducir de orden a la ecuación diferencial de segundo orden $\dfrac{d^{2}y}{dx^{2}} -2y \left( \dfrac{dy}{dx}\right)^{3} = 0$ y obtener su solución.

Solución: Es importante notar que es no lineal debido a que la primer derivada es de tercer grado y además esta multiplicada por la función $y$ lo cual no debe ocurrir en el caso lineal.

La ecuación a resolver es $\dfrac{d^{2}y}{dx^{2}} -2y \left( \dfrac{dy}{dx}\right)^{3} = 0$, hacemos el cambio de variable (\ref{8}) y separamos variables

\begin{align*}
z \dfrac{dz}{dy} -2yz^{3} &= 0 \\
\dfrac{dz}{dy} &= 2yz^{2} \\
\dfrac{1}{z^{2}} \dfrac{dz}{dy} &= 2y
\end{align*}

Integramos ambos lados de la ecuación con respecto a $y$

\begin{align*}
\int{\dfrac{1}{z^{2}} \dfrac{dz}{dy} dy} &= \int{2y dy} \\
\int{\dfrac{dz}{z^{2}}} &= 2 \int{y dy} \\
-\dfrac{1}{z} &= y^{2} + c_{1} \\
z &= -\dfrac{1}{y^{2} + c_{1}}
\end{align*}

Regresando a la variable original y separando de nuevo las variables, tenemos

\begin{align*}
\dfrac{dy}{dx} &= -\dfrac{1}{y^{2} + c_{1}} \\
(y^{2} + c_{1}) \dfrac{dy}{dx} &= -1
\end{align*}

Integrando ambos lados de la ecuación con respecto a $x$

\begin{align*}
\int{(y^{2} + c_{1}) \dfrac{dy}{dx} dx} &= -\int{dx} \\
\int{y^{2} dy} + \int{c_{1} dy} &= -\int{dx} \\
\dfrac{y^{3}}{3} + c_{1}y &= -x + c_{2}
\end{align*}

Por lo tanto, la solución implícita a la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} -2y \left( \dfrac{dy}{dx}\right)^{3} = 0$ es

$$\dfrac{y^{3}}{3} + c_{1}y = c_{2} -x$$

$\square$

Realicemos un ejemplo más con una ecuación lineal.

Ejemplo: Encontrar la solución general de la ecuación diferencial $4 \dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} = 0$.

Solución: Como la ecuación no contiene explícitamente a la función $y$ ni a la variable independiente $x$, entonces podemos aplicar cualquier cambio de variable, ya sea (\ref{3}) u (\ref{8}). Vamos a resolverla aplicando ambos casos.

Primero consideremos el cambio de variable (\ref{8}):

\begin{align*}
4z \dfrac{dz}{dy} + z &= 0 \\
4 \dfrac{dz}{dy} &= -1 \\
\dfrac{dz}{dy} &= -\dfrac{1}{4}
\end{align*}

Integramos ambos lados de la ecuación con respecto a $y$

\begin{align*}
\int{\dfrac{dz}{dy} dy} &= -\int{\dfrac{1}{4} dy} \\
\int{dz} &= -\dfrac{1}{4} \int{dy} \\
z &= -\dfrac{1}{4} y + c_{1}
\end{align*}

Regresando a la variable original

\begin{align*}
\dfrac{dy}{dx} &= -\dfrac{1}{4} y + c_{1} \\
\dfrac{dy}{dx} + \dfrac{y}{4} &= c_{1}
\end{align*}

Resolvemos esta ecuación por factor integrante.

$$\mu(x) = e^{\int {P(x)} dx} = e^{\int \frac{1}{4} dx} = e^{\frac{x}{4}} \hspace{1cm} \Rightarrow \hspace{1cm} \mu(x) = e^{\frac{x}{4}}$$

Multiplicamos ambos lados de la ecuación por el factor integrante

\begin{align*}
e^{\frac{x}{4}} \dfrac{dy}{dx} + e^{\frac{x}{4}} \dfrac{y}{4} &= e^{\frac{x}{4}} c_{1} \\
\dfrac{d}{dx}\left( y e^{\frac{x}{4}} \right) &= c_{1} e^{\frac{x}{4}}
\end{align*}

Ahora integramos ambos lados con respecto a $x$

\begin{align*}
\int{\dfrac{d}{dx}\left( y e^{\frac{x}{4}} \right) dx} &= \int{c_{1} e^{\frac{x}{4}} dx} \\
y e^{\frac{x}{4}} &= c_{1} \int{e^{\frac{x}{4}} dx} \\
y e^{\frac{x}{4}} &= c_{1} 4 e^{\frac{x}{4}} + c_{2} \\
y(x) &= c_{2} e^{-\frac{x}{4}} + 4c_{1}
\end{align*}

Renombrando a las constantes concluimos que la solución general a la ecuación diferencial $4 \dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} = 0$ es

$$y(x) = k_{1} e^{-\frac{x}{4}} + k_{2}$$

Resolvamos de nuevo la ecuación pero ahora aplicando el cambio de variable (\ref{3}),

\begin{align*}
4 \dfrac{dz}{dx} + z &= 0 \\
\dfrac{1}{z} \dfrac{dz}{dx} &= -\dfrac{1}{4}
\end{align*}

Integramos ambos lados con respecto a $x$

\begin{align*}
\int{\dfrac{1}{z} \dfrac{dz}{dx} dx} &= -\int{\dfrac{1}{4} dx} \\
\int{\dfrac{dz}{z}} &= -\dfrac{1}{4}\int{dx} \\
\ln|z| &= -\dfrac{x}{4} + c_{1} \\
z &= c_{2}e^{-\frac{x}{4}}
\end{align*}

Con $c_{2} = e^{c_{1}}$. Regresando a la variable original

$$\dfrac{dy}{dx} = c_{2}e^{-\frac{x}{4}}$$

Integramos ambos lados con respecto a $x$

\begin{align*}
\int{\dfrac{dy}{dx} dx} = \int{c_{2}e^{-\frac{x}{4}} dx} \\
\int{dy} = c_{2} \int{e^{-\frac{x}{4}} dx} \\
y = -c_{2}4 e^{-\frac{x}{4}} + c_{3}
\end{align*}

Si renombramos las constantes obtenemos nuevamente que

$$y(x) = k_{1} e^{-\frac{x}{4}} + k_{2}$$

$\square$

Ahora pasemos a un método de reducción de orden en el que previamente debemos conocer una solución. Este método es el que usualmente encontrarás como método de reducción de orden.

Reducción de orden conocida una solución

Es posible reducir una ecuación diferencial lineal homogénea de segundo orden

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x) y = 0 \label{9} \tag{9}$$

a una ecuación diferencial de primer orden siempre que se conozca previamente una solución no trivial $y_{1}(x)$. Recordamos de la entrada anterior que una ecuación de la forma (\ref{9}) tiene como solución general la combinación lineal $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x)$, con $y_{1}$ y $y_{2}$ funciones que forman un conjunto fundamental de soluciones en cierto intervalo $\delta$. Si conocemos $y_{1}$ podremos reducir la ecuación a una de primer orden y resolverla para obtener la solución $y_{2}$ y por tanto obtener la solución general.

Este método también es conocido como método de reducción de orden pues tiene el mismo objetivo que los casos anteriores, reducir de orden a una ecuación diferencial. La idea general del método es la siguiente:

Comenzaremos con el conocimiento previo de una solución no trivial $y_{1}(x)$ de la ecuación homogénea (\ref{9}) definida en un intervalo $\delta$. Lo que buscamos es una segunda solución $y_{2}(x)$ tal que $y_{1}$ y $y_{2}$ formen un conjunto fundamental de soluciones en $\delta$, es decir, que sean soluciones linealmente independientes entre sí. Recordemos que si ambas soluciones son linealmente independientes entonces el cociente $\dfrac{y_{2}}{y_{1}}$ no es contante en $\delta$, es decir, $\dfrac{y_{2}(x)}{y_{1}(x)} = u(x)$ que lo podemos reescribir como $y_{2}(x) = u(x) y_{1}(x)$. Como queremos encontrar $y_{2}$ y previamente conocemos $y_{1}$ entonces debemos determinar la función $u(x)$, dicha función se determina al sustituir $y_{2} = uy_{1}$ en la ecuación diferencial dada, esto reducirá a dicha ecuación a una de primer orden donde la variable dependiente será $u$.

Desarrollemos el método de manera general para encontrar la expresión de $u$ y por tanto de $y_{2}$ y finalmente realicemos un ejemplo.

Método de reducción de orden

Este método se aplica a las ecuaciones diferenciales de la forma

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x) y = 0$$

Si dividimos esta ecuación por $a_{2}(x) \neq 0$ podemos obtener la forma estándar

$$\dfrac{d^{2}y}{dx^{2}} + P(x) \dfrac{dy}{dx} + Q(x)y = 0 \label{10} \tag{10}$$

Con $P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}$ y $Q(x) = \dfrac{a_{0}(x)}{a_{2}(x)}$ ambas continuas en algún intervalo $\delta$. Supongamos además que $y_{1}(x)$ es una solución conocida de (\ref{10}) en $\delta$ y que $y_{1}(x) \neq 0 $ para toda $x \in \delta$. Si se define $y(x) = u(x) y_{1}(x)$, derivando se tiene que

$$\dfrac{dy}{dx} = u \dfrac{dy_{1}}{dx} + y_{1} \dfrac{du}{dx} \label{11} \tag{11}$$

Derivando una segunda ocasión

$$\dfrac{d^{2}y}{dx^{2}} = u \dfrac{d^{2}y_{1}}{dx^{2}} + 2\dfrac{dy_{1}}{dx} \dfrac{du}{dx} + y_{1} \dfrac{d^{2}u}{dx^{2}} \label{12} \tag{12}$$

Sustituyendo (\ref{11}) y (\ref{12}) en la forma estándar (\ref{10}) obtenemos lo siguiente:

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} + P\dfrac{dy}{dx} + Qy &= \left[ u \dfrac{d^{2}y_{1}}{dx^{2}} + 2\dfrac{dy_{1}}{dx} \dfrac{du}{dx} + y_{1} \dfrac{d^{2}u}{dx^{2}} \right] + P \left[ u \dfrac{dy_{1}}{dx} + y_{1} \dfrac{du}{dx} \right] + Q \left[ u y_{1}\right] \\
&= u \left[ \dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Qy_{1} \right] + y_{1} \dfrac{d^{2}u}{dx^{2}} + \left( 2 \dfrac{dy_{1}}{dx} + Py_{1} \right) \dfrac{du}{dx} \\
&= 0
\end{align*}

Como $y_{1}(x)$ es solución sabemos que

$$\dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Qy_{1} = 0$$

Entonces el resultado anterior se reduce a lo siguiente:

$$y_{1} \dfrac{d^{2}u}{dx^{2}} + \left( 2 \dfrac{dy_{1}}{dx} + Py_{1} \right) \dfrac{du}{dx} = 0 \label{13} \tag{13}$$

Consideremos el cambio de variable $w = \dfrac{du}{dx}$ y $\dfrac{dw}{dx} = \dfrac{d^{2}y}{dx^{2}}$, entonces la ecuación (\ref{13}) se puede escribir como

$$y_{1} \dfrac{dw}{dx} + \left( 2 \dfrac{dy_{1}}{dx} + Py_{1} \right) w = 0 \label{14} \tag{14}$$

Esta ecuación es tanto lineal como separable. Separando las variables e integrando, se obtiene

\begin{align*}
\dfrac{1}{w}\dfrac{dw}{dx} + 2\dfrac{1}{y_{1}} \dfrac{dy_{1}}{dx} &= -P \\
\int{\dfrac{dw}{w}} + 2\int{\dfrac{dy_{1}}{y_{1}}} &= -\int{P dx} \\
\ln |w| + 2 \ln|y_{1}| + k &= -\int{P dx} \\
\ln |w y^{2}_{1}| + k &= -\int{P dx} \\
wy^{2}_{1} &= k_{1}e^{-\int{P dx}}
\end{align*}

Despejando a $w$ de la última ecuación, usando $w = \dfrac{du}{dx}$ e integrando nuevamente

\begin{align*}
\dfrac{du}{dx} &= \dfrac{k_{1}e^{-\int{P dx}}}{y^{2}_{1}} \\
\int{du} &= \int{\dfrac{k_{1}e^{-\int{P dx}}}{y^{2}_{1}} dx} \\
u &= k_{1} \int{\dfrac{e^{-\int{P} dx}}{y^{2}_{1}} dx} + k_{2}
\end{align*}

Eligiendo $k_{1} = 1$ y $k_{2} = 0$ obtenemos la expresión para la función $u(x)$,

$$u(x) = \int{\dfrac{e^{-\int{P} dx}}{y^{2}_{1}} dx} \label{15} \tag{15}$$

Si sustituimos en $y(x) = y_{2}(x) = u(x)y_{1}(x)$ obtenemos que la segunda solución a la ecuación diferencial (\ref{10}) es

$$y_{2}(x) = y_{1}(x) \int{\dfrac{e^{-\int{P(x)} dx}}{y^{2}_{1}(x)} dx} \label{16} \tag{16}$$

De tarea moral puedes probar que la función $y_{2}$ satisface la ED y que $y_{1}$ y $y_{2}$ son linealmente independientes en algún intervalo en el que $y_{1}$ no es cero.

Realicemos un ejemplo en el que apliquemos este método.

Ejemplo: Encontrar la solución general a la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} + 16y = 0$ dada la solución no trivial $y_{1}(x) = \cos(4x)$.

Solución: Apliquemos directamente la expresión (\ref{16}) para obtener la solución $y_{2}(x)$.

La ecuación diferencial a resolver es $\dfrac{d^{2}y}{dx^{2}} + 16y = 0$, si la comparamos con la forma estándar (\ref{10}) notamos que $P(x) = 0$ y $Q(x) = 16$. Sustituyendo en $y_{2}(x) = y_{1}(x) \int{\dfrac{e^{-\int{P(x)} dx}}{y^{2}_{1}(x)} dx}$, tenemos

\begin{align*}
y_{2}(x) &= \cos(4x) \int{\dfrac{e^{0}}{\cos^{2}(4x)} dx} \\
&= \cos(4x) \int{\dfrac{1}{\cos^{2}(4x)} dx}
\end{align*}

Para resolver la integral consideramos el cambio de variable $s = 4x$, $ds = 4 dx$

$$\int{\dfrac{1}{\cos^{2}(4x)} dx} = \dfrac{1}{4} \int{\sec^{2}(s) ds}$$

Y sabemos que $\int{\sec^{2}(s) ds} = \tan(s)$, así

$$y_{2}(x) = \cos(4x) \left( \dfrac{1}{4} \tan(4x) + k_{1} \right)$$

Hacemos $k_{1} = 0$

$$y_{2}(x) = \dfrac{\cos(4x)}{4} \left( \dfrac{\sin(4x)}{\cos(4x)} \right) = \dfrac{\sin(4x)}{4}$$

Como la solución general corresponde a la combinación lineal $y(x) = c_{1} y_{1}(x) + c_{2} y_{2}(x)$, en las constantes $c_{1}$ y $c_{2}$ se pueden englobar todas las constantes que pudieran aparecer, por ello es que podemos tomar $k_{1} = 0$ y además podemos evitar la constante $\dfrac{1}{4}$ de $y_{2}$ y considerar que $y_{2}(x) = \sin(4x)$. Veamos que efectivamente satisface la ecuación diferencial.

$$\dfrac{dy_{2}}{dx} = 4 \cos(4x) \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} = -16 \sin(4x)$$

Sustituyendo en la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 16y = -16 \sin(4x) + 16 \sin(4x) = 0$$

Cumple con la ecuación diferencial, lo mismo podemos verificar con la solución dada $y_{1}(x) = \cos(4x)$.

$$\dfrac{dy_{1}}{dx} = -4 \sin(4x) \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{1}}{dx^{2}} = -16 \cos(4x)$$

Sustituyendo en la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 16y = -16 \cos(4x) + 16 \cos(4x) = 0$$

Como ambas soluciones son linealmente independientes, entonces forman un conjunto fundamental de soluciones. Otra forma de verificarlo es mostrando que el Wronskiano es distinto de cero y lo es ya que $W(y_{1}, y_{2}) = 4 \neq 0$.

Por lo tanto, la solución general a la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} + 16y = 0$ corresponde a la combinación lineal

$$y(x) = c_{1} \cos(4x) + c_{2} \sin(4x)$$

$\square$

Con esto concluimos esta entrada sobre un primer método para resolver algunas ecuaciones de segundo orden. En la siguiente entrada continuaremos estudiando un nuevo método.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtén la solución general de las siguientes ecuaciones diferenciales lineales.
  • $x \dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} = 0$
  • $(x-1) \dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} = 0$
  1. Resuelve las siguientes ecuaciones diferenciales no lineales.
  • $(y -1)\dfrac{d^{2}y}{dx^{2}} = \left( \dfrac{dy}{dx} \right)^{2} $
  • $\left( \dfrac{dy}{dx} \right)^{2} -2 \dfrac{d^{2}y}{dx^{2}} = 0$
  1. Dada una solución no trivial de las siguientes ecuaciones diferenciales, hallar la segunda solución tal que ambas formen un conjunto fundamental de soluciones y determina la solución general.
  • $\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 0; \hspace{1cm} y_{1}(x) = e^{2x}$
  • $\dfrac{d^{2}y}{dx^{2}} -25y = 0; \hspace{1cm} y_{1}(x) = e^{5x}$
  1. Demuestra que la función

$$y_{2}(x) = y_{1}(x) \int{\dfrac{e^{-\int{P(x)} dx}}{y^{2}_{1}(x)} dx}$$

Satisface la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + P(x) \dfrac{dy}{dx} + Q(x)y = 0$$

Siempre que $y_{1}(x)$ sea solución a la misma ecuación.

  1. Usando el inciso anterior, demostrar que

$$\left \{ y_{1}(x), y_{1}(x) \int{\dfrac{e^{-\int{P(x)} dx}}{y^{2}_{1}(x)} dx} \right \}$$

es un conjunto fundamental de soluciones de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + P(x) \dfrac{dy}{dx} + Q(x)y = 0$$

Más adelante…

En esta entrada conocimos un método de reducción de orden basado en un cambio de variable para ecuaciones lineales y no lineales de segundo orden que satisfacen algunas condiciones y desarrollamos el método de reducción de orden para ecuaciones diferenciales lineales homogéneas en el caso en el que previamente tenemos conocimiento de una solución no trivial.

En la siguiente entrada estudiaremos otro método para resolver un tipo particular de ecuaciones diferenciales, éstas son las ecuaciones diferenciales lineales homogéneas con coeficientes constantes, de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = 0$$

Con $a, b$ y $c$ constantes.

Entradas relacionadas

Ecuaciones Diferenciales I: Soluciones a ecuaciones diferenciales de orden superior

Introducción

En la entrada anterior comenzamos a estudiar los problemas con valores iniciales (PVI) y problemas con valores en la frontera (PVF), ambos para el caso de las ecuaciones diferenciales lineales de orden superior. Vimos también que si $y_{1}, y_{2}, \cdots, y_{k}$ son $k$ soluciones de una ecuación homogénea de $n$-ésimo orden en un intervalo $\delta$, entonces la combinación lineal $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$, donde las $c_{i}$, $i = 1, 2, \cdots, k$ son constantes, también es solución en el intervalo $\delta$, este resultado es conocido como principio de superposición y nuestro propósito en esta entrada es estudiar las propiedades de todas estas soluciones donde la independencia lineal de las funciones jugará un papel muy importante en la construcción del conjunto fundamental de soluciones y de la solución general.

Es importante tener presente el concepto de conjunto fundamental de soluciones presentado en la entrada anterior. A continuación se muestra de nuevo la definición.

Definición: Cualquier conjunto $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de $n$ soluciones linealmente independientes de una ecuación diferencial lineal homogénea de $n$-ésimo orden en un intervalo $\delta$ es un conjunto fundamental de soluciones en dicho intervalo.

Soluciones a ecuaciones diferenciales lineales de orden superior

Estamos interesados en soluciones linealmente independientes de una ecuación diferencial lineal homogénea de orden superior de la forma

\begin{align}
a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{1} \tag{1}
\end{align}

Al intentar responder la cuestión de si el conjunto de $n$ soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de (\ref{1}) es linealmente independiente podemos apelar directamente a la definición de independencia lineal, sin embargo esta pregunta se puede responder de una forma mecánica usando un determinante llamado el Wronskiano.

Definición: Supongamos que cada una de las funciones $f_{1}(x), f_{2}(x), \cdots, f_{n}(x)$ tiene al menos $n -1$ derivadas. El determinante

\begin{align}
W(f_{1}, f_{2}, \cdots, f_{n}) = \begin{vmatrix}
f_{1} & f_{2} & \cdots & f_{n} \\
f_{1}^{\prime} & f_{2}^{\prime} &\cdots &f_{n}^{\prime} \\
\vdots &\vdots & & \vdots \\
f_{1}^{(n -1)} & f_{2}^{(n -1)} & \cdots & f_{n}^{(n -1)}
\end{vmatrix} \label{2} \tag{2}
\end{align}

donde las primas denotan derivadas, se llama el Wronskiano de las funciones.

El Wronskiano es una herramienta que podemos utilizar para determinar si el conjunto de soluciones a la ecuación (\ref{1}) es un conjunto linealmente independiente y la forma de hacerlo es a través del siguiente teorema conocido como criterio para soluciones linealmente independientes.

Teorema: Sean $y_{1}, y_{2}, \cdots, y_{n}$, $n$ soluciones de la ecuación diferencial lineal homogénea de $n$-ésimo orden (\ref{1}) en el intervalo $\delta$. El conjunto de soluciones es linealmente independiente en $\delta$ si, y solo si $W(y_{1}, y_{2}, \cdots, y_{n}) \neq 0$ para toda $x$ en el intervalo $\delta$.

Este teorema nos dice que sólo basta mostrar que el Wronskiano es distinto de cero para garantizar que el conjunto de soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ es linealmente independiente y por tanto formará un conjunto fundamental de soluciones.

Al conjunto de soluciones linealmente independiente $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de la ecuación (\ref{1}) se le denomina fundamental porque, así como cualquier vector en $\mathbb{R}^{3}$ se puede expresar como una combinación lineal de los vectores linealmente independientes $\hat{i}, \hat{j}$ y $\hat{k}$, cualquier solución a una ecuación de la forma (\ref{1}) se puede expresar como una combinación lineal de las $n$ soluciones del conjunto fundamental, podemos decir que las soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ son los bloques básicos para la solución general de la ecuación.

En el siguiente teorema se enuncia la forma general de la solución a la ecuación (\ref{1}).

Teorema: Sea $\{y_{1},y_{2}, \cdots, y_{n}\}$ un conjunto fundamental de soluciones de la ecuación diferencial lineal homogénea de $n$-ésimo orden (\ref{1}) en el intervalo $\delta$. Entonces la solución general de la ecuación en el intervalo es

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{3} \tag{3}$$

donde $c_{i} , i = 1,2, \cdots, n$ son constantes arbitrarias.

Aterricemos estas ideas generales al caso de las ecuaciones diferenciales lineales homogéneas de segundo orden.

Ecuaciones lineales homogéneas de segundo orden

Una ecuación diferencial lineal homogénea de segundo orden es de la forma

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{4} \tag{4}$$

Sobre esta ecuación desarrollaremos la siguiente teoría. Primero definamos el Wronskiano para el caso $n = 2$.

Definición: Sean $y_{1}(x)$ y $y_{2}(x)$ soluciones de la ecuación (\ref{4}), el Wronskiano de las funciones es

\begin{align}
W(y_{1}, y_{2}) = \begin{vmatrix}
y_{1} & y_{2} \\
\dfrac{dy_{1}}{dx} & \dfrac{dy_{2}}{dx} \\
\end{vmatrix} = y_{1}\dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} \label{5} \tag{5}
\end{align}

Ahora que conocemos la forma del Wronskiano para $n = 2$ demostremos el teorema de la solución general para el caso $n = 2$.

Teorema: Sean $y_{1}(x)$ y $y_{2}(x)$ soluciones de la ecuación (\ref{4}) en el intervalo $\delta$ y supongamos que $W(y_{1}, y_{2}) \neq 0$ para toda $x \in \delta$, entonces $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x)$ es la solución general de la ecuación diferencial (\ref{4}).

Demostración: Sea $y(x)$ una solución a la ecuación diferencial (\ref{4}) en el intervalo $\delta$ y sea $x_{0} \in \delta$ tal que $y(x_{0}) = \alpha$ y $\dfrac{dy}{dx}(x_{0}) = \beta$ con $\alpha$ y $\beta$ constantes. Supongamos que existen $c_{1}$ y $c_{2}$ constantes tales que

$$\alpha = c_{1}y_{1}(x_{0}) + c_{2}y_{2}(x_{0}) \label{6} \tag{6}$$

y

$$\beta = c_{1} \dfrac{dy_{1}}{dx}(x_{0}) + c_{2} \dfrac{dy_{2}}{dx}(x_{0}) \label{7} \tag{7}$$

esto debido a que por hipótesis $y_{1}(x)$ y $y_{2}(x)$ son soluciones a la ecuación diferencial y por tanto la combinación lineal también lo será. Aplicando el teorema de existencia y unicidad obtenemos que la solución $y(x)$ tiene que ser de la forma $y(x) = c_{1}y_{1} + c_{2}y_{2}$ por lo que nuestro problema se reduce a demostrar que las constantes $c_{1}$ y $c_{2}$ existen.

Si multiplicamos a la ecuación (\ref{6}) por $\dfrac{dy_{2}}{dx}(x_{0})$ y a la ecuación (\ref{7}) por $y_{2}(x_{0})$ obtenemos lo siguiente, respectivamente:

$$\alpha \dfrac{dy_{2}}{dx}(x_{0}) = c_{1}y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) + c_{2}y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \label{8} \tag{8}$$

y

$$\beta y_{2}(x_{0}) = c_{1} y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) + c_{2} y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \label{9} \tag{9}$$

Restémosle a la ecuación (\ref{8}) la ecuación (\ref{9}).

\begin{align*}
\alpha \dfrac{dy_{2}}{dx}(x_{0}) -\beta y_{2}(x_{0}) &= c_{1} y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -c_{1} y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \\
&= c_{1} \left( y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \right) \label{10} \tag{10}
\end{align*}

Sabemos que el Wronskiano, en $x = x_{0}$, está definido como

$$W(y_{1}(x_{0}), y_{2}(x_{0})) = y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0})$$

Por comodidad denotaremos a $W(y_{1}(x_{0}), y_{2}(x_{0}))$ como $W(x_{0})$. Entonces la ecuación (\ref{10}) se puede escribir de la siguiente manera:

$$\alpha \dfrac{dy_{2}}{dx}(x_{0}) -\beta y_{2}(x_{0}) = c_{1} W(x_{0})$$

Debido a que por hipótesis $W(y_{1}, y_{2}) \neq 0$ para toda $x \in \delta$, en particular lo es en $x = x_{0}$, por tanto podemos despejar a la constante $c_{1}$ y así obtener un valor para dicha constante lo que muestra su existencia.

Para obtener la expresión de $c_{2}$ seguimos el mismo camino, multiplicamos a la ecuación (\ref{6}) por $\dfrac{dy_{1}}{dx}(x_{0})$ y a la ecuación (\ref{7}) por $y_{1}(x_{0})$ y repetimos el mismo procedimiento demostrando que existe un valor para la constante $c_{2}$.

Como hemos encontrado valores para $c_{1}$ y $c_{2}$ entonces existen y por lo tanto la solución general a la ecuación (\ref{4}) es $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x)$.

$\square$

Ya hemos definido lo que es el conjunto fundamental de soluciones de una ecuación diferencial de orden $n$, para el caso $n = 2$ lo podemos definir de la siguiente manera:

Definición: Decimos que $\{ y_{1}(x), y_{2}(x) \}$ es un conjunto fundamental de soluciones para la ecuación (\ref{4}) si cualquier solución a la ED puede escribirse como combinación lineal de $y_{1}$ y $y_{2}$, o lo que es equivalente, que $y_{1}$ y $y_{2}$ sean linealmente independientes en $\delta$.

Así, si encontramos un conjunto fundamental de soluciones $\{ y_{1}(x), y_{2}(x) \}$, entonces $W(y_{1}, y_{2}) \neq 0$ para toda $x \in \delta$ y por tanto $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x)$ será la solución general de la ecuación diferencial (\ref{4}).

Del criterio para soluciones linealmente independientes se puede hacer notar que cuando $y_{1}, y_{2}, \cdots, y_{n}$ son $n$ soluciones de la ecuación (\ref{1}) en un intervalo $\delta$, el Wronskiano $W(y_{1}, y_{2}, \cdots, y_{n})$ es siempre igual a cero o nunca es cero en todo $\delta$. Vamos a demostrar este hecho para el caso $n = 2$.

Teorema: Sean $a_{2}(x) \neq 0$, $a_{1}(x)$ y $a_{0}(x)$ funciones continuas en $\delta$ de la ecuación (\ref{4}) y sean $y_{1}(x)$ y $y_{2}(x)$ soluciones a la misma ecuación en $\delta$. Entonces $W(y_{1}, y_{2}) = 0$ o $W(y_{1}, y_{2}) \neq 0$ para todo $x \in \delta$.

Demostración: Como $y_{1}(x)$ y $y_{2}(x)$ son soluciones de la ecuación (\ref{4}), entonces

$$a_{2}(x) \dfrac{d^{2}y_{1}}{dx^{2}} + a_{1}(x) \dfrac{dy_{1}}{dx} + a_{0}(x)y_{1} = 0 \label{11} \tag{11}$$

y

$$a_{2}(x) \dfrac{d^{2}y_{2}}{dx^{2}} + a_{1}(x) \dfrac{dy_{2}}{dx} + a_{0}(x)y_{2} = 0 \label{12} \tag{12}$$

Si multiplicamos a la ecuación (\ref{11}) por $y_{2}$ y a la ecuación (\ref{12}) por $y_{1}$ obtenemos lo siguiente, respectivamente.

$$y_{2}a_{2}(x) \dfrac{d^{2}y_{1}}{dx^{2}} + y_{2} a_{1}(x) \dfrac{dy_{1}}{dx} + y_{2}a_{0}(x)y_{1} = 0 \label{13} \tag{13}$$

y

$$y_{1}a_{2}(x) \dfrac{d^{2}y_{2}}{dx^{2}} + y_{1}a_{1}(x) \dfrac{dy_{2}}{dx} + y_{1}a_{0}(x)y_{2} = 0 \label{14} \tag{14}$$

A la ecuación (\ref{14}) vamos a restarle la ecuación (\ref{13}):

$$a_{2}(x) \left( y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}} \right) + a_{1}(x) \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}\right) = 0 \label{15} \tag{15}$$

Sabemos que $W(y_{1}, y_{2}) = y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}$ y notemos lo siguiente:

\begin{align*}
\dfrac{dW}{dx} &= \dfrac{d}{dx} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}\right) \\
&= \dfrac{dy_{1}}{dx} \dfrac{dy_{2}}{dx} + y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -\dfrac{dy_{2}}{dx} \dfrac{dy_{1}}{dx} -y_{2} \dfrac{d^{2}y_{1}}{dx^{2}} \\
&= y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}}
\end{align*}

Es decir,

$$\dfrac{dW}{dx} = y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}} \label{16} \tag{16}$$

En términos del Wronskiano la ecuación (\ref{15}) se puede escribir como

$$a_{2}(x) \dfrac{dW}{dx} + a_{1}(x) W = 0 \label{17} \tag{17}$$

Como $a_{2}(x) \neq 0$ para toda $x \in \delta$, entonces podemos definir la función $P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}$ tal que la ecuación (\ref{17}) se pueda escribir como

$$\dfrac{dW}{dx} + P(x) W = 0 \label{18} \tag{18}$$

La ecuación (\ref{18}) corresponde a una ecuación diferencial lineal homogénea de primer orden y ya sabemos que la solución es de la forma $W(x) = ke^{-\int{P(x)} dx}$, de manera que hay dos posibilidades:

  • Si $k = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} W(x) = 0, \hspace{0.5cm} \forall x \in \delta$
  • Si $k \neq 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} W(x) \neq 0, \hspace{0.5cm} \forall x \in \delta$

$\square$

El criterio para soluciones linealmente independientes nos garantiza que si el Wronskiano es distinto de cero entonces el conjunto de soluciones es linealmente independiente en $\delta$, lo opuesto es cierto bajo ciertas condiciones, si el Wronskiano es igual a cero entonces el conjunto de soluciones es linealmente dependiente. Demostremos este hecho.

Teorema: Sean $a_{2}(x) \neq 0$, $a_{1}(x)$ y $a_{0}(x)$ funciones continuas en $\delta$ de la ecuación (\ref{4}) y sean $y_{1}$ y $y_{2} \neq 0$ soluciones a la misma ecuación en $\delta$. Supongamos que $W(y_{1}(x), y_{2}(x)) = 0$, $\forall x \in \delta$. Entonces $y_{1}(x)$ y $y_{2}(x)$ son linealmente dependientes.

Demostración: Por hipótesis $W(y_{1}(x), y_{2}(x)) = 0$, $\forall x \in \delta$, es decir

$$y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} = 0 \label{19} \tag{19}$$

Consideremos el siguiente resultado:

$$\dfrac{d}{dx} \left( -\dfrac{y_{1}}{y_{2}} \right) = \dfrac{1}{y^{2}_{2}} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} \right) \label{20} \tag{20}$$

Donde hemos considerado la hipótesis $y_{2} \neq 0$. Si usamos la hipótesis (\ref{19}) obtenemos que $\dfrac{d}{dx} \left( -\dfrac{y_{1}}{y_{2}} \right) = 0$, $\forall x \in \delta$, integrando esta ecuación obtenemos que $-\dfrac{y_{1}}{y_{2}} = -k$, o bien, $y_{1}(x) = k y_{2}(x)$, con $k$ una constante. Esto demuestra que $y_{1}$ y $y_{2}$ son linealmente dependientes.

$\square$

Hay que tener muy presentes las hipótesis de este teorema pues es posible que el Wronskiano sea cero aún cuando las funciones consideradas en un cierto intervalo sean linealmente independientes en él.

Como consecuencia del teorema anterior podemos establecer el criterio para soluciones linealmente independientes en el caso $n = 2$.

Corolario: Dos soluciones $y_{1}(x)$ y $y_{2}(x)$ de la ecuación diferencial (\ref{4}) son linealmente independientes en $\delta$ si, y sólo si $W(y_{1}(x), y_{2}(x)) \neq 0$, $\forall x \in \delta$.

Realicemos un ejemplo.

Ejemplo: En la entrada anterior de tarea moral tenías que verificar que las funciones $y_{1}(x) = e^{-3x}$ y $y_{2}(x) = e^{4x}$ forman un conjunto fundamental de soluciones de la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -12y = 0$ en $\delta = (-\infty, \infty)$. Vamos a demostrar esto mismo usando los teoremas vistos anteriormente.

Solución: Consideremos las soluciones $y_{1}(x) = e^{-3x}$ y $y_{2}(x) = e^{4x}$ y sus respectivas derivadas $\dfrac{dy_{1}}{dx} = -3e^{-3x}$ y $\dfrac{dy_{2}}{dx} = 4e^{4x}$. Calculemos el Wronskiano.

\begin{align*}
W(y_{1}, y_{2}) = \begin{vmatrix}
e^{-3x} & e^{4x} \\
-3e^{-3x} & 4e^{4x} \\
\end{vmatrix} = e^{-3x}(4e^{4x}) -e^{4x}(-3e^{-3x}) = 7e^{-x} \neq 0
\end{align*}

Como $W(y_{1}, y_{2}) = 7 e^{-x} \neq 0$, entonces $\{ y_{1}(x) = e^{-3x}, y_{2}(x) = e^{4x}\}$ forma un conjunto fundamental de soluciones y la solución general está dada por $y(x) = c_{1}e^{-3x} + c_{2}e^{4x}$.

$\square$

Con esto concluimos el estudio de algunas propiedades importantes de las soluciones a la ecuación diferencial lineal homogénea de orden superior, terminemos esta entrada con el estudio del caso no homogéneo.

Ecuaciones NO homogéneas

La ecuación diferencial lineal no homogénea de $n$-ésimo orden es

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{21} \tag{21}$$

Nuestro objetivo es obtener la forma general de la solución a la ecuación no homogénea (\ref{21}) y estudiar algunas propiedades de las soluciones.

Definición: Una función $y_{p}(x)$ que es libre de parámetros arbitrarios y que satisface la ecuación diferencial lineal no homogénea de $n$-ésimo orden (\ref{21}) se dice que es una solución particular o integral particular de la ecuación.

Si recordamos al operador polinomial

$$\mathcal{L} = a_{n}(x)D^{n} + a_{n -1}(x)D^{n -1} + \cdots + a_{1}(x)D + a_{0}(x)$$

la definición anterior implica que $\mathcal{L}\{y_{p}\} = g(x)$. Veamos el siguiente resultado.

Teorema: Sean $y_{1}, y_{2}, \cdots, y_{n}$ soluciones a la ecuación diferencial homogénea (\ref{1}) en el intervalo $\delta$ y sea $y_{p}$ la solución particular de la ecuación no homogénea (\ref{21}) en $\delta$. Entonces la combinación lineal

$$y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p} \label{22} \tag{22}$$

es solución a la ecuación no homogénea (\ref{21}), en $\delta$.

Demostración: Sea $y(x)$ la combinación lineal $y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$, si aplicamos el operador polinomial, tenemos

\begin{align*}
\mathcal{L} \{y(x)\} &= \mathcal{L} \{c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}\} \\
&= c_{1}\mathcal{L}\{y_{1}\} + c_{2}\mathcal{L}\{y_{2}\} + \cdots + c_{n}\mathcal{L}\{y_{n}\} + \mathcal{L}\{y_{p}\} \\
&= 0 + g(x) \\
&= g(x)
\end{align*}

Ya que $\mathcal{L}\{y_{i}\} = 0$ para cada $i = 1, 2, \cdots, n$ por ser cada $y_{i}$ solución a la ecuación homogénea, mientras que $\mathcal{L}\{y_{p}\} = g(x)$ por ser solución a la ecuación no homogénea. Entonces, como $\mathcal{L} \{y(x)\} = g(x)$, concluimos que la combinación lineal $y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$ es solución a la ecuación diferencial no homogénea.

$\square$

¿Y qué ocurre si las soluciones $y_{1}, y_{2}, \cdots, y_{n}$ forman un conjunto fundamental de soluciones?. La respuesta es que la combinación lineal $y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$ sería la solución general a la ecuación diferencial no homogénea (\ref{21}). Demostremos este resultado.

Teorema: Sea $y_{p}(x)$ cualquier solución particular de la ecuación diferencial lineal no homogénea de $n$-ésimo orden (\ref{21}) en el intervalo $\delta$, y sea $\{ y_{1}, y_{2}, \cdots, y_{n} \}$ un conjunto fundamental de soluciones de la ecuación diferencial homogénea asociada (\ref{1}) en $\delta$. Entonces la solución general de la ecuación no homogénea es

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) + y_{p}(x) \label{23} \tag{23}$$

en el intervalo $\delta$ y donde $c_{i}, i = 1, 2, \cdots, n$ son constantes arbitrarias.

Demostración: Sea $y(x)$ la solución general de la ecuación no homogénea (\ref{21}) y sea $y_{p}(x)$ una solución particular de la misma ecuación, ambas definidas en el intervalo $\delta$, de manera que $\mathcal{L} \{ y(x)\} = \mathcal{L} \{ y_{p}(x)\} = g(x)$, con $\mathcal{L}$ el operador polinomial. Nuestro objetivo es encontrar la forma explícita de $y(x)$.

Definamos la función $h(x) = y(x) -y_{p}(x)$ y notemos lo siguiente:

\begin{align*}
\mathcal{L} \{ h(x) \} &= \mathcal{L} \{ y(x) -y_{p}(x) \} \\
&= \mathcal{L} \{ y(x) \} -\mathcal{L} \{ y_{p}(x) \} \\
&= g(x) -g(x) \\
&= 0
\end{align*}

Esto es, $\mathcal{L} \{ h(x) \} = 0$, lo que significa que la función $h(x)$ es solución a la ecuación homogénea (\ref{1}) y por el teorema de la solución general de ecuaciones homogéneas podemos establecer que la función $h(x)$ tiene la siguiente forma:

$$h(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{24} \tag{24}$$

Con $\{ y_{1}, y_{2}, \cdots, y_{n} \}$ un conjunto fundamental de soluciones. Sustituyendo (\ref{24}) en $h(x) = y(x) -y_{p}(x)$ y despejando a la solución general $y(x)$ obtenemos finalmente que

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) + y_{p}(x)$$

que es lo que queríamos demostrar.

$\square$

Recuerda, la diferencia entre las soluciones $(\ref{22})$ y $(\ref{23})$ es que en $(\ref{23})$ las $y_{i}, i = 1, 2, \cdots, n$ forman un conjunto fundamental de soluciones, es decir, son linealmente independientes entre sí, mientras que en (\ref{22}) no necesariamente forman una conjunto fundamental y sin embargo, también son solución a la ecuación (\ref{21}).

En el caso de las ecuaciones no homogéneas vemos que la solución general corresponde a la suma de la solución general de la ecuación homogénea asociada más una solución particular de la ecuación no homogénea, en este caso no homogéneo la solución general de la ecuación homogénea tiene un nombre especial.

Definición: La combinación lineal $y_{c}(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x)$, que es la solución general de la ecuación diferencial lineal homogénea de $n$-ésimo orden (\ref{1}), se denomina función complementaria para la ecuación no homogénea (\ref{21}).

Por tanto, resolver una ecuación lineal no homogénea implica resolver primero la ecuación homogénea asociada para obtener la función complementaria $y_{c}(x)$ y luego se encuentra una solución particular $y_{p}(x)$ a la ecuación no homogénea para finalmente sumarlas $y(x) = y_{c}(x) + y_{p}(x)$.

Realicemos un ejemplo.

Ejemplo: Probar que la función $y(x) = c_{1} e^{2x} + c_{2}x e^{2x} + x^{2} e^{2x} + x -2$, definida en el intervalo $\delta = (-\infty, \infty)$, es la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2 e^{2x} + 4x -12$$

Solución: Primero probemos que las funciones $y_{1} = e^{2x}$ y $y_{2} = x e^{2x}$ forman un conjunto fundamental de soluciones de la ecuación homogénea asociada

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 0$$

Para ello veamos que $y_{1}$ y $y_{2}$ son soluciones de la ecuación homogénea y que son linealmente independientes, es decir, que $W(y_{1}, y_{2}) \neq 0$. Calculemos las derivadas.

$$y_{1} = e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{dy_{1}}{dx} = 2 e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{1}}{dx^{2}} = 4 e^{2x}$$

$$y_{2} = xe^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{dy_{2}}{dx} = e^{2x} + 2x e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} = 4 e^{2x} + 4x e^{2x}$$

Si sustituyes los valores correspondientes en la ecuación homogénea notaras que se satisface la ecuación, es decir, se cumple que

$$\dfrac{d^{2}y_{1}}{dx^{2}} -4 \dfrac{dy_{1}}{dx} + 4y_{1} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} -4 \dfrac{dy_{2}}{dx} + 4y_{2} = 0$$

Por lo tanto, ambas son soluciones de la ecuación homogénea. Calculemos el Wronskiano.

\begin{align*}
W(y_{1}, y_{2}) = \begin{vmatrix}
e^{2x} & xe^{2x} \\
2 e^{2x} & e^{2x} + 2x e^{2x} \\
\end{vmatrix} = e^{2x}(e^{2x} + 2x e^{2x}) -xe^{2x}(2e^{2x}) = e^{4x} \neq 0
\end{align*}

Como $W(y_{1}, y_{2}) \neq 0$, $\forall x \in \delta$, por los teoremas vistos anteriormente concluimos que $\{y_{1} = e^{2x}, y_{2} = x e^{2x} \}$ forma un conjunto fundamental de soluciones de la ecuación homogénea asociada y que la solución general a dicha ecuación es $y_{c}(x) = c_{1} e^{2x} + c_{2}x e^{2x}$, donde el subíndice $c$ indica que es la función complementaria.

Ahora verifiquemos que la función $y_{p}(x) = x^{2} e^{2x} + x -2$ es una solución particular de la ecuación no homogénea. Calculemos la primera y segunda derivada.

$$\dfrac{dy_{p}}{dx} = 2x e^{2x} + 2x^{2} e^{2x} + 1$$

$$\dfrac{d^{2}y_{p}}{dx^{2}} = 2 e^{2x} + 8x e^{2x} + 4x^{2} e^{2x}$$

Sustituyendo en la ecuación diferencial tenemos

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y &= (2 e^{2x} + 8x e^{2x} + 4x^{2} e^{2x}) -4(2x e^{2x} + 2x^{2} e^{2x} + 1) +4(x^{2} e^{2x} + x -2) \\
&= 2e^{2x} + (8x e^{2x} -8x e^{2x}) + (4x^{2} e^{2x} -8x^{2} e^{2x} + 4x^{2} e^{2x}) + 4x -12 \\
&= 2e^{2x} +4x -12
\end{align*}

Esto es, $\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} +4x -12$, que justo corresponde a la ecuación diferencial no homogénea, por lo tanto, efectivamente $y_{p}$ es una solución particular.

Como $\{y_{1} = e^{2x}, y_{2} = x e^{2x} \}$ es un conjunto fundamental de soluciones de la ecuación homogénea asociada y $y_{p}(x) = x^{2} e^{2x} + x -2$ es una solución particular de la ecuación no homogénea, por el teorema de la solución general de ecuaciones no homogéneas concluimos que la función $y(x) = c_{1} e^{2x} + c_{2}x e^{2x} + x^{2} e^{2x} + x -2$ es la solución general a la ecuación no homogénea.

$\square$

Hay algo muy curioso que ocurre en el ejemplo anterior. Mostramos que la función $y_{p}(x) = x^{2} e^{2x} + x -2$ es una solución particular de la ecuación no homogénea

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} +4x -12 = g(x)$$

Sin embargo, si haces los cálculos correspondientes notarás que la función $y_{p1}(x) = x^{2} e^{2x}$ es una solución particular de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} = g_{1}(x)$$

mientras que la función $y_{p2}(x) = x -2$ es una solución particular de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 4x -12 = g_{2}(x)$$

Así, si superponemos las soluciones particulares $y_{p}(x) = y_{p1}(x) + y_{p2}(x)$ obtenemos en la ecuación diferencial la superposición de la funciones $g(x) = g_{1}(x) + g_{2}(x)$.

Lo anterior es efecto del principio de superposición para ecuaciones no homogéneas.

Teorema: Sean $y_{p1}, y_{p2}, \cdots, y_{pk}$, $k$ soluciones particulares de la ecuación diferencial lineal no homogénea de $n$-ésimo orden (\ref{21}) en un intervalo $\delta$, que corresponde, a su vez, a $k$ funciones diferentes $g_{1}, g_{2}, \cdots, g_{k}$. Es decir, se supone que $y_{pi}$ denota una solución particular de la ecuación diferencial correspondiente

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g_{i}(x) \label{25} \tag{25}$$

donde $i = 1, 2, , \cdots, k$. Entonces,

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x) \label{26} \tag{26}$$

es una solución particular de

$$a_{n} \dfrac{d^{n}y}{dx^{n}} + a_{n-1} \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1} \dfrac{dy}{dx} + a_{0}y = g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x) \label{27} \tag{27}$$

Demostración: Sea $\mathcal{L}$ el operador polinomial y sean $y_{pi}(x)$, $i = 1, 2, \cdots, k$, soluciones particulares de las ecuaciones no homogéneas $\mathcal{L} \{ y_{pi}(x) \} = g_{i}$, $i = 1, 2, \cdots, k$ respectivamente. Vamos a definir la función

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x)$$

Nuestro objetivo es demostrar que la función $y_{p}(x)$ es una solución particular de la ecuación (\ref{27}), es decir, que se cumple que

$$\mathcal{L} \{ y_{p}(x) \} = g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x)$$

En efecto

\begin{align*}
\mathcal{L} \{ y_{p}(x)\} &= \mathcal{L} \{ y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x) \} \\
&= \mathcal{L} \{ y_{p1}(x) \} + \mathcal{L} \{ y_{p2}(x) \} + \cdots + \mathcal{L} \{ y_{pk}(x) \} \\
&= g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x)
\end{align*}

Con esto queda probado que $y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x)$ es solución de (\ref{27}).

$\square$

Corolario: Si la soluciones $y_{pi}(x)$ son soluciones particulares de (\ref{25}) para $i = 1, 2, \cdots, k$, entonces la combinación lineal

$$y_{p}(x) = c_{1}y_{p1}(x) + c_{2}y_{p2}(x) + \cdots + c_{k}y_{pk}(x) \label{28} \tag{28}$$

donde las $c_{i}$ son constantes, es también una solución particular de la ecuación diferencial

$$a_{n} \dfrac{d^{n}y}{dx^{n}} + a_{n-1} \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1} \dfrac{dy}{dx} + a_{0}y = c_{1}g_{1} + c_{2}g_{2} + \cdots + c_{k}g_{k} \label{29} \tag{29}$$

Realicemos un último ejemplo.

Ejemplo: Probar que

  • $y_{p1}(x) = -4x^{2} \hspace{0.5cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8$,
  • $y_{p2}(x) = e^{2x} \hspace{0.9cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = 2e^{2x}$,
  • $y_{p3}(x) = xe^{x} \hspace{0.9cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = 2x e^{x} -e^{x}$.

y probar que la superposición $y = y_{p1} + y_{p2} + y_{p3} = -4x^{2} + e^{2x} + xe^{x}$ es una solución de

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8 + 2e^{2x} + 2xe^{x} -e^{x}$$

Solución: Sean $g_{1}(x) = -16x^{2} + 24x -8$, $g_{2}(x) = 2e^{2x}$ y $g_{3}(x) = 2x e^{x} -e^{x}$, de tarea moral muestra que efectivamente

$$\dfrac{d^{2}y_{p1}}{dx^{2}} -3\dfrac{dy_{p1}}{dx} + 4y_{p1} = g_{1}(x)$$

$$\dfrac{d^{2}y_{p2}}{dx^{2}} -3\dfrac{dy_{p2}}{dx} + 4y_{p2} = g_{2}(x)$$

$$\dfrac{d^{2}y_{p3}}{dx^{2}} -3\dfrac{dy_{p3}}{dx} + 4y_{p3} = g_{3}(x)$$

Por el principio de superposición para ecuaciones no homogéneas sabemos que la función $y(x) = y_{p1}(x) + y_{p2}(x) + y_{p3}(x)$ es solución de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = g_{1}(x) + g_{2}(x) + g_{3}(x)$$

Por lo tanto, la función $y(x) = -4x^{2} + e^{2x} + xe^{x}$ es solución a la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8 + 2e^{2x} + 2xe^{x} -e^{x}$$

Si gustas puedes calcular la primera y segunda derivada de $y(x)$ y verificar la ecuación anterior para asegurarte del resultado.

$\square$

Con esto concluimos nuestro estudio sobre algunas propiedades de las ecuaciones diferenciales lineales de orden superior. En la siguiente entrada conoceremos un primer método para resolver ecuaciones diferenciales de segundo orden.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Dadas las soluciones a las siguientes ecuaciones diferenciales lineales homogéneas de orden superior en el intervalo dado, calcular el Wronskiano para determinar si es un conjunto fundamental de soluciones y en caso de serlo dar la solución general.
  • $x^{3} \dfrac{d^{3}y}{dx^{3}} + 6x^{2} \dfrac{d^{2}y}{dx^{2}} + 4x \dfrac{dy}{dx} -4y = 0$, con soluciones

$\hspace{1cm} y_{1} = x, \hspace{0.6cm} y_{2} = \dfrac{1}{x^{2}}, \hspace{0.6cm} y_{3} = \dfrac{1}{x^{2}} \ln(x); \hspace{1cm} \delta = (0, \infty)$.

  • $\dfrac{d^{4}y}{dx^{4}} + \dfrac{d^{2}y}{dx^{2}} = 0$, con soluciones

$\hspace{1cm} y_{1} = 1, \hspace{0.6cm} y_{2} = x, \hspace{0.6cm} y_{3} = \cos(x), \hspace{0.6cm} y_{4} = \sin(x); \hspace{1cm} \delta = (\infty, \infty)$.

  1. Dadas las soluciones a las siguientes ecuaciones diferenciales lineales NO homogéneas de orden superior en el intervalo dado, probar que se trata de la solución general a la ecuación.
  • $\dfrac{d^{2}y}{dx^{2}} -7 \dfrac{dy}{dx} + 10y = 24 e^{x}$, con solución

$\hspace{1cm} y(x) = c_{1} e^{2x} + c_{2} e^{5x} + 6 e^{x}; \hspace{1cm} \delta = (\infty, \infty)$.

  • $2x^{2} \dfrac{d^{2}y}{dx^{2}} + 5x \dfrac{dy}{dx} + y = x^{2} -x$, con solución

$\hspace{1cm} y(x) = c_{1} \dfrac{1}{\sqrt{x}} + c_{2} \dfrac{1}{x} + \dfrac{1}{15}x^{2} -\dfrac{1}{6}x; \hspace{1cm} \delta = (0, \infty)$.

  1. Comprobar que las funciones $y_{p1}(x) = 3 e^{2x}$ y $y_{p2}(x) = x^{2} + 3x$ son, respectivamente, soluciones particulares de

$$\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = -9 e^{2x} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = 5x^{2} + 3x -16$$

  1. Usando el ejercicio anterior, encontrar la solución particular de la ecuación

$\hspace{1cm}\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = 5x^{2} + 3x -16 -9 e^{2x}$

$\hspace{1cm}$ y

$\hspace{1cm} \dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = -10x^{2} -6x +32 + e^{2x}$.

Más adelante…

Ahora que ya conocemos algunas propiedades de las ecuaciones diferenciales de orden superior y sus soluciones, en particular de las lineales de segundo orden, es momento de comenzar a estudiar los distintos métodos de resolución de estas ecuaciones diferenciales.

En la siguiente entrada comenzaremos con un método que permite reducir una ecuación de segundo orden a una ecuación de primer orden de manera que podremos resolverla aplicando alguno de los métodos vistos en la unidad anterior. No es casualidad que dicho método se conozca como método de reducción de orden.

Entradas relacionadas

Ecuaciones Diferenciales I: Ecuaciones diferenciales de orden superior

Introducción

¡Bienvenidos a la segunda unidad del curso de Ecuaciones Diferenciales I!. En la unidad 1 estudiamos las ecuaciones diferenciales lineales y no lineales de primer orden, en esta segunda unidad comenzaremos a estudiar las ecuaciones diferenciales de orden superior a uno, en particular las ecuaciones lineales de segundo orden.

En la primera entrada del curso vimos que las ecuaciones diferenciales se pueden clasificar por orden el cual corresponde al orden de la derivada más alta presente en la ecuación diferencial. A las ecuaciones diferenciales de orden mayor a $1$ se le conocen como ecuaciones diferenciales de orden superior. Nuestro enfoque en esta unidad serán las ecuaciones diferenciales lineales de segundo orden, pero antes de estudiar los métodos de resolución es necesario establecer una serie de conceptos y teoremas que sustentarán la teoría desarrollada en los métodos de resolución que estudiaremos.

Si bien, la segunda unidad tratará sobre las ecuaciones diferenciales lineales de segundo orden, gran parte de esta teoría preliminar la desarrollaremos para el caso general en el que el orden de la ecuación es $n$, con $n$ un número entero mayor a uno, así sólo será suficiente fijar $n = 2$ para referirnos a las ecuaciones de segundo orden.

Ecuaciones Diferenciales lineales de orden superior

Como vimos en la primer entrada, una ecuación diferencial de $n$-ésimo orden en su forma general es

\begin{align}
F(x, y, y^{\prime}, \cdots, y^{(n)}) = 0 \label{1} \tag{1}
\end{align}

Donde $F$ es una función con valores reales de $n + 2$ variables. La ecuación (\ref{1}) se puede escribir en su forma normal como

\begin{align}
\dfrac{d^{n}y}{dx^{n}} = f(x, y, y^{\prime}, \cdots, y^{(n -1)}) \label{2} \tag{2}
\end{align}

Con $f$ una función continua con valores reales. Para el caso en el que la ecuación es lineal, una ED de $n$-ésimo orden se puede escribir como

\begin{align}
a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{3} \tag{3}
\end{align}

Satisfaciendo las propiedades que ya conocemos. La ecuación (\ref{3}) es una ecuación no homogénea, en el caso en el que $g(x) = 0$, decimos que la ecuación es homogénea

\begin{align}
a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{4} \tag{4}
\end{align}

Las ecuaciones (\ref{3}) y (\ref{4}) serán entonces el tipo de ecuaciones sobre la cual desarrollaremos esta teoría preliminar.

Para comenzar, estudiemos los problemas con valores iniciales y problemas con valores en la frontera para el caso de ecuaciones diferenciales lineales.

Problema con valores iniciales para ecuaciones lineales

En la unidad anterior definimos lo que es una problema con valores iniciales, esta definición fue general, definamos ahora lo que es un problema con valores iniciales para el caso en el que la ecuación es lineal.

Definición: Sea $\delta$ un intervalo que contiene al punto $x_{0}$, el problema de resolver la ecuación lineal

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x)$$

Sujeta a que se cumpla

$$y(x_{0}) = y_{0}, \hspace{0.5cm} y^{\prime}(x_{0}) = y_{1}, \hspace{0.5cm} \cdots , \hspace{0.5cm} y^{(n -1)}(x_{0}) = y_{n -1}$$

Donde $y_{0}, y_{1}, \cdots, y_{n -1}$ son constantes reales arbitrarias dadas, se llama problema con valores iniciales (PVI) para ecuaciones lineales.

Para el caso de segundo orden ya hemos mencionado que geométricamente un PVI involucra obtener una curva solución que pase por el punto $(x_{0}, y_{0})$ y la pendiente en dicho punto sea $m = y_{1}$.

Con fines de completez mencionaremos sin demostrar el teorema de existencia y unicidad que contiene las condiciones suficientes para la existencia y unicidad de una solución de un PVI de $n$-ésimo orden para el caso de ED lineales.

Teorema: Sean $a_{n}(x), a_{n -1}(x), \cdots, a_{1}(x), a_{0}(x)$ y $g(x)$ continuas en un intervalo $\delta$, y sea $a_{n}(x) \neq 0$, $\forall x \in \delta$. Si $x = x_{0}$ es cualquier punto en $\delta$, entonces una solución $y(x)$ del problema con valores iniciales para el caso de ED lineales existe en el intervalo y es única.

Podemos enunciar el teorema de existencia y unicidad para el caso de ecuaciones diferenciales lineales de segundo orden ($n = 2$) de la siguiente manera:

Teorema: Sean $a_{2}(x), a_{1}(x), a_{0}(x)$ y $g(x)$ continuas en un intervalo $\delta$, y sea $a_{2}(x) \neq 0$, $\forall x \in \delta$. Si $x = x_{0}$ es cualquier punto en $\delta$, entonces existe una única solución al problema con valores iniciales

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x)$$

Sujeta a que se cumplan las condiciones iniciales

$$y(x_{0}) = y_{0} \hspace{1cm} y \hspace{1cm} y^{\prime}(x_{0}) = y_{1}$$

en el intervalo $\delta$.

No demostraremos este teorema pero es importante notar que dentro del enunciado hemos escrito la definición de PVI para el caso de $n = 2$ (segundo orden). Veamos un ejemplo en donde apliquemos este último teorema.

Ejemplo: Probar que la función $y(x) = 3 e^{2x} + e^{-2x} -3x$ es solución al PVI

$$\dfrac{d^{2}y}{dx^{2}} -4y = 12x; \hspace{1cm} y(0) = 4, \hspace{0.5cm} y^{\prime}(0) = 1$$

y además es única.

Solución: Primero probemos que es solución al PVI, para ello veamos que satisface la ecuación diferencial y además cumple con las condiciones iniciales.

Tenemos la función $y(x) = 3 e^{2x} + e^{-2x} -3x$, evaluemos en $x = 0$:

$$y(0) = 3 e^{0} + e^{0} -0 = 3 + 1 = 4 \hspace{1cm} \Rightarrow \hspace{1cm} y(0) = 4$$

Se cumple la primera condición inicial. Ahora calculemos la primer derivada y verifiquemos la segunda condición inicial.

$$\dfrac{dy}{dx} = 2(3 e^{2x}) -2(e^{-2x}) -3 \hspace{1cm} \Rightarrow \hspace{1cm} y^{\prime}(x) = 6 e^{2x} -2 e^{-2x} -3$$

Evaluando en $x = 0$:

$$y^{\prime}(0) = 6 e^{0} -2 e^{0} -3 = 6 -2 -3 = 1 \hspace{1cm} \Rightarrow \hspace{1cm} y^{\prime}(0) = 1$$

Se cumple la segunda condición inicial. Para concluir calculemos la segunda derivada y veamos que se satisface la ecuación diferencial.

$$\dfrac{d^{2}y}{dx^{2}} = 2(6 e^{2x}) -2(-2e^{-2x}) \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = 12 e^{2x} + 4e^{-2x}$$

Notamos que

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} -4y &= (12 e^{2x} + 4e^{-2x}) -4(3 e^{2x} + e^{-2x} -3x) \\
&= 12 e^{2x} + 4e^{-2x} -12 e^{2x} -4e^{-2x} + 12x \\
&= 12x
\end{align*}

Esto es, $\dfrac{d^{2}y}{dx^{2}} -4y = 12x$. Por lo tanto la función $y(x) = 3 e^{2x} + e^{-2x} -3x$ es solución al PVI.

Es claro que el intervalo de solución es $\delta = (-\infty, \infty)$ y que $x_{0} = 0 \in \delta.$ Como $a_{2}(x) = 1 \neq 0, a_{0}(x) = -4$ y $g(x) = 12x$ son funciones continuas en $\delta$, por el teorema de existencia y unicidad para ecuaciones diferenciales lineales de segundo orden concluimos que la función $y(x) = 3 e^{2x} + e^{-2x} -3x$ es única.

$\square$

Al haber aumentado el orden de las ecuaciones diferenciales aparece un nuevo problema que estudiaremos a continuación.

Problema con valores en la frontera

En el estudio de las ecuaciones de orden superior existe otro problema similar al PVI conocido como problema con valores en la frontera (PVF) en el que se busca resolver una ecuación diferencial de orden dos o mayor tal que la variable dependiente y/o sus derivadas se especifican en distintos puntos.

Con el propósito de que este concepto quede claro definiremos un problema con valores en la frontera para el caso de una ED lineal de segundo orden, pero siguiendo la idea se puede definir para una ecuación de orden superior a dos.

Definición: Sea un intervalo $\delta$ que contiene a los puntos $a$ y $b$. Un problema en el que se debe resolver la ecuación diferencial lineal

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x)$$

Sujeta a que se cumpla

$$y(a) = y_{0} \hspace{1cm} y \hspace{1cm} y(b) = y_{1}$$

Con $y_{0}$ y $y_{1}$ constantes reales arbitrarias dadas, se llama problema con valores en la frontera (PVF).

Definición: Los valores prescritos $y(a) = y_{0}$ y $y(b) = y_{1}$ se llaman condiciones en la frontera.

Así, resolver un PVF es hallar una función $y(x)$ que satisfaga la ecuación diferencial en algún intervalo $\delta$ que contiene a $a$ y $b$ y que cuya curva solución pase por los puntos $(a, y_{0})$ y $(b, y_{1})$.

La razón por la que definimos un PVF para el caso de una ED de segundo orden es porque es posible hacer notar que otros pares de condiciones en la frontera pueden ser

$$y^{\prime}(a) = y_{0} \hspace{1cm} y \hspace{1cm} y(b) = y_{1}$$

$$y(a) = y_{0} \hspace{1cm} y \hspace{1cm} y^{\prime}(b) = y_{1}$$

$$y^{\prime}(a) = y_{0} \hspace{1cm} y \hspace{1cm} y^{\prime}(b) = y_{1}$$

Sin embargo, las condiciones en la frontera presentadas son sólo casos especiales de las condiciones en la frontera generales

\begin{align*}
\alpha_{1} y(a) + \beta_{1} y^{\prime}(a) &= \gamma_{1} \\
\alpha_{2} y(b) + \beta_{2} y^{\prime}(b) &= \gamma_{2}
\end{align*}

Es así que aumentando el orden de la ecuación, las combinaciones de pares de condiciones en la frontera aumentan.

A diferencia de un PVI en el que si existe una solución entonces ésta es única, en un PVF pueden existir varias soluciones distintas que satisfacen las mismas condiciones en la frontera, o bien, puede sólo existir una solución única o no tener ninguna solución. Veamos un ejemplo que muestre este hecho.

Ejemplo: Probar que la función general $y(x) = c_{1}x^{2} + c_{2}x^{4} + 3$ es solución de la ecuación diferencial $x^{2} \dfrac{d^{2}y}{dx^{2}} -5x \dfrac{dy}{dx} + 8y = 24$ y además, de acuerdo a las condiciones en la frontera dadas a continuación, se cumplen las siguientes propiedades:

  • $y(-1) = 0, \hspace{0.5cm} y(1) = 4 \hspace{0.5cm} \Rightarrow \hspace{0.5cm}$ No existe una solución.
  • $y(0) = 3, \hspace{0.8cm} y(1) = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm}$ Existen infinitas soluciones.
  • $y(1) = 3, \hspace{0.8cm} y(2) = 15 \hspace{0.3cm} \Rightarrow \hspace{0.5cm}$ Existe una única solución.

Solución: De tarea moral verifica que la función $y(x) = c_{1}x^{2} + c_{2}x^{4} + 3$ es solución a la ecuación diferencial dada. Más adelante estudiaremos los métodos de resolución a este tipo de ecuaciones diferenciales de manera que seremos capaces de obtener esta función y probar, de hecho, que es la solución general a la ED. Por ahora sólo verifica que es solución.

Una vez comprobado que $y(x)$ es solución vamos a aplicar las condiciones de frontera de cada caso y veamos que ocurre con dicha solución.

  • Caso 1: $\hspace{0.5cm} y(-1) = 0, \hspace{0.5cm} y(1) = 4$

$$y(-1) = c_{1}(-1)^{2} + c_{2}(-1)^{4} + 3 = c_{1} + c_{2} + 3 = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = -3$$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 4 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = 1$$

De ambas condiciones de la frontera obtenemos que $c_{1} + c_{2} = -3$ y a la vez $c_{1} + c_{2} = 1$ lo cual es imposible, por lo tanto en este caso NO existe una solución al PVF.

  • Caso 2: $\hspace{0.5cm} y(0) = 3, \hspace{0.5cm} y(1) = 0$

$$y(0) = c_{1}(0)^{2} + c_{2}(0)^{4} + 3 = 3 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} y(0) = 3$$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = -3$$

Vemos que la primer condición de frontera se cumple y aplicando la segunda obtenemos que $c_{1} + c_{2} = -3$ de donde $c_{2} = -(c_{1} +3)$, sustituyendo en la solución $y(x)$ obtenemos la función

$$y(x) = c_{1}x^{2} -(c_{1} +3) x^{4} + 3$$

Donde $c_{1}$ es un parámetro libre, lo que indica que en este caso existen infinitas soluciones, una por cada posible valor de $c_{1}$.

  • Caso 3: $\hspace{0.5cm} y(1) = 3, \hspace{0.5cm} y(2) = 15$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 3 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = 0$$

$$y(2) = c_{1}(2)^{2} + c_{2}(2)^{4} + 3 = 4c_{1} + 16c_{2} + 3 = 15 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + 4c_{2} = 3$$

De ambas condiciones de frontera obtenemos el sistema de ecuaciones

\begin{align*}
c_{1} + c_{2} &= 0 \\
c_{1} + 4c_{2} &= 3
\end{align*}

De la primer ecuación obtenemos que $c_{1} = -c_{2}$, sustituyendo en la segunda ecuación obtenemos $-c_{2} + 4c_{2} = 3c_{2} = 3$ de donde $c_{2} = 1$ y por tanto $c_{1} = -1$. Sustituyendo en la solución $y(x)$ obtenemos la función $y(x) = -x^{2} + x^{4} + 3$. Por lo tanto, al ser una función sin parámetros, la solución es única.

$\square$

Ahora estudiaremos algunos operadores importantes que nos ayudarán en las posteriores demostraciones de algunos teoremas importantes, además de que nos serán de utilidad en cuestiones de notación.

Operadores Diferenciales

Comencemos por definir el operador de derivada.

Definición: El operador $D = \dfrac{d}{dx}$ se llama operador diferencial y su propósito es considerar a la diferenciación como una operación abstracta que acepta una función derivable y devuelve otra función.

Con ayuda del operador diferencial, la notación de derivada que hemos utilizado ahora la podemos escribir como $Dy = \dfrac{dy}{dx} = y^{\prime}(x)$.

Por ejemplo, ahora podemos escribir $D \{ 2x \sin(x) \} = 2 \sin(x) + 2x \cos(x)$.

Usando el operador diferencial, las expresiones de las derivadas de orden superior se pueden escribir como

$$\dfrac{d}{dx} \left( \dfrac{dy}{dx} \right) = \dfrac{d^{2}y}{dx^{2}} = D(Dy) = D^{2}y$$

Y de manera general

$$\dfrac{d^{n}y}{dx^{n}} = D^{n}y$$

Sabemos que la derivada es lineal (en el contexto del álgebra lineal) por tanto el operador diferencial también satisface las propiedades de linealidad:

  • $D \{ f(x) + g(x) \} = D \{f(x) \} + D \{g(x) \}$
  • $D \{cf(x) \} = cD \{f(x) \}$

Por otro lado, una ecuación diferencial como $\dfrac{d^{2}y}{dx^{2}} -2\dfrac{dy}{dx} + 5y = 0$ se puede escribir en términos del operador diferencial como $D^{2}y -2Dy +5y = (D^{2} -2D +5)y = 0$, puedes observar que el lado izquierdo de ésta última expresión corresponde a una expresión polinomial en la que interviene el operador $D$, estas expresiones polinomiales son también un operador diferencial y tiene su nombre.

Definición: El operador

\begin{align}
\mathcal{L} = a_{n}(x)D^{n} + a_{n -1}(x)D^{n -1} + \cdots + a_{1}(x)D + a_{0}(x) \label{5} \tag{5}
\end{align}

Se llama operador diferencial de $n$-ésimo orden u operador polinomial.

Debido a que el operador polinomial esta definido con operadores diferenciales $D$, las propiedades de linealidad de $D$ le atribuyen a $\mathcal{L}$ linealidad. Más general, $\mathcal{L}$ operando sobre una combinación lineal de dos funciones derivables es lo mismo que la combinación lineal de $\mathcal{L}$ operando en cada una de las funciones, esto es

\begin{align}
\mathcal{L} \{ \alpha f(x) + \beta g(x) \} = \alpha \mathcal{L} \{f(x) \} + \beta \mathcal{L} \{g(x) \} \label{6} \tag{6}
\end{align}

Una primera ventaja de usar el operador polinomial es que las ecuaciones (\ref{3}) y (\ref{4}) se pueden escribir como

$$\mathcal{L}(y) = g(x) \hspace{1cm} y \hspace{1cm} \mathcal{L}(y) = 0$$

respectivamente.

A continuación el operador polinomial nos será de mucha utilidad.

Principio de superposición

Es posible obtener varias soluciones a una ecuación diferencial lineal homogénea (\ref{4}) y si sumamos o superponemos todas estas soluciones veremos que dicha función es también solución a la ecuación diferencial. Este hecho se muestra en el siguiente resultado conocido como principio de superposición para ecuaciones homogéneas.

Teorema: Sean $y_{1}, y_{2}, \cdots, y_{k}$ soluciones de la ecuación homogénea de $n$-ésimo orden (\ref{4}) en un intervalo $\delta$. Entonces la combinación lineal $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$, donde las $c_{i}$, $i = 1, 2, \cdots, k$ son constantes arbitrarias, también es una solución de (\ref{4}) en el intervalo $\delta$.

Demostración: Sea $\mathcal{L}$ el operador polinomial (\ref{5}) de $n$-ésimo orden y sean $y_{1}, y_{2}, \cdots, y_{k}$ soluciones a la ecuación homogénea (\ref{4}) en el intervalo $\delta$. Definamos la combinación lineal $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$ con $c_{i}$, $i = 1,2, \cdots, k$ constantes arbitrarias, vemos que

$$\mathcal{L}(y) = \mathcal{L} \{ c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x) \}$$

Por la linealidad de $\mathcal{L}(y)$ (\ref{6}) tenemos que

$$\mathcal{L}(y) = c_{1} \mathcal{L} \{ y_{1}(x) \} + c_{2} \mathcal{L} \{ y_{2}(x) \} + \cdots + c_{k} \mathcal{L} \{ y_{k}(x) \}$$

Pero cada $y_{i}$, $i = 1, 2, \cdots, k$ es solución de (\ref{4}), entonces $\mathcal{L}(y_{i}) = 0$, para todo $i = 1, 2, \cdots, k$, así la expresión anterior se reduce a lo siguiente

$$\mathcal{L}(y) = c_{1} 0 + c_{2} 0 + \cdots + c_{k} 0 = 0$$

Por lo tanto $\mathcal{L}(y) = 0$, es decir, la combinación lineal $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$ es también solución a la ecuación diferencial homogénea (\ref{4}).

$\square$

Algunos corolarios del teorema anterior son:

  • Un múltiplo constante $y(x) =c_{1}y_{1}(x)$ de una solución $y_{1}(x)$ de una ecuación diferencial lineal homogénea es también una solución.

Demostración: Consideremos a la función $y =c_{1}y_{1}(x)$, aplicando el operador polinomial $\mathcal{L}$ tenemos que

$$\mathcal{L}(y) = \mathcal{L} \{ c_{1}y_{1}(x) \} = c_{1} \mathcal{L} \{ y_{1}(x) \} = 0$$

Ya que $y_{1}(x)$ es solución de la ecuación homogénea, es decir, $\mathcal{L} \{y_{1} \} = 0 $. Por lo tanto la función $y(x) =c_{1}y_{1}(x)$ es también solución de la ecuación diferencial homogénea.

$\square$

  • Una ecuación diferencial lineal homogénea tiene siempre la solución trivial $y(x) = 0$.

Usando el teorema anterior y la definición de $\mathcal{L}$ es clara la demostración, inténtalo.

Realicemos un ejemplo para observar que se satisface el principio de superposición.

Ejemplo: Mostrar que las funciones $y_{1}(x) = x^{2}$ y $y_{2}(x) = x^{2} \ln(x)$ son soluciones a la ecuación diferencial lineal homogénea $x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y = 0$ en el intervalo $\delta = (0, \infty)$. Y mostrar que, por el principio de superposición, la combinación lineal $y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$ es también solución de la ecuación en el mismo intervalo.

Solución: De tarea moral verifica que las funciones $y_{1}(x) = x^{2}$ y $y_{2}(x) = x^{2} \ln(x)$ son soluciones a la ecuación diferencial en el intervalo $\delta = (0, \infty)$.

Una vez asegurado que ambas funciones son solución, de acuerdo al principio de superposición, la combinación lineal de ambas funciones $y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$ debe ser también solución a la ecuación, veamos que es así. Para ello vamos a calcular la primera, segunda y tercera derivada. Para la primer derivada tenemos:

$$\dfrac{dy}{dx} = 2c_{1}x + 2c_{2}x \ln(x) + c_{2} x$$

La segunda derivada es:

$$\dfrac{d^{2}y}{dx^{2}} = 2c_{1} + 2c_{2} \ln(x) + 3c_{2}$$

Finalmente, la tercer derivada es:

$$\dfrac{d^{3}y}{dx^{3}} = \dfrac{2c_{2}}{x}$$

Sustituyendo los valores correspondientes en la ecuación diferencial, tenemos

\begin{align*}
x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y &= x^{3} \left( \dfrac{2c_{2}}{x} \right) -2x (2c_{1}x + 2c_{2}x \ln(x) + c_{2} x) + 4(c_{1} x^{2} + c_{2} x^{2} \ln(x)) \\
&= 2c_{2}x^{2} -4c_{1}x^{2} -4c_{2}x^{2} \ln(x) -2c_{2} x^{2} + 4c_{1} x^{2} + 4c_{2} x^{2} \ln(x) \\
&= c_{1}(4x^{2} -4x^{2}) + c_{2}(2x^{2} -2x^{2} + 4x^{2}\ln(x) -4x^{2}\ln(x)) \\
&= c_{1}(0) + c_{2}(0) \\
&= 0
\end{align*}

Hemos recuperado la ecuación diferencial $x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y = 0$, por lo tanto, la combinación lineal $y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$ es también solución a la ecuación diferencial verificando el principio de superposición. Es claro que la función $\ln(x)$ restringe los valores de $x$ de manera que el intervalo $\delta = (0, \infty)$ es el intervalo en el que la función $y(x)$ es continua.

$\square$

Dependencia e independencia lineal

El principio de superposición trae consigo el concepto de combinación lineal y, como seguramente recordarás de tu curso de álgebra lineal, si un elemento de un espacio vectorial se puede escribir como combinación lineal de otros elementos del mismo espacio vectorial decimos que dicho elemento es linealmente dependiente y si no es dependiente entonces decimos que es linealmente independiente. Ahora es necesario definir estos conceptos en el contexto de las ecuaciones diferenciales lineales.

Definición: Se dice que un conjunto de funciones $f_{1}(x), f_{2}(x), \cdots, f_{n}(x)$ es linealmente dependiente en un intervalo $\delta$ si existen constantes $c_{1}, c_{2}, \cdots, c_{n}$ no todas cero, tales que

$$c_{1}f_{1}(x) + c_{2}f_{2}(x) + \cdots + c_{n}f_{n}(x) = 0$$

para toda $x$ en $\delta$. Si el conjunto de funciones no es linealmente dependiente en $\delta$, se dice que es linealmente independiente.

Podemos decir que un conjunto de funciones es linealmente independiente en un intervalo $\delta$ si las únicas constantes para las que

$$c_{1}f_{1}(x) + c_{2}f_{2}(x) + \cdots +c_{n}f_{n}(x) = 0, \hspace{1cm} \forall x \in \delta$$

son $c_{1} = c_{2} = \cdots = c_{n} = 0$.

Realicemos algunas observaciones para el caso $n = 2$. Dos funciones $f_{1}(x), f_{2}(x)$ son linealmente dependientes en el intervalo $\delta$, donde ambas están definidas, si en dicho intervalo son proporcionales, esto es, si $f_{1}(x) = c_{1}f_{2}(x)$ o $f_{2}(x) = c_{2}f_{1}(x)$ donde $c_{1}$ y $c_{2}$ son constantes distintas de cero, de esta manera, si $f_{1}(x)$ y $f_{2}(x)$ no son proporcionales en el intervalo $\delta$ entonces ambas funciones son linealmente independientes en dicho intervalo.

De las relaciones de proporcionalidad notamos que $\dfrac{f_{1}(x)}{f_{2}(x)} = c_{1}$ y $\dfrac{f_{2}(x)}{f_{1}(x)} = c_{2}$, con estas relaciones podemos establecer que $f_{1}(x)$ y $f_{2}(x)$ son linealmente dependientes en el intervalo $\delta$ si cada cociente es una constante a lo largo de todo el intervalo $\delta$ y por otro lado, si los cocientes dependen de $x$ en el intervalo $\delta$ entonces las funciones $f_{1}(x)$ y $f_{2}(x)$ son linealmente independientes.

En definitiva, las funciones $f_{1}(x), f_{2}(x), \cdots, f_{n}(x)$ son linealmente dependientes en el intervalo $\delta$ si al menos una de ellas puede expresarse como combinación lineal de las otras. En caso contrario, las funciones son linealmente independientes.

Por ejemplo, dado el conjunto de funciones $f_{1}(x) = 4x^{3}, f_{2}(x) = 2x^{2}, f_{3}(x) = 8x^{3} + 12x^{2}$, es sencillo darse cuenta que $f_{3}(x) = 2f_{1}(x) + 6f_{2}(x)$. Por lo tanto el conjunto de funciones es linealmente dependiente.

Ejemplo: Determinar si las funciones $y_{1}(x) = c_{1} e^{-x}$ y $y_{2}(x) = c_{2}x e^{-x}$ son linealmente dependientes o linealmente independientes. Probar además que dichas funciones por separado son solución a la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$ y verifica que, por el principio de superposición, la combinación lineal $y(x) = c_{1} e^{-x} + c_{2}x e^{-x}$ es también solución a la ecuación diferencial.

Solución: Como vimos, hay distintas formas de verificar si las funciones son linealmente dependientes o linealmente independientes, quizá la forma más práctica es observar si el cociente $\dfrac{y_{1}}{y_{2}}$ o $\dfrac{y_{2}}{y_{1}}$ es constante o dependiente de $x$ en el intervalo $\delta$ en el que ambas están definidas.

Observamos primero que ambas funciones $y_{1}(x) = c_{1} e^{-x}$ y $y_{2}(x) = c_{2}x e^{-x}$ están definidas en el intervalo $(-\infty, \infty)$, por tanto $\delta = (-\infty, \infty)$. Ahora bien, notamos que $\dfrac{y_{1}}{y_{2}} = \dfrac{c_{1}}{c_{2} x}$ o bien $\dfrac{y_{2}}{y_{1}} = \dfrac{c_{2} x}{c_{1}}$, como podemos ver, ambos cocientes son dependientes de la variable independiente $x$ por lo tanto, concluimos que las funciones son linealmente independientes.

Continuando con el ejercicio, vamos a verificar que cada función $y_{1}(x)$ y $y_{2}(x)$ es solución a la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$.

Para la primer función tenemos

$$y_{1}(x) = c_{1} e^{-x} \hspace{0.8cm} \Rightarrow \hspace{0.8cm} \dfrac{dy_{1}}{dx} = -c_{1} e^{-x} \hspace{0.8cm} \Rightarrow \hspace{0.8cm} \dfrac{d^{2}y_{1}}{dx^{2}} = c_{1} e^{-x}$$

Sustituimos en la ED

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y &= c_{1} e^{-x} + 2(-c_{1} e^{-x}) + c_{1} e^{-x} \\
&= 2c_{1} e^{-x} -2c_{1} e^{-x} \\
&= 0
\end{align*}

Esto es $\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$, por lo tanto la función $y_{1}(x) = c_{1} e^{-x}$ satisface la ED.

Para la segunda función tenemos lo siguiente:

$$y_{2}(x) = c_{2}x e^{-x} \hspace{0.5cm} \Rightarrow \hspace{0.5cm} \dfrac{dy_{2}}{dx} = c_{2} e^{-x} -c_{2}x e^{-x} \hspace{0.5cm} \Rightarrow \hspace{0.5cm} \dfrac{d^{2}y_{2}}{dx^{2}} = -2c_{2} e^{-x} + c_{2}x e^{-x}$$

Sustituyendo en la ED tenemos:

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y &= (-2c_{2} e^{-x} + c_{2}x e^{-x}) + 2(c_{2} e^{-x} -c_{2}x e^{-x}) + c_{2}x e^{-x} \\
&= -2c_{2} e^{-x} + c_{2}x e^{-x} + 2c_{2} e^{-x} -2c_{2}x e^{-x} + c_{2}x e^{-x} \\
&= (2c_{2} e^{-x} -2c_{2} e^{-x}) + (2c_{2}x e^{-x} -2c_{2}x e^{-x}) \\
&= 0
\end{align*}

Esto es $\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$, por lo tanto la función $y_{2}(x) = c_{2}x e^{-x}$ satisface la ED.

Ahora que hemos probado que ambas funciones son solución a la ecuación diferencial podemos aplicar el principio de superposición y concluir que la combinación lineal $y(x) = c_{1} e^{-x} + c_{2}x e^{-x}$ es también solución a la ecuación diferencial, de tarea moral verifica que en efecto es solución a la ED.

$\square$

Para finalizar esta entrada definiremos un concepto sumamente importante y el cual estudiaremos con mayor detalle en la siguiente entrada.

En el ejemplo anterior mostramos que las funciones $y_{1}(x) = c_{1} e^{-x}$ y $y_{2}(x) = c_{2}x e^{-x}$ son linealmente independientes y ambas por separado son solución a la ecuación diferencial homogénea $\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$. En general, al conjunto de $n$ soluciones linealmente independientes de una ecuación diferencial lineal homogénea de $n$-ésimo orden se le da el nombre de conjunto fundamental de soluciones.

Definición: Cualquier conjunto $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de $n$ soluciones linealmente independientes de una ecuación diferencial lineal homogénea de $n$-ésimo orden en un intervalo $\delta$ es un conjunto fundamental de soluciones en dicho intervalo.

Así, el conjunto $\{ y_{1}(x) = c_{1} e^{-x}, y_{2}(x) = c_{2}x e^{-x} \}$ es un conjunto fundamental de la ecuación diferencial homogénea $\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$, en el intervalo $\delta = (-\infty, \infty)$.

En la siguiente entrada retomaremos este concepto.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Problemas con valores iniciales.
  • La solución general a la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} -y = 0$ es $y(x) = c_{1} e^{x} + c_{2} e^{-x}$ definida en $\delta = (-\infty, \infty)$. Determinar la solución particular que es solución al PVI dadas las condiciones iniciales

$$y(0) = 0, \hspace{1cm} y^{\prime}(0) = 1$$

  • Dado que $x(t) = c_{1} \cos(\omega t) + c_{2} \sin(\omega t)$ es la solución general de $x^{\prime \prime} + \omega^{2} x = 0$ en el intervalo $(-\infty, \infty)$, demuestra que la solución que satisface las condiciones iniciales $x(0) = x_{0}$ y $x^{\prime}(0) = x_{1}$ esta dada por

$$x(t) = x_{0} \cos(\omega t) + \dfrac{x_{1}}{\omega} \sin(\omega t)$$

  1. Problema con condiciones en la frontera.
  • La función $y(x) = c_{1} e^{x} \cos(x) + c_{2} e^{x} \sin(x)$ es una solución de la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = 0$ en el intervalo $(-\infty, \infty)$. Determina si se puede encontrar una solución que satisfaga las siguientes condiciones en la frontera.

$$a) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y^{\prime}(\pi) = 0; \hspace{1.5cm} b) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y(\pi) = -1$$

$$c) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y \left( \dfrac{\pi}{2} \right) = 1; \hspace{1.2cm} d) \hspace{0.1cm} y(0) = 0, \hspace{0.4cm} y(\pi) = 0$$

  1. Determina si los siguientes conjuntos de funciones son linealmente independientes en el intervalo $(-\infty, \infty )$.
  • $f_{1}(x) = x, \hspace{0.5cm} f_{2}(x) = x^{2}, \hspace{0.5cm} f_{3}(x) = 4x -3x^{2}$
  • $f_{1}(x) = 1+ x, \hspace{0.5cm} f_{2}(x) = x, \hspace{0.5cm} f_{3}(x) = x^{2}$
  • $f_{1}(x) = e^{x}, \hspace{0.5cm} f_{2}(x) = e^{-x}, \hspace{0.5cm} f_{3}(x) = \sinh (x)$
  1. Comprobar que las funciones dadas forman un conjunto fundamental de soluciones de la ecuación diferencial en el intervalo que se indica y formar la solución general.
  • $\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -12y = 0; \hspace{1cm} y_{1} = e^{-3x}, \hspace{0.4cm} y_{2} = e^{4x}; \hspace{1cm} (-\infty, \infty)$
  • $4 \dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + y = 0; \hspace{1cm} y_{1} = e^{\frac{x}{2}}, \hspace{0.4cm} y_{2} = x e^{\frac{x}{2}}; \hspace{1cm} (-\infty, \infty)$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} -6x \dfrac{dy}{dx} + 12y = 0; \hspace{1cm} y_{1} = x^{3}, \hspace{0.4cm} y_{2} = x^{4}; \hspace{1cm} (0, \infty)$

Más adelante…

Hemos comenzado nuestro estudio sobre las ecuaciones diferenciales de orden superior, vimos que, además del problema con valores iniciales, ahora nos enfrentamos a un nuevo problema conocido como problema con valores en la frontera. Definimos algunos operadores de interés y demostramos el principio de superposición. Finalmente, vimos que si las soluciones son funciones linealmente independientes entonces forman un conjunto fundamental de soluciones de la ecuación diferencial.

Antes de pasar directamente a estudiar los distintos métodos de resolución que hay para este tipo de ecuaciones vamos a estudiar algunas propiedades de las soluciones mismas. Veremos cuál es la forma de la solución general a estas ecuaciones, la importancia de que las soluciones sean linealmente independientes y definiremos el concepto de Wronskiano, el cual será una herramienta muy importante para determinar la dependencia o independencia lineal de las soluciones. Por supuesto, profundizaremos más en el concepto de conjunto fundamental de soluciones.

Entradas relacionadas

Ecuaciones Diferenciales I: Demostración del Teorema de Existencia y Unicidad

Introducción

Hemos llegado al final de la primer unidad de este curso. Concluiremos con la demostración de uno de los teoremas más importantes dentro del campo de las ecuaciones diferenciales; el teorema de existencia y unicidad de Picard-Lindelöf. Pero antes, un poco de contexto histórico.

Este resultado fue estudiado y desarrollado entre los años 1820 y 1900 por Cauchy, Liouville, Lipschitz, Picard y Lindelöf. Entre 1820 y 1830, Cauchy probó que si $f = f(x, y)$ es una función continua y existe su derivada parcial $\dfrac{df}{dy}$ continua en cierta región $U \subset \mathbb{R}$ que contiene el punto $(x_{0}, y_{0})$, entonces existe un intervalo $\delta$ en el que un problema de valor inicial posee una única solución definida en $\delta$. En 1838, Liouville simplificó la prueba de Cauchy introduciendo el método de las aproximaciones sucesivas, que más tarde continuarían siendo desarrolladas por Picard y que se conocerían como iterantes de Picard. En 1876, Lipschitz mejoraría el resultado de Cauchy, sustituyendo la condición de que exista la derivada continua de $f$ por una menos fuerte, conocida como condición de Lipschitz. Posteriormente, todo lo anterior fue ligeramente mejorado y generalizado por Picard (1890) y Lindelöf (1893), siguiendo las mismas ideas dadas por Liouville y Lipschitz.

Actualmente el método y los resultados se les atribuyen a Picard conociéndose como método de las iterantes de Picard y teorema de Picard (o más generalmente, teorema de Picard-Lindelöf).

En las dos últimas entradas hemos presentado una teoría preliminar con todas las herramientas necesarias para demostrar el teorema de Picard, sin más, demostremos el teorema.

Teorema de existencia y unicidad de Picard-Lindelöf

El resultado global del teorema de existencia y unicidad de Picard-Lindelöf es el siguiente:

Teorema: Supongamos que se cumplen las siguientes tres hipótesis:

  • $U = [a, b] \times \mathbb{R}$, donde $[a, b]$ es un intervalo compacto en $\mathbb{R}$,
  • $f : U \rightarrow \mathbb{R}$ es continua en $U$, y
  • $f$ es lipschitziana en $U$ respecto de la segunda variable.

En tal situación, para cada $(x_{0}, y_{0}) \in U$ el problema de valor inicial (PVI)

\begin{align}
\dfrac{dy}{dx} = f(x, y), \hspace{1cm} y(x_{0}) = y_{0} \label{1} \tag{1}
\end{align}

posee una única solución definida en el intervalo $[a, b]$.

Además, las iterantes de Picard $y_{n}: [a, b] \rightarrow \mathbb{R}$ asociadas al PVI (\ref{1}), dadas por

$$y_{n}(x) = y_{0} + \int_{x_{0}}^{x} f(t, y_{n -1}(t)) dt \hspace{1cm} n= 1,2,3, \cdots, \hspace{1cm} y_{0} = y_{0}(x)$$

convergen uniformemente en el intervalo $[a, b]$ hacia la solución del PVI.

Demostración del teorema de Picard-Lindelöf

Sea $\delta = [a, b]$. Como cualquier función $y: \delta \rightarrow \mathbb{R}$ tiene su gráfica en $U$ y por hipótesis $f$ es continua en $U$, tenemos, como consecuencia del teorema sobre la ecuación integral, que $y: \delta \rightarrow \mathbb{R}$ es solución del PVI si, y solo si, $y(x)$ es una función continua en $\delta$ y, para cada $x \in \delta$, verifica la ecuación integral

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t))dt \label{2} \tag{2}$$

Necesitamos probar que esta ecuación integral sólo posee una solución continua. Para ello, al ser $U$ una banda vertical, podemos definir, sin problema alguno, las iterantes de Picard $y_{n}: \delta \rightarrow \mathbb{R}$, las cuales son funciones continuas que verifican $y_{n}(x_{0}) = y_{0}$.

La demostración la dividiremos en tres secciones:

  • Primero probaremos que la sucesión de iterantes $\{y_{n}\}$ converge uniformemente en el intervalo $\delta$ hacia una función continua $y: \delta \rightarrow \mathbb{R}$.
  • Posteriormente comprobaremos que esta función $y: \delta \rightarrow \mathbb{R}$ verifica la ecuación integral (\ref{2}) y, por tanto, es solución del PVI.
  • Finalmente probaremos que el PVI no posee otra solución distinta de $y: \delta \rightarrow \mathbb{R}$.

Con los primeros dos puntos estaremos demostrando la existencia de una solución al problema de valor inicial, mientras que con el tercer punto estaremos demostrando la unicidad. Es importante mencionar que en cada uno de los tres puntos anteriores, aparte de la continuidad de $f$, haremos uso de manera esencial de la condición de Lipschitz de $f$ respecto de la segunda variable

$$|f(x, y_{1}) -f(x, y_{2})| \leq L|y_{1} -y_{2}| \label{3} \tag{3}$$

para cada par de puntos $(x, y_{1}), (x, y_{2}) \in U$. Con $L$ la constante de Lipschitz para $f$ en $U$.

Así mismo, en el primer punto utilizaremos de forma esencial que la convergencia de las iterantes es uniforme pues no basta con la convergencia puntual. Demostremos el primer punto.

  • Convergencia uniforme de las iterantes de Picard.

Para probar que la sucesión de iterantes $\{y_{n}\}$ converge uniformemente en el intervalo $\delta$ es conveniente expresarlas de la siguiente forma:

$$y_{n}(x) = y_{0}(x) + \sum_{m = 1}^{n}(y_{m}(x) -y_{m -1}(x)) \label{4} \tag{4}$$

Desglosa la serie anterior para que verifiques la equivalencia.

Fijado $x \in \delta$ es evidente que la sucesión numérica $\{y_{n}(x)\}$ es convergente en $\mathbb{R}$ si, y sólo si, la serie numérica $\sum_{m = 1}^{\infty}(y_{m}(x) -y_{m -1}(x))$ es convergente, para lo cual es suficiente con la convergencia absoluta de la serie para cada $x \in \delta$, es decir:

$$\sum_{m = 1}^{\infty }|y_{m}(x) -y_{m -1}(x)|< \infty \label{5} \tag{5}$$

Si la serie (\ref{5}) fuese convergente para cada $x \in \delta$ entonces se tendría que la sucesión de iterantes converge puntualmente en $\delta$, sin embargo no es suficiente con la convergencia puntual; necesitamos algo más fuerte, como lo es la convergencia uniforme. Para probar que la serie funcional $\sum_{m = 1}^{\infty}(y_{m}(x) -y_{m -1}(x))$ converge uniformemente en $\delta$ y, por tanto, la sucesión de iterantes, vamos a usar el criterio mayorante de Weierstrass para lo cual necesitamos probar que existen unas constantes $M_{m} \in \mathbb{R}^{+}$ tales que

$$|y_{m}(x) -y_{m -1}(x)|\leq M_{m} \label{6} \tag{6}$$

para cada $x \in \delta$, cada $m = 1, 2, 3 \cdots$, y $\sum_{m = 1}^{\infty } M_{m} < \infty$.

Vamos a comenzar con los casos $m = 1$ y $m = 2$, es decir, vamos a hallar las constantes $M_{1}$ y $M_{2}$ tales que

$$|y_{1}(x) -y_{0}(x)| \leq M_{1} \hspace{1cm} y \hspace{1cm} |y_{2}(x) -y_{1}(x)| \leq M_{2}$$

y con estos resultados intentaremos encontrar una relación de recurrencia para las constantes $M_{m}$ para luego corroborar que $\sum_{m = 1}^{\infty } M_{m} < \infty$ y de esta manera probar la convergencia (\ref{5}).

Partiendo de la ecuación de las iterantes de Picard

$$y_{m}(x) = y_{0} + \int_{x_{0}}^{x} f(t, y_{m -1}(t)) dt; \hspace{1cm} y_{0} = y_{0}(x) \label{7} \tag{7}$$

las primeras iterantes son

$$y_{1}(x) = y_{0}(x) + \int_{x_{0}}^{x} f(t, y_{0}(t)) dt \hspace{1cm} y \hspace{1cm} y_{2}(x) = y_{0}(x) + \int_{x_{0}}^{x} f(t, y_{1}(t)) dt$$

de donde

$$|y_{1}(x) -y_{0}(x)| = \left| \int_{x_{0}}^{x} f(t, y_{0}) dt \right |$$

y

$$|y_{2}(x) -y_{1}(x)| = \left| \int_{x_{0}}^{x} f(t, y_{1}(t)) -f(t, y_{0}(t))dt \right|$$

Al momento de estimar $|y_{1}(x) -y_{0}(x)|$ necesitamos hacer la siguiente consideración. La función $f$ es continua en $U$ y, por tanto, la función

$$g: \delta \rightarrow \mathbb{R}; \hspace{1cm} x \rightarrow g(x) = f(x, y_{0}(x))$$

es continua en $\delta$. Como $\delta$ es compacto, la función $g(x)$ está acotada en $\delta$, es decir, existe una constante $H > 0$ tal que $|g(x)| = |f(x, y_{0}(x))| \leq H$ para cada $x \in \delta$ y, por tanto, se verifica lo siguiente

\begin{align*}
|y_{1}(x) -y_{0}(x)| &= \left| \int_{x_{0}}^{x} f(t, y_{0}(t)) dt \right | \\
&\leq \int_{x_{0}}^{x}|f(t, y_{0}(t))| dt \\
&\leq \int_{x_{0}}^{x} H dt \\
&= H|x -x_{0}|
\end{align*}

esto es

$$|y_{1}(x) -y_{0}(x)| \leq H|x -x_{0}| \label{8} \tag{8}$$

Si consideramos todo el intervalo $\delta = [a, b]$ podríamos obtener finalmente la estimación

$$|y_{1}(x) -y_{0}(x)| \leq H (b -a) = M_{1} \label{9} \tag{9}$$

pero necesitamos la estimación obtenida inicialmente (\ref{8}) para poder estimar adecuadamente $|y_{2}(x) -y_{1}(x)|$. Para este caso consideremos las siguientes dos desigualdades

\begin{align*}
|y_{2}(x) -y_{1}(x)| &= \left| \int_{x_{0}}^{x} f(t, y_{1}(t)) -f(t, y_{0}(t))dt \right| \\
&\leq \int_{x_{0}}^{x}| f(t, y_{1}(t)) -f(t, y_{0}(t))|dt \label{10} \tag{10}
\end{align*}

y la condición de Lipschitz

$$|f(t, y_{1}(t)) -f(t, y_{0})| \leq L |y_{1}(t) -y_{0}(t)| \label{11} \tag{11}$$

Supongamos que $x > x_{0}$. Usando (\ref{10}) y (\ref{11}), además del resultado (\ref{8}), tenemos lo siguiente

\begin{align*}
|y_{2}(x) -y_{1}(x)| &\leq \int_{x_{0}}^{x}|f(t, y_{1}(t)) -f(t ,y_{0}(t))| dt \\
&\leq \int_{x_{0}}^{x} L |y_{1}(t) -y_{0}(t)|dt \\
&\leq LH \int_{x_{0}}^{x}|t- x_{0}|dt \\
&= LH \int_{x_{0}}^{x}(t -x_{0})dt \\
&= LH \dfrac{(x -x_{0})^{2}}{2}
\end{align*}


Por otro lado, para $x < x_{0}$ se obtiene lo siguiente

\begin{align*}
|y_{2}(x) -y_{1}(x)| &\leq \int_{x}^{x_{0}}|f(t, y_{1}(t)) -f(t ,y_{0}(t))| dt \\
&\leq L \int_{x}^{x_{0}}|y_{1}(t) -y_{0}(t)|dt \\
&\leq LH \int_{x}^{x_{0}}|t -x_{0}|dt \\
&= LH \int_{x}^{x_{0}}(x_{0} -t)dt \\
&= LH \dfrac{(x_{0} -x)^{2}}{2}
\end{align*}

De ambos resultados, podemos afirmar que para cada $x \in \delta$

$$|y_{2}(x) -y_{1}(x)| \leq HL \dfrac{|x -x_{0}|^{2}}{2!} \label{12} \tag{12}$$

Observamos que la desigualdad (\ref{8}) obtenida para $m = 1$ se puede escribir como

$$|y_{1}(x) -y_{0}(x)| \leq HL^{0} \dfrac{|x -x_{0}|^{1}}{1!}$$

De estas dos relaciones podemos establecer una relación de recurrencia que vamos a probar por inducción sobre $m$. Proponemos que para cada $m = 1, 2, 3, \cdots$, y para cada $x \in \delta$ se tiene la siguiente desigualdad:

$$|y_{m}(x) -y_{m -1}(x)| \leq HL^{m -1} \dfrac{|x -x_{0}|^{m}}{m!} \label{13} \tag{13}$$

La desigualdad ha sido probada anteriormente para $m = 1$ y $m = 2$. Supongamos que es cierta para $m$ y vamos a probar que es válida para $m + 1$ siguiendo el mismo razonamiento que en la obtención del caso $m = 2$. Vamos a mostrar el caso $x > x_{0}$ pero la prueba es similar para el caso $x < x_{0}$. En efecto, si $x > x_{0}$ tenemos

\begin{align*}
|y_{m+1}(x) -y_{m}(x)| &\leq \int_{x_{0}}^{x}|f(t, y_{m}(t)) -f(t, y_{m -1}(t))|dt \\
&\leq L \int_{x_{0}}^{x}|y_{m}(t) -y_{m -1}(t)|dt \\
&\leq \dfrac{HL^{m}}{m!} \int_{x_{0}}^{x}(t -x_{0})^{m} dt \\
&= HL^{m} \dfrac{(x -x_{0})^{m + 1}}{(m+1)!}
\end{align*}

haciendo el mismo procedimiento para el caso $x < x_{0}$, podemos concluir que, en efecto

$$|y_{m+1}(x) -y_{m}(x)| \leq HL^{m} \dfrac{|x -x_{0}|^{m + 1}}{(m+1)!}$$

Es Importante hacer énfasis que en esto ha sido fundamental que las iterantes $\{y_{n}\}$ tengan sus gráficas en una región $U$ donde $f$ es lipschitziana.

De lo obtenido anteriormente, y considerando el intervalo completo $\delta = [a, b]$, obtenemos finalmente la siguiente desigualdad:

$$|y_{m}(x) -y_{m -1}(x)| \leq \dfrac{H}{L} \dfrac{(L(b -a))^{m}}{m!} = M_{m} \label{14} \tag{14}$$

para cada $x \in \delta$ y cada $m = 1, 2, 3, \cdots$. Como el intervalo $\delta$ es acotado $M_{m} \in \mathbb{R}^{+}$ y sabemos que

$$\sum_{m = 1}^{\infty} \dfrac{(L(b -a))^{m}}{m!} = e^{L(b -a)} -1< \infty \label{15} \tag{15}$$

En definitiva, $\sum_{m=1}^{\infty } M_{m} < \infty$, es decir la serie es convergente. Con esto queda probada la condición (\ref{5}) y debido a que la prueba se hizo utilizando el criterio mayorante de Weierstrass concluimos que se trata de una convergencia uniforme de las iterantes de Picard en el intervalo $\delta$ hacia una función $y: \delta \rightarrow \mathbb{R}$.

Es bien conocido que si una sucesión $y_{n}: \delta \rightarrow \mathbb{R}$, $n = 1, 2, 3, \cdots$, de funciones continuas sobre $\delta$ que convergen uniformemente en $\delta$ hacia una función $y: \delta \rightarrow \mathbb{R}$, la función límite uniforme $y$ también es continua en $\delta$.

Queda así demostrado el primer punto de la prueba. Ahora verifiquemos que la función límite uniforme $y: \delta \rightarrow \mathbb{R}$ verifica la ecuación integral (\ref{2}) siendo la solución al problema de valor inicial.

  • La existencia de la solución.

Sea $y: \delta \rightarrow \mathbb{R}$ la función obtenida anteriormente como límite uniforme de las iterantes de Picard $\{y_{n}\}$. La convergencia uniforme de $\{y_{n}\}$ hacia $y(x)$ en el intervalo $\delta$ significa que dado cualquier $\hat{\varepsilon} > 0$ existe un natural $N = N(\hat{\varepsilon})$ tal que para cada $n > N$ y cada $x \in \delta$

$$|y_{n}(x) -y(x)| < \hat{\varepsilon} \label{16} \tag{16}$$

Sabemos que la convergencia uniforme implica la convergencia puntual (pero no al revés) de manera que para cada $x \in \delta$ se cumple que

$$\lim_{n \to \infty}y_{n}(x) = y(x) \label{17} \tag{17}$$

Fijemos un $x \in \delta$. De acuerdo a (\ref{17}) y usando (\ref{7}) tenemos que

$$y(x) = \lim_{n \to \infty} y_{n+1}(x) = y_{0} + \lim_{n \to \infty } \int_{x_{0}}^{x}f(t, y_{n}(t))dt$$

Por otro lado, sabemos que la función solución que satisface el PVI satisface también la ecuación integral (\ref{2}),

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t))dt$$

Nuestro objetivo es probar que

$$\lim_{n\rightarrow \infty }\int_{x_{0}}^{x} f(t, y_{n}(t)) dt = \int_{x_{0}}^{x}f(t, y(t))dt \label{18} \tag{18}$$

pues de esta forma la función límite uniforme $y$ verificaría la ecuación integral y, por tanto sería solución del PVI en el intervalo $\delta$, quedando así probada la existencia de la solución.

Demostrar la relación (\ref{18}) es equivalente a probar que $\forall \varepsilon > 0$ existe $N = N(\varepsilon) \in \mathbb{N}$ tal que para cada $n > N$ y cada $x \in \delta$

$$\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt \right| < \varepsilon \label{19} \tag{19}$$

Para probar la relación (\ref{19}) de nuevo haremos uso de la condición de Lipschitz (\ref{3}) y de la convergencia uniforme de las iterantes hacia $y$ en $\delta$ (\ref{16}).

\begin{align*}
\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt\right| &\leq \int_{x_{0}}^{x}|f(t, y_{n}(t)) -f(t, y(t))|dt \\
&\leq \int_{a}^{b}|f(t, y_{n}(t)) -f(t, y(t))|dt \\
&\leq L \int_{a}^{b}|y_{n}(t) -y(t)|dt
\end{align*}

Dado $\varepsilon > 0$ definimos

$$\hat{\varepsilon} = \dfrac{\varepsilon }{L(b -a)} \label{20} \tag{20}$$

Con esto, la desigualdad (\ref{16}) se puede escribir como

$$|y_{n}(t) -y(t)|< \dfrac{\varepsilon }{L(b -a)} \label{21} \tag{21}$$

Usando esta desigualdad notamos que, para cada $n > N$ y cada $x \in \delta$

\begin{align*}
\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt\right| &\leq L \int_{a}^{b}|y_{n}(t) -y(t)|dt \\
&\leq \dfrac{L}{L(b -a)} \int_{a}^{b} \varepsilon dt \\
&= \dfrac{L}{L(b -a)} \varepsilon (b -a) \\
&= \varepsilon
\end{align*}

Por lo tanto, $ \forall \varepsilon > 0$ existe $N = N(\varepsilon) \in \mathbb{N}$ tal que para cada $n > N$ y cada $x \in \delta$

$$\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt \right| < \varepsilon$$

lo que confirma la relación (\ref{18}) que es lo que queríamos. De esta forma queda demostrada la existencia de la solución $y: \delta \rightarrow \mathbb{R}$ para el problema de valor inicial. Finalmente demostremos la unicidad de esta solución.

  • Demostración de la unicidad:

Con los dos puntos anteriores estamos convencidos de la existencia de una solución $y: \delta \rightarrow \mathbb{R}$ que satisface el problema de valor inicial (\ref{1}) así como la ecuación integral (\ref{2}). La prueba de la unicidad se basa en la suposición de la existencia de otra solución $\hat{y}: \delta \rightarrow \mathbb{R}$ que igualmente cumple con los dos puntos anteriores y el objetivo es demostrar que $\hat{y}(x) = y(x)$.

De tarea moral demostrarás que la solución $\hat{y}(x)$ es también una función límite uniforme de las mismas iterantes de Picard para cada $x \in \delta$, esto es

$$\lim_{n \to \infty}y_{n}(x) = \hat{y}(x) \label{22} \tag{22}$$

o, lo que es equivalente, mostrar que

$$\lim_{n \to \infty} |\hat{y}(x) -y_{n}(x)| = 0 \label{23} \tag{23}$$

y por la ecuación (\ref{17}) concluir que $\hat{y}(x) = y(x)$.

En esta situación se procede de manera muy similar a la prueba del primer punto en el que debemos encontrar una relación de recurrencia que acote a la cantidad $|\hat{y}(x) -y_{n}(x)|$ para cada $x \in \delta$ de la siguiente manera

$$0 \leq |\hat{y}(x) -y_{n}(x)| \leq B_{n} \label{24} \tag{24}$$

y si se prueba que

$$\lim_{n \to \infty}B_{n} = 0$$

entonces quedará probada la relación (\ref{23}).

A continuación te damos algunos hints y resultados que deberás obtener a lo largo de tu demostración:

Estudia lo que sucede con $n = 1$ y $n = 2$ y con los resultados encuentra la relación de recurrencia general para cada $n \in \mathbb{N}$, para ello considera la máxima distancia entre $\hat{y}$ y $y_{0}$, esto es

$$A = \max_{x \in \delta} |\hat{y} -y_{0}|$$

El máximo $A \in \mathbb{R}^{+}$ esta asegurado gracias a la continuidad de la función $\hat{y}$ en el intervalo compacto $\delta$. Como la gráfica de la función $\hat{y}(x)$ está contenida en $U$ y $f = f(x, \hat{y})$ es una función lipschitziana, demuestra que para cada $x \in \delta$

$$|\hat{y}(x) -y_{1}(x)| \leq L \int_{x_{0}}^{x}|\hat{y}(t) -y_{0}(t)|dt \leq AL|x -x_{0}| \label{25} \tag{25}$$

Usando este resultado demuestra que

$$|\hat{y}(x) -y_{2}(x)| \leq AL^{2} \int_{x_{0}}^{x}|t -x_{0}|dt \leq AL^{2} \dfrac{|x -x_{0}|^{2}}{2!} \label{26} \tag{26}$$

Demuestra por inducción que en general, para cada $n = 1, 2, 3, \cdots,$ y $x \in \delta$

$$|\hat{y}(x) -y_{n}(x)| \leq AL^{n} \dfrac{|x -x_{0}|}{n!} \label{27} \tag{27}$$

Este resultado te permite concluir que para cada $x \in \delta = [a, b]$

$$|\hat{y}(x) -y_{n}(x)| \leq A \dfrac{(L(b -a))^{n}}{n!} = B_{n} \label{28} \tag{28}$$

Prueba que

$$\lim_{n \to \infty} B_{n} = \lim_{n \to \infty} \dfrac{(L(b -a))^{n}}{n!} = 0 \label{29} \tag{29}$$

Así finalmente queda demostrada la relación (\ref{23}) y por lo tanto $\hat{y}(x) = y(x)$ para cada $x \in \delta$.

Realizar este ejercicio te servirá para consolidar mucho mejor lo que hemos realizado a lo largo de la demostración. Sin embargo, la demostración de la unicidad puede ser mucho más simple y rápida si aplicamos el lema de Gronwall. Demostremos la unicidad por este camino.

Sean $y: \delta \rightarrow \mathbb{R}$ y $\hat{y}: \delta \rightarrow \mathbb{R}$ soluciones al PVI (\ref{1}) y la ecuación integral (\ref{2}):

$$y(x) = y_{0} + \int_{x_{0}}^{x}f(t, y(t)) dt \hspace{1cm} y \hspace{1cm} \hat{y}(x) = y_{0} + \int_{x_{0}}^{x}f(t, \hat{y}(t)) dt$$

Si restamos las dos ecuaciones anteriores y consideramos su valor absoluto obtenemos lo siguiente

\begin{align*}
|y(x) -\hat{y}(x)| &= \left|\int_{x_{0}}^{x}f(t, y(t))dt -\int_{x_{0}}^{x}f(t, \hat{y}(t))dt \right|\\
&= \left|\int_{x_{0}}^{x}f(t, y(t)) -f(t, \hat{y}(t))dt \right| \\
&\leq \int_{x_{0}}^{x}|f(t, y(t)) -f(t,\hat{y}(t))|dt
\end{align*}

Como $f$ es una función lipschitziana respecto de la segunda variable tenemos que

$$\int_{x_{0}}^{x}|f(t, y(t)) -f(t, \hat{y}(t))|dt \leq \int_{x_{0}}^{x} L|y(t) -\hat{y}(t)|dt = L \int_{x_{0}}^{x}|y(t) -\hat{y}(t)|dt$$

es decir,

$$|y(x) -\hat{y}(x)| \leq L \int_{x_{0}}^{x}|y(t) -\hat{y}(t)|dt \label{30} \tag{30}$$

Para que este resultado nos sea más familiar definamos lo siguiente

$$h(x) = |y(x) -\hat{y}(x)| \hspace{1cm} y \hspace{1cm} \alpha = 0, \hspace{0.2cm} \beta = L$$

Usando esto podemos reescribir a la ecuación (\ref{30}) de la siguiente manera

$$0 \leq h(x) \leq \alpha + \beta \int_{x_{0}}^{x} h(t) dt \label{31} \tag{31}$$

Notamos que estamos en las condiciones del lema de Gronwall pero en el caso especial en el que $\alpha = 0$, así que aplicando el corolario del lema de Gronwall podemos concluir que para cada $x \in \delta$

$$h(x) = |y(x) -\hat{y}(x)| = 0$$

lo que significa que $\forall x \in \delta$, $y(x) = \hat{y}(x)$, es decir, la solución al problema de valor inicial es única.

Con esto quedan demostrados los tres puntos de la prueba, por lo tanto concluimos que el problema de valor inicial (\ref{1}) posee una única solución en $\delta = [a, b]$ y además, las iterantes de Picard asociadas al PVI convergen uniformemente en $\delta$ hacia la solución $y: \delta \rightarrow \mathbb{R}$ del PVI.

$\square$

Hemos concluido con la demostración del teorema de existencia y unicidad de Picard-Lindelöf. Apliquemos este resultado al caso de las ecuaciones diferenciales lineales.

Existencia y unicidad en ecuaciones lineales

Apliquemos el teorema de Picard al caso de las ecuaciones diferenciales lineales de primer orden.

$$\dfrac{dy}{dx} = P(x) y + Q(x); \hspace{1cm} y(x_{0}) = y_{0} \label{32} \tag{32}$$

Donde las funciones $P(x)$ y $Q(x)$ son continuas en un intervalo compacto $\delta = [a, b]$, $x_{0} \in \delta$ y $y_{0} \in \mathbb{R}$.

En este caso $U = \delta \times \mathbb{R}$ y $f(x, y) = P(x) y + Q(x)$. Notemos que se verifica lo siguiente:

  • $U$ es una banda vertical de base compacta, pues $\delta$ es un intervalo compacto.
  • Como $P(x)$ y $Q(x)$ son continuas en $\delta$, entonces $f$ es continua en $U$.
  • Como $P(x)$ es continua en el intervalo $\delta$ y éste es compacto, entonces la función $P(x)$ es acotada, así que podemos fijar $L > 0 $ tal que $|P(x)|< L$ para todo $x \in \delta$. Considerando esto tenemos que

\begin{align*}
|f(x, y_{1}) -f(x, y_{2})| &= |(P(x) y_{1} + Q(x)) -(P(x) y_{2} + Q(x))| \\
&= |P(x) y_{1} -P(x) y_{2}| \\
&= |P(x) ||y_{1} -y_{2}| \\
&\leq L|y_{1} -y_{2}|
\end{align*}

esto es

$$|f(x, y_{1}) -f(x, y_{2})| \leq L|y_{1} -y_{2}| \label{33} \tag{33}$$

para cada par de puntos $(x, y_{1}), (x, y_{2}) \in U$ es decir, $f$ es una función lipschitziana.

Por tanto, se cumplen las condiciones del teorema de existencia y unicidad global. En consecuencia ratificamos el resultado visto anteriormente en el que se asegura que cualquier problema de valor inicial asociado a una ecuación lineal posee solución única en el intervalo $\delta$. Además, ahora podemos afirmar que las iterantes de Picard asociadas convergen uniformemente hacia la solución del PVI.

$\square$

Un resultado importante que debemos revisar es que si dos problemas de valor inicial tienen valores iniciales muy cercanos entre sí, entonces las soluciones a cada PVI serán funciones muy próximas. A esto le llamamos dependencia continua de las soluciones respecto a condiciones iniciales. Revisemos este resultado. En la demostración será de uso esencial el lema de Gronwall.

Dependencia continua de la condición inicial

Teorema: Sea $f = f(x,y)$ una función continua en un rectángulo $R$ de la forma

$$R = \{(x, y) \in \mathbb{R} \mid |x -x_{0}| \leq a, |y -y_{0}| \leq b, \hspace{0.2cm} a, b \in \mathbb{R} \}$$

siendo $f$ una función lipschitziana respecto de la segunda variable en $R$. Si $y(x)$ y $\hat{y}(x)$ son soluciones a los problemas de condición inicial

$$\dfrac{dy}{dx} = f(x, y); \hspace{1cm} y(x_{0}) = y_{0}$$

y

$$\dfrac{d\hat{y}}{dx} = f(x, \hat{y}); \hspace{1cm} \hat{y}(x_{0}) = \hat{y_{0}}$$

respectivamente. Entonces $|y(x) -\hat{y}(x)| \leq |y_{0} -\hat{y}_{0}| e^{L |x -x_{0}|}$

Demostración:

Como $y(x)$ y $\hat{y}(x)$ son solución de sus respectivos PVI, entonces cada solución verifica una ecuación integral.

$$y(x) = y_{0} + \int_{x_{0}}^{x}f(t, y(t)) dt \hspace{1cm} y \hspace{1cm} \hat{y}(x) = y_{0} + \int_{x_{0}}^{x}f(t, \hat{y}(t)) dt$$

Vemos que

\begin{align*}
|y(x) -\hat{y}(x)| &= \left| y_{0} -\hat{y}_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt -\int_{x_{0}}^{x}f(t, \hat{y}(t)) dt \right| \\
&\leq |y_{0} -\hat{y}_{0}| + \left| \int_{x_{0}}^{x} f(t, y(t)) -f(t, \hat{y}(t)) dt \right | \\
&\leq |y_{0} -\hat{y}_{0}| + \int_{x_{0}}^{x}\left| f(t, y(t)) -f(t, \hat{y}(t)) \right| dt
\end{align*}

Sabemos que $f$ es una función lipschitziana respecto de la segunda variable en $R$ de manera que

$$|f(x, y(x)) -f(x, \hat{y}(x)) | \leq L | y(x) -\hat{y}(x)| \label{34} \tag{34}$$

con $L$ la constante de Lipschitz para $f$ en $R$. Entonces,

$$|y(x) -\hat{y}(x)| \leq |y_{0} -\hat{y}_{0} | + L \int_{x_{0}}^{x} |y(t) -\hat{y}(t)|dt \label{35} \tag{35}$$

Definamos $0 < g(x) = |y(x) -\hat{y}(x)|$, $\alpha = |y_{0} -\hat{y}_{0}|$ y $\beta = L$, con esto la desigualdad anterior la podemos reescribir como

$$0 < g(x) \leq \alpha +\beta \int_{x_{0}}^{x}g(t) dt$$

Ahora podemos aplicar el lema de Gronwall:

$$g(x) \leq \alpha e^{\beta (x -x_{0})}$$

es decir,

$$|y(x) -\hat{y}(x)| \leq |y_{0} -\hat{y}_{0}| e^{L(x -x_{0})} \label{36} \tag{36}$$

Que es lo que queríamos demostrar.

$\square$

Del resultado anterior observamos que si $y_{0} \rightarrow \hat{y}_{0} \Rightarrow |y_{0} -\hat{y}_{0}| \rightarrow 0$ y por lo tanto, las soluciones de los PVI serán funciones muy próximas $|y(x) -\hat{y}(x)| \rightarrow 0 \Rightarrow y(x) \rightarrow \hat{y}(x)$.

Para concluir la entrada hagamos un breve comentario sobre el resultado local del teorema de Picard y realicemos unos ejemplos al respecto.

Teorema de existencia y unicidad local

Recordemos que el resultado local del teorema de existencia y unicidad de Picard-Lindelöf establece lo siguiente:

Teorema: Supongamos que se verifican las siguientes tres hipótesis:

  • $R = \{(x, y) \in \mathbb{R} \mid |x -x_{0}| \leq a, |y -y_{0}| \leq b, \hspace{0.2cm} a, b \in \mathbb{R} \}$ y $R \subset D$,
  • $f: D \rightarrow \mathbb{R}$ es continua en $R$ y
  • $f$ es lipschitziana en $R$ respecto de la segunda variable.

En tal situación, para cada $(x_{0}, y_{0}) \in R$, el problema de valor inicial

\begin{align}
\dfrac{dy}{dx} = f(x, y); \hspace{1cm} y(x_{0}) = y_{0} \label{37} \tag{37}
\end{align}

posee una única solución definida en el intervalo $\delta = [x_{0} -h, x_{0} + h]$, donde

$$ h = \min \left\{a,\dfrac{b}{M} \right\} \hspace{1cm} y \hspace{1cm} M \geq \max_{(x, y) \in R}|f(x, y)|$$

Además, las iterantes de Picard asociadas al PVI convergen uniformemente en el intervalo $\delta$ hacia la solución del PVI.

$$——————————————$$

La demostración a este teorema corresponde a una adaptación de la demostración vista para el caso global, teniendo en cuenta que las gráficas de las iterantes de Picard así como la de cualquier posible solución, definidas en el intervalo $\delta = [x_{0} -h, x_{0} + h]$, están dentro del rectángulo $R$ donde la función $f$ es continua y lipschitziana respecto de la segunda variable. Los pasos claves a seguir y las técnicas son prácticamente una repetición de lo visto anteriormente cambiando la banda vertical $U = [a, b] \times \mathbb{R}$ por el rectángulo

$$R = \{(x, y) \in \mathbb{R} \mid |x -x_{0}| \leq a, |y -y_{0}| \leq b, \hspace{0.2cm} a, b \in \mathbb{R} \}$$

Para conocer sobre los detalles puedes revisar la demostración del teorema local de Picard en los videos preparados de este mismo curso.

Finalmente, resolvamos algunos ejemplos.

Ejemplo: Mostrar que el problema de valor inicial

$$\dfrac{dy}{dx} = \sin^{2}{(x -y)}; \hspace{1cm} y(0) = 0$$

posee una única solución definida en $\mathbb{R}$.

Solución: En este caso tenemos la función $f: U = \mathbb{R} \times \mathbb{R} \rightarrow \mathbb{R}$ definida como $f(x, y) = \sin^{2}{(x -y)}$. Es claro que $f$ es continua en la región $U = \mathbb{R} \times \mathbb{R}$ y su función derivada parcial $\dfrac{\partial f}{\partial y}: U \rightarrow \mathbb{R}$ está dada como

$$\dfrac{\partial f}{\partial y} = -2 \sin{(x -y) \cos{(x -y)}}$$

Como $|\sin{(x -y)}| \leq 1$ y $|\cos{(x -y)}| \leq 1$ para todo $(x, y) \in U$, entonces

$$\left| \dfrac{\partial f}{\partial y} (x, y) \right| \leq 2$$

para todo $(x, y) \in U$. En consecuencia $f$ es una función lipschitziana en $U$ respecto de la segunda variable. Con esto hemos probado que se satisfacen las hipótesis del teorema de existencia y unicidad global por lo que podemos asegurar que el PVI posee una única solución definida en $\mathbb{R}$.

$\square$

Calcular las iterantes no siempre será sencillo. En el ejemplo anterior las iterantes pueden no ser fácil de desarrollar pero debido a que satisface el teorema de Picard podemos asegurar que dichas iterantes van a converger a la solución del PVI.

Ejemplo: Mostrar que aplicando el resultado global del teorema de Picard al problema de valor inicial

$$\dfrac{dy}{dx} = y^{2}; \hspace{1cm} y(0) = 1$$

no es posible asegurar la existencia y unicidad de la solución.

Solución: La función $f: U = \mathbb{R} \times \mathbb{R} \rightarrow \mathbb{R}$ definida como $f(x, y) = y^{2}$ es continua en $U = \mathbb{R} \times \mathbb{R}$, sin embargo su derivada parcial $\dfrac{\partial f}{\partial y} = 2y$ no está acotada en $U$ por lo que $f$ no es una función lipschitziana en $U$.

Una observación más es que la solución al PVI dada por $y(x) = \dfrac{1}{1 -x}$ (verifícalo) no está definida en $\mathbb{R}$ si no en el intervalo $(-\infty, 1)$.

En definitiva, como no se cumple la tercera condición del teorema global de Picard entonces no podemos asegurar nada sobre la existencia y unicidad de la solución del PVI.

$\square$

Veamos ahora la importancia del resultado local del teorema de existencia y unicidad de Picard. Resolvamos de nuevo el ejemplo anterior pero ahora considerando una región $R$ alrededor del punto dado por la condición inicial.

Ejemplo: Mostrar que aplicando el resultado local del teorema de Picard, el problema de valor inicial

$$\dfrac{dy}{dx} = y^{2}; \hspace{1cm} y(0) = 1$$

posee una única solución. Encontrar el intervalo de existencia y unicidad.

Solución: Es claro que la función $f(x, y) = y^{2}$ es continua en $\mathbb{R}^{2}$ por lo que $f$ será una función lipschitziana en cualquier conjunto $R$ convexo y compacto. Consideremos el rectángulo centrado en el valor inicial $(0, 1)$ de dimensiones $a = 2$ y $b = 1$, es decir

$$R = \{(x, y) \in \mathbb{R} \mid |x| \leq 2, |y -1| \leq 1\} = [-2, 2] \times [0, 2]$$

En la región $R$ la función $f$ si es lipschitziana y continua por lo que se satisfacen las condiciones del teorema local de existencia y unicidad de Picard. Este teorema nos dice que existe una única solución definida en el intervalo $\delta = [x_{0} -h, x_{0} + h]$ donde

$$ h = \min \left\{a,\dfrac{b}{M} \right\} \hspace{1cm} y \hspace{1cm} M \geq \max_{(x, y) \in R}|f(x, y)|$$

En este caso

$$M = \max_{(x, y) \in R}|f(x, y)| = \max_{(x, y) \in R}|y^{2}| = 4$$

Ya que el máximo valor que puede tomar $y$ en el rectángulo $R$ es $y = 2$. Usando este resultado tenemos que

$$h = \min \left\{a,\dfrac{b}{M} \right\} = \min \left\{2,\dfrac{1}{4} \right\} = \dfrac{1}{4}$$

Por lo tanto, podemos asegurar la existencia y unicidad de la solución del PVI en el intervalo

$$\delta = [x_{0} -h, x_{0} + h] = \left[ -\dfrac{1}{4}, \dfrac{1}{4} \right]$$

Además podemos asegurar que las iterantes de Picard convergen uniformemente en el intervalo $\delta$ hacia la solución única del PVI. A saber, convergen a $y(x) = \dfrac{1}{1 -x}$.

$\square$

Con esto concluimos la primera unidad del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Completa la demostración de la unicidad de la solución a un problema de valor inicial que cumple con las hipótesis del teorema global de existencia y unicidad. Recuerda que el objetivo es demostrar que

$$\lim_{n \to \infty} |\hat{y}(x) -y_{n}(x)| = 0$$

  1. Comprueba que el siguiente problema de valor inicial

$$\dfrac{dy}{dx} = \dfrac{y}{x}; \hspace{1cm} y(0) = 0$$

posse infinitas soluciones en cualquier intervalo $\delta$ en el que $0 \in \delta$.

¿Porqué no contradice esto al teorema de existencia y unicidad local ?.

  1. Determinar, por el método de iterantes de Picard, la solución del siguiente problema de valor inicial:

$$\dfrac{dy}{dx} = 2y(1 + x); \hspace{1cm} y(-1) = 1$$

  1. Comprueba que el mayor intervalo que proporciona el teorema local de existencia y unicidad de Picard para el problema de valor inicial

$$\dfrac{dy}{dx} = 1 + x^{2}; \hspace{1cm} y(0) = 0$$

donde se asegura la existencia y unicidad de la solución, es $\delta = \left[-\dfrac{1}{2}, \dfrac{1}{2} \right]$.

Más adelante…

Con la demostración del teorema de existencia y unicidad de Picard-Lindelöf justificamos la teoría realizada a lo largo de esta primer unidad.

Como resumen de la unidad, aprendimos lo que es una ecuación diferencial y cómo clasificarlas, aprendimos lo que es una solución o familia de soluciones de una ED y comenzamos a estudiarlas cualitativamente describiendo las curvas solución, vimos también que podemos obtener soluciones explícitas e implícitas. Estudiamos el método de las isóclinas para obtener los campos de pendientes y como caso especial estudiamos las ecuaciones autónomas cuyas soluciones se pueden describir en un diagrama fase en función de la ubicación de los puntos críticos de la ecuación.

Después del estudio cualitativo comenzamos a hacer un estudio analítico en el que desarrollamos varios métodos de resolución para distintos tipos de ecuaciones diferenciales, entre ellos, estudiamos el método de factor integrante y variación de parámetros para resolver ecuaciones lineales homogéneas y no homogéneas y para el caso de ecuaciones no lineales estudiamos las ecuaciones separables, homogéneas, exactas así como la ecuación de Bernoulli y de Riccati.

Toda esta teoría nos permite describir fenómenos que ocurren en el mundo ya que una ecuación diferencial puede ser vista como un modelo matemático que describe la realidad de un fenómeno.

Finalmente desarrollamos una teoría preliminar para demostrar el teorema de existencia y unicidad de Picard-Lindelöf y así lograr justificar la teoría desarrollada a lo largo del curso.

En la siguiente entrada comenzaremos la unidad 2 del curso. En dicha unidad estudiaremos las ecuaciones diferenciales de orden mayor a uno, en particular estudiaremos con mayor detalle las ecuaciones diferenciales de segundo orden.

Entradas relacionadas