Archivo de la etiqueta: Wronskiano

Ecuaciones Diferenciales I – Videos: Propiedades del conjunto de soluciones a un sistema lineal de ecuaciones de primer orden

Introducción

En la entrada anterior comenzamos el estudio de los sistemas de ecuaciones diferenciales de primer orden $$\begin{alignedat}{4} \dot{x_{1}} &= F_{1}(t,x_{1},x_{2},…,x_{n}) \\ \dot{x_{2}} &= F_{2}(t,x_{1},x_{2},…,x_{n}) \\ & \; \; \vdots \notag \\ \dot{x_{n}} &= F_{n}(t,x_{1},x_{2},…,x_{n}) \end{alignedat}$$ donde revisamos las principales definiciones y enunciamos el teorema de existencia y unicidad correspondiente a sistemas de primer orden y sus problemas de condición inicial. Es momento ahora de estudiar las principales propiedades que cumple el conjunto de soluciones a un sistema lineal de ecuaciones de primer orden, las cuales se comportan de una manera bastante similar al conjunto de soluciones a una ecuación de segundo orden lineal que revisamos en la unidad anterior.

Iniciaremos revisando al conjunto de soluciones al sistema lineal homogéneo $$\dot{\textbf{X}}={\textbf{A}}{\textbf{X}}$$ el cual cumple el principio de superposición, es decir, si tenemos $n$ soluciones, digamos ${\textbf{X}_{1}}(t), {\textbf{X}_{2}}(t),…,{\textbf{X}_{n}}(t)$, entonces cualquier combinación lineal de estas también lo será. Si recuerdas tus cursos de Álgebra Lineal, esta última propiedad nos dice que el conjunto de soluciones es cerrado bajo la suma y producto por escalar usuales definidos para matrices. Con estas operaciones, veremos que el conjunto de soluciones al sistema lineal homogéneo forma un espacio vectorial.

Posteriormente definiremos el Wronskiano de un subconjunto de soluciones al sistema lineal homogéneo, el cual es similar más no igual al Wronskiano que definimos para ecuaciones lineales de segundo orden. En la tarea moral demostrarás la relación que tienen estos dos Wronskianos.

Si hablamos del Wronskiano y del conjunto de soluciones como un espacio vectorial, debemos hablar también de dependencia e independencia lineal entre las soluciones al sistema. Además, demostraremos que si el Wronskiano no se anula entonces el subconjunto de soluciones es linealmente independiente. Además si lo último ocurre podremos expresar cualquier solución como una combinación lineal de las soluciones linealmente independientes. Con estos conceptos podremos definir a la matriz fundamental de soluciones del sistema, la cual revisaremos más a detalle en entradas posteriores.

Terminaremos revisando el caso no homogéneo $$\dot{\textbf{X}}={\textbf{A}}{\textbf{X}}+ {\textbf{Q}}$$ demostrando que su solución general será la suma de la solución general al sistema homogéneo y una solución particular al sistema no homogéneo.

El espacio vectorial del conjunto de soluciones a un sistema lineal homogéneo

En el primer video probamos el principio de superposición de soluciones al sistema lineal homogéneo. Además, vemos que el conjunto de soluciones al sistema forma un espacio vectorial con la suma y producto por escalar usuales para matrices.

El Wronskiano de un subconjunto de soluciones e independencia lineal

Definimos el Wronskiano de un subconjunto de soluciones al sistema lineal homogéneo, así como los conceptos de dependencia e independencia lineal de soluciones. Probamos un importante teorema que relaciona estos dos conceptos y nos dice cómo se ve la solución general al sistema. Finalizamos definiendo la matriz fundamental de soluciones del sistema.

Solución general al sistema lineal no homogéneo

Finalizamos la entrada demostrando que la solución general al sistema lineal no homogéneo es la suma de la solución general al sistema homogéneo y una solución particular al sistema no homogéneo.

Tarea moral

  • ¿El conjunto de soluciones a un sistema lineal no homogéneo forma un espacio vectorial con las operaciones usuales de matrices?
  • Prueba que $$\textbf{X}_{1}(t)=\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} ; \, \textbf{X}_{2}(t)=\begin{pmatrix} t \\ 2 \\ 0 \end{pmatrix} ; \, \textbf{X}_{3}(t)=\begin{pmatrix} t^{2} \\ t \\ 0 \end{pmatrix}$$ son linealmente independientes en $\mathbb{R}$.
  • Sean ${\textbf{X}_{1}}(t), {\textbf{X}_{2}}(t),…,{\textbf{X}_{n}}(t)$ soluciones al sistema $$\dot{\textbf{X}}={\textbf{A}}{\textbf{X}}$$ en el intervalo $[a,b]$. Demuestra que $W[{\textbf{X}_{1}}, {\textbf{X}_{2}},…,{\textbf{X}_{n}}](t)=0 \, \, \forall t \in [a,b]$, ó $W[{\textbf{X}_{1}}, {\textbf{X}_{2}},…,{\textbf{X}_{n}}](t) \neq 0 \, \, \forall t \in [a,b]$.
  • Considera el sistema lineal $$\dot{\textbf{X}}=\begin{pmatrix} 0 & -1 \\ -1 & 0 \end{pmatrix} \textbf{X}.$$ Prueba que $$\textbf{X}_{1}(t)=\begin{pmatrix} e^{t} \\ -e^{t} \end{pmatrix} ; \, \textbf{X}_{2}(t)=\begin{pmatrix} e^{-t} \\ e^{-t} \end{pmatrix}$$ son soluciones al sistema. Además prueba que son linealmente independientes en $\mathbb{R}$ y por lo tanto forma una matriz fundamental de soluciones al sistema.
  • Considera la ecuación $$\ddot{y}+p(t)\dot{y}+q(t)y=0$$ y su sistema de ecuaciones correspondiente $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 1 \\ -q(t) & -p(t) \end{pmatrix} \textbf{X}.$$ Prueba que si $\textbf{X}_{1}(t)$, $\textbf{X}_{2}(t)$ son soluciones linealmente independientes al sistema de ecuaciones, y si $y_{1}(t)$, $y_{2}(t)$ forman un conjunto fundamental de soluciones a la ecuación de segundo orden, entonces se satisface la identidad $$W[y_{1}, y_{2}](t)=cW[\textbf{X}_{1}, \textbf{X}_{2}](t)$$ para alguna constante $c \neq 0$.

Más adelante

En la siguiente entrada comenzaremos a resolver algunos sistemas lineales bastante sencillos. El método que estudiaremos será el de eliminación de variables, el cual consiste en eliminar variables dependientes hasta quedarnos con una ecuación diferencial de orden superior. Resolviendo esta última ecuación podremos encontrar la solución general al sistema original. Este método funciona para sistemas lineales con coeficientes constantes.

¡Hasta la próxima!

Entradas relacionadas

Ecuaciones Diferenciales I: Soluciones a ecuaciones diferenciales de orden superior

Introducción

En la entrada anterior comenzamos a estudiar los problemas con valores iniciales (PVI) y problemas con valores en la frontera (PVF), ambos para el caso de las ecuaciones diferenciales lineales de orden superior. Vimos también que si $y_{1}, y_{2}, \cdots, y_{k}$ son $k$ soluciones de una ecuación homogénea de $n$-ésimo orden en un intervalo $\delta$, entonces la combinación lineal $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$, donde las $c_{i}$, $i = 1, 2, \cdots, k$ son constantes, también es solución en el intervalo $\delta$, este resultado es conocido como principio de superposición y nuestro propósito en esta entrada es estudiar las propiedades de todas estas soluciones donde la independencia lineal de las funciones jugará un papel muy importante en la construcción del conjunto fundamental de soluciones y de la solución general.

Es importante tener presente el concepto de conjunto fundamental de soluciones presentado en la entrada anterior. A continuación se muestra de nuevo la definición.

Definición: Cualquier conjunto $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de $n$ soluciones linealmente independientes de una ecuación diferencial lineal homogénea de $n$-ésimo orden en un intervalo $\delta$ es un conjunto fundamental de soluciones en dicho intervalo.

Soluciones a ecuaciones diferenciales lineales de orden superior

Estamos interesados en soluciones linealmente independientes de una ecuación diferencial lineal homogénea de orden superior de la forma

\begin{align}
a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{1} \tag{1}
\end{align}

Al intentar responder la cuestión de si el conjunto de $n$ soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de (\ref{1}) es linealmente independiente podemos apelar directamente a la definición de independencia lineal, sin embargo esta pregunta se puede responder de una forma mecánica usando un determinante llamado el Wronskiano.

Definición: Supongamos que cada una de las funciones $f_{1}(x), f_{2}(x), \cdots, f_{n}(x)$ tiene al menos $n -1$ derivadas. El determinante

\begin{align}
W(f_{1}, f_{2}, \cdots, f_{n}) = \begin{vmatrix}
f_{1} & f_{2} & \cdots & f_{n} \\
f_{1}^{\prime} & f_{2}^{\prime} &\cdots &f_{n}^{\prime} \\
\vdots &\vdots & & \vdots \\
f_{1}^{(n -1)} & f_{2}^{(n -1)} & \cdots & f_{n}^{(n -1)}
\end{vmatrix} \label{2} \tag{2}
\end{align}

donde las primas denotan derivadas, se llama el Wronskiano de las funciones.

El Wronskiano es una herramienta que podemos utilizar para determinar si el conjunto de soluciones a la ecuación (\ref{1}) es un conjunto linealmente independiente y la forma de hacerlo es a través del siguiente teorema conocido como criterio para soluciones linealmente independientes.

Teorema: Sean $y_{1}, y_{2}, \cdots, y_{n}$, $n$ soluciones de la ecuación diferencial lineal homogénea de $n$-ésimo orden (\ref{1}) en el intervalo $\delta$. El conjunto de soluciones es linealmente independiente en $\delta$ si, y solo si $W(y_{1}, y_{2}, \cdots, y_{n}) \neq 0$ para toda $x$ en el intervalo $\delta$.

Este teorema nos dice que sólo basta mostrar que el Wronskiano es distinto de cero para garantizar que el conjunto de soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ es linealmente independiente y por tanto formará un conjunto fundamental de soluciones.

Al conjunto de soluciones linealmente independiente $\{y_{1}, y_{2}, \cdots, y_{n}\}$ de la ecuación (\ref{1}) se le denomina fundamental porque, así como cualquier vector en $\mathbb{R}^{3}$ se puede expresar como una combinación lineal de los vectores linealmente independientes $\hat{i}, \hat{j}$ y $\hat{k}$, cualquier solución a una ecuación de la forma (\ref{1}) se puede expresar como una combinación lineal de las $n$ soluciones del conjunto fundamental, podemos decir que las soluciones $\{y_{1}, y_{2}, \cdots, y_{n}\}$ son los bloques básicos para la solución general de la ecuación.

En el siguiente teorema se enuncia la forma general de la solución a la ecuación (\ref{1}).

Teorema: Sea $\{y_{1},y_{2}, \cdots, y_{n}\}$ un conjunto fundamental de soluciones de la ecuación diferencial lineal homogénea de $n$-ésimo orden (\ref{1}) en el intervalo $\delta$. Entonces la solución general de la ecuación en el intervalo es

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{3} \tag{3}$$

donde $c_{i} , i = 1,2, \cdots, n$ son constantes arbitrarias.

Aterricemos estas ideas generales al caso de las ecuaciones diferenciales lineales homogéneas de segundo orden.

Ecuaciones lineales homogéneas de segundo orden

Una ecuación diferencial lineal homogénea de segundo orden es de la forma

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{4} \tag{4}$$

Sobre esta ecuación desarrollaremos la siguiente teoría. Primero definamos el Wronskiano para el caso $n = 2$.

Definición: Sean $y_{1}(x)$ y $y_{2}(x)$ soluciones de la ecuación (\ref{4}), el Wronskiano de las funciones es

\begin{align}
W(y_{1}, y_{2}) = \begin{vmatrix}
y_{1} & y_{2} \\
\dfrac{dy_{1}}{dx} & \dfrac{dy_{2}}{dx} \\
\end{vmatrix} = y_{1}\dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} \label{5} \tag{5}
\end{align}

Ahora que conocemos la forma del Wronskiano para $n = 2$ demostremos el teorema de la solución general para el caso $n = 2$.

Teorema: Sean $y_{1}(x)$ y $y_{2}(x)$ soluciones de la ecuación (\ref{4}) en el intervalo $\delta$ y supongamos que $W(y_{1}, y_{2}) \neq 0$ para toda $x \in \delta$, entonces $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x)$ es la solución general de la ecuación diferencial (\ref{4}).

Demostración: Sea $y(x)$ una solución a la ecuación diferencial (\ref{4}) en el intervalo $\delta$ y sea $x_{0} \in \delta$ tal que $y(x_{0}) = \alpha$ y $\dfrac{dy}{dx}(x_{0}) = \beta$ con $\alpha$ y $\beta$ constantes. Supongamos que existen $c_{1}$ y $c_{2}$ constantes tales que

$$\alpha = c_{1}y_{1}(x_{0}) + c_{2}y_{2}(x_{0}) \label{6} \tag{6}$$

y

$$\beta = c_{1} \dfrac{dy_{1}}{dx}(x_{0}) + c_{2} \dfrac{dy_{2}}{dx}(x_{0}) \label{7} \tag{7}$$

esto debido a que por hipótesis $y_{1}(x)$ y $y_{2}(x)$ son soluciones a la ecuación diferencial y por tanto la combinación lineal también lo será. Aplicando el teorema de existencia y unicidad obtenemos que la solución $y(x)$ tiene que ser de la forma $y(x) = c_{1}y_{1} + c_{2}y_{2}$ por lo que nuestro problema se reduce a demostrar que las constantes $c_{1}$ y $c_{2}$ existen.

Si multiplicamos a la ecuación (\ref{6}) por $\dfrac{dy_{2}}{dx}(x_{0})$ y a la ecuación (\ref{7}) por $y_{2}(x_{0})$ obtenemos lo siguiente, respectivamente:

$$\alpha \dfrac{dy_{2}}{dx}(x_{0}) = c_{1}y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) + c_{2}y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \label{8} \tag{8}$$

y

$$\beta y_{2}(x_{0}) = c_{1} y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0}) + c_{2} y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \label{9} \tag{9}$$

Restémosle a la ecuación (\ref{8}) la ecuación (\ref{9}).

\begin{align*}
\alpha \dfrac{dy_{2}}{dx}(x_{0}) -\beta y_{2}(x_{0}) &= c_{1} y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -c_{1} y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \\
&= c_{1} \left( y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -y_{2}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) \right) \label{10} \tag{10}
\end{align*}

Sabemos que el Wronskiano, en $x = x_{0}$, está definido como

$$W(y_{1}(x_{0}), y_{2}(x_{0})) = y_{1}(x_{0}) \dfrac{dy_{2}}{dx}(x_{0}) -y_{2}(x_{0}) \dfrac{dy_{1}}{dx}(x_{0})$$

Por comodidad denotaremos a $W(y_{1}(x_{0}), y_{2}(x_{0}))$ como $W(x_{0})$. Entonces la ecuación (\ref{10}) se puede escribir de la siguiente manera:

$$\alpha \dfrac{dy_{2}}{dx}(x_{0}) -\beta y_{2}(x_{0}) = c_{1} W(x_{0})$$

Debido a que por hipótesis $W(y_{1}, y_{2}) \neq 0$ para toda $x \in \delta$, en particular lo es en $x = x_{0}$, por tanto podemos despejar a la constante $c_{1}$ y así obtener un valor para dicha constante lo que muestra su existencia.

Para obtener la expresión de $c_{2}$ seguimos el mismo camino, multiplicamos a la ecuación (\ref{6}) por $\dfrac{dy_{1}}{dx}(x_{0})$ y a la ecuación (\ref{7}) por $y_{1}(x_{0})$ y repetimos el mismo procedimiento demostrando que existe un valor para la constante $c_{2}$.

Como hemos encontrado valores para $c_{1}$ y $c_{2}$ entonces existen y por lo tanto la solución general a la ecuación (\ref{4}) es $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x)$.

$\square$

Ya hemos definido lo que es el conjunto fundamental de soluciones de una ecuación diferencial de orden $n$, para el caso $n = 2$ lo podemos definir de la siguiente manera:

Definición: Decimos que $\{ y_{1}(x), y_{2}(x) \}$ es un conjunto fundamental de soluciones para la ecuación (\ref{4}) si cualquier solución a la ED puede escribirse como combinación lineal de $y_{1}$ y $y_{2}$, o lo que es equivalente, que $y_{1}$ y $y_{2}$ sean linealmente independientes en $\delta$.

Así, si encontramos un conjunto fundamental de soluciones $\{ y_{1}(x), y_{2}(x) \}$, entonces $W(y_{1}, y_{2}) \neq 0$ para toda $x \in \delta$ y por tanto $y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x)$ será la solución general de la ecuación diferencial (\ref{4}).

Del criterio para soluciones linealmente independientes se puede hacer notar que cuando $y_{1}, y_{2}, \cdots, y_{n}$ son $n$ soluciones de la ecuación (\ref{1}) en un intervalo $\delta$, el Wronskiano $W(y_{1}, y_{2}, \cdots, y_{n})$ es siempre igual a cero o nunca es cero en todo $\delta$. Vamos a demostrar este hecho para el caso $n = 2$.

Teorema: Sean $a_{2}(x) \neq 0$, $a_{1}(x)$ y $a_{0}(x)$ funciones continuas en $\delta$ de la ecuación (\ref{4}) y sean $y_{1}(x)$ y $y_{2}(x)$ soluciones a la misma ecuación en $\delta$. Entonces $W(y_{1}, y_{2}) = 0$ o $W(y_{1}, y_{2}) \neq 0$ para todo $x \in \delta$.

Demostración: Como $y_{1}(x)$ y $y_{2}(x)$ son soluciones de la ecuación (\ref{4}), entonces

$$a_{2}(x) \dfrac{d^{2}y_{1}}{dx^{2}} + a_{1}(x) \dfrac{dy_{1}}{dx} + a_{0}(x)y_{1} = 0 \label{11} \tag{11}$$

y

$$a_{2}(x) \dfrac{d^{2}y_{2}}{dx^{2}} + a_{1}(x) \dfrac{dy_{2}}{dx} + a_{0}(x)y_{2} = 0 \label{12} \tag{12}$$

Si multiplicamos a la ecuación (\ref{11}) por $y_{2}$ y a la ecuación (\ref{12}) por $y_{1}$ obtenemos lo siguiente, respectivamente.

$$y_{2}a_{2}(x) \dfrac{d^{2}y_{1}}{dx^{2}} + y_{2} a_{1}(x) \dfrac{dy_{1}}{dx} + y_{2}a_{0}(x)y_{1} = 0 \label{13} \tag{13}$$

y

$$y_{1}a_{2}(x) \dfrac{d^{2}y_{2}}{dx^{2}} + y_{1}a_{1}(x) \dfrac{dy_{2}}{dx} + y_{1}a_{0}(x)y_{2} = 0 \label{14} \tag{14}$$

A la ecuación (\ref{14}) vamos a restarle la ecuación (\ref{13}):

$$a_{2}(x) \left( y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}} \right) + a_{1}(x) \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}\right) = 0 \label{15} \tag{15}$$

Sabemos que $W(y_{1}, y_{2}) = y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}$ y notemos lo siguiente:

\begin{align*}
\dfrac{dW}{dx} &= \dfrac{d}{dx} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx}\right) \\
&= \dfrac{dy_{1}}{dx} \dfrac{dy_{2}}{dx} + y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -\dfrac{dy_{2}}{dx} \dfrac{dy_{1}}{dx} -y_{2} \dfrac{d^{2}y_{1}}{dx^{2}} \\
&= y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}}
\end{align*}

Es decir,

$$\dfrac{dW}{dx} = y_{1} \dfrac{d^{2}y_{2}}{dx^{2}} -y_{2}\dfrac{d^{2}y_{1}}{dx^{2}} \label{16} \tag{16}$$

En términos del Wronskiano la ecuación (\ref{15}) se puede escribir como

$$a_{2}(x) \dfrac{dW}{dx} + a_{1}(x) W = 0 \label{17} \tag{17}$$

Como $a_{2}(x) \neq 0$ para toda $x \in \delta$, entonces podemos definir la función $P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}$ tal que la ecuación (\ref{17}) se pueda escribir como

$$\dfrac{dW}{dx} + P(x) W = 0 \label{18} \tag{18}$$

La ecuación (\ref{18}) corresponde a una ecuación diferencial lineal homogénea de primer orden y ya sabemos que la solución es de la forma $W(x) = ke^{-\int{P(x)} dx}$, de manera que hay dos posibilidades:

  • Si $k = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} W(x) = 0, \hspace{0.5cm} \forall x \in \delta$
  • Si $k \neq 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} W(x) \neq 0, \hspace{0.5cm} \forall x \in \delta$

$\square$

El criterio para soluciones linealmente independientes nos garantiza que si el Wronskiano es distinto de cero entonces el conjunto de soluciones es linealmente independiente en $\delta$, lo opuesto es cierto bajo ciertas condiciones, si el Wronskiano es igual a cero entonces el conjunto de soluciones es linealmente dependiente. Demostremos este hecho.

Teorema: Sean $a_{2}(x) \neq 0$, $a_{1}(x)$ y $a_{0}(x)$ funciones continuas en $\delta$ de la ecuación (\ref{4}) y sean $y_{1}$ y $y_{2} \neq 0$ soluciones a la misma ecuación en $\delta$. Supongamos que $W(y_{1}(x), y_{2}(x)) = 0$, $\forall x \in \delta$. Entonces $y_{1}(x)$ y $y_{2}(x)$ son linealmente dependientes.

Demostración: Por hipótesis $W(y_{1}(x), y_{2}(x)) = 0$, $\forall x \in \delta$, es decir

$$y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} = 0 \label{19} \tag{19}$$

Consideremos el siguiente resultado:

$$\dfrac{d}{dx} \left( -\dfrac{y_{1}}{y_{2}} \right) = \dfrac{1}{y^{2}_{2}} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2}\dfrac{dy_{1}}{dx} \right) \label{20} \tag{20}$$

Donde hemos considerado la hipótesis $y_{2} \neq 0$. Si usamos la hipótesis (\ref{19}) obtenemos que $\dfrac{d}{dx} \left( -\dfrac{y_{1}}{y_{2}} \right) = 0$, $\forall x \in \delta$, integrando esta ecuación obtenemos que $-\dfrac{y_{1}}{y_{2}} = -k$, o bien, $y_{1}(x) = k y_{2}(x)$, con $k$ una constante. Esto demuestra que $y_{1}$ y $y_{2}$ son linealmente dependientes.

$\square$

Hay que tener muy presentes las hipótesis de este teorema pues es posible que el Wronskiano sea cero aún cuando las funciones consideradas en un cierto intervalo sean linealmente independientes en él.

Como consecuencia del teorema anterior podemos establecer el criterio para soluciones linealmente independientes en el caso $n = 2$.

Corolario: Dos soluciones $y_{1}(x)$ y $y_{2}(x)$ de la ecuación diferencial (\ref{4}) son linealmente independientes en $\delta$ si, y sólo si $W(y_{1}(x), y_{2}(x)) \neq 0$, $\forall x \in \delta$.

Realicemos un ejemplo.

Ejemplo: En la entrada anterior de tarea moral tenías que verificar que las funciones $y_{1}(x) = e^{-3x}$ y $y_{2}(x) = e^{4x}$ forman un conjunto fundamental de soluciones de la ecuación diferencial $\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -12y = 0$ en $\delta = (-\infty, \infty)$. Vamos a demostrar esto mismo usando los teoremas vistos anteriormente.

Solución: Consideremos las soluciones $y_{1}(x) = e^{-3x}$ y $y_{2}(x) = e^{4x}$ y sus respectivas derivadas $\dfrac{dy_{1}}{dx} = -3e^{-3x}$ y $\dfrac{dy_{2}}{dx} = 4e^{4x}$. Calculemos el Wronskiano.

\begin{align*}
W(y_{1}, y_{2}) = \begin{vmatrix}
e^{-3x} & e^{4x} \\
-3e^{-3x} & 4e^{4x} \\
\end{vmatrix} = e^{-3x}(4e^{4x}) -e^{4x}(-3e^{-3x}) = 7e^{-x} \neq 0
\end{align*}

Como $W(y_{1}, y_{2}) = 7 e^{-x} \neq 0$, entonces $\{ y_{1}(x) = e^{-3x}, y_{2}(x) = e^{4x}\}$ forma un conjunto fundamental de soluciones y la solución general está dada por $y(x) = c_{1}e^{-3x} + c_{2}e^{4x}$.

$\square$

Con esto concluimos el estudio de algunas propiedades importantes de las soluciones a la ecuación diferencial lineal homogénea de orden superior, terminemos esta entrada con el estudio del caso no homogéneo.

Ecuaciones NO homogéneas

La ecuación diferencial lineal no homogénea de $n$-ésimo orden es

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{21} \tag{21}$$

Nuestro objetivo es obtener la forma general de la solución a la ecuación no homogénea (\ref{21}) y estudiar algunas propiedades de las soluciones.

Definición: Una función $y_{p}(x)$ que es libre de parámetros arbitrarios y que satisface la ecuación diferencial lineal no homogénea de $n$-ésimo orden (\ref{21}) se dice que es una solución particular o integral particular de la ecuación.

Si recordamos al operador polinomial

$$\mathcal{L} = a_{n}(x)D^{n} + a_{n -1}(x)D^{n -1} + \cdots + a_{1}(x)D + a_{0}(x)$$

la definición anterior implica que $\mathcal{L}\{y_{p}\} = g(x)$. Veamos el siguiente resultado.

Teorema: Sean $y_{1}, y_{2}, \cdots, y_{n}$ soluciones a la ecuación diferencial homogénea (\ref{1}) en el intervalo $\delta$ y sea $y_{p}$ la solución particular de la ecuación no homogénea (\ref{21}) en $\delta$. Entonces la combinación lineal

$$y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p} \label{22} \tag{22}$$

es solución a la ecuación no homogénea (\ref{21}), en $\delta$.

Demostración: Sea $y(x)$ la combinación lineal $y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$, si aplicamos el operador polinomial, tenemos

\begin{align*}
\mathcal{L} \{y(x)\} &= \mathcal{L} \{c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}\} \\
&= c_{1}\mathcal{L}\{y_{1}\} + c_{2}\mathcal{L}\{y_{2}\} + \cdots + c_{n}\mathcal{L}\{y_{n}\} + \mathcal{L}\{y_{p}\} \\
&= 0 + g(x) \\
&= g(x)
\end{align*}

Ya que $\mathcal{L}\{y_{i}\} = 0$ para cada $i = 1, 2, \cdots, n$ por ser cada $y_{i}$ solución a la ecuación homogénea, mientras que $\mathcal{L}\{y_{p}\} = g(x)$ por ser solución a la ecuación no homogénea. Entonces, como $\mathcal{L} \{y(x)\} = g(x)$, concluimos que la combinación lineal $y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$ es solución a la ecuación diferencial no homogénea.

$\square$

¿Y qué ocurre si las soluciones $y_{1}, y_{2}, \cdots, y_{n}$ forman un conjunto fundamental de soluciones?. La respuesta es que la combinación lineal $y(x) = c_{1}y_{1} + c_{2}y_{2} + \cdots + c_{n}y_{n} + y_{p}$ sería la solución general a la ecuación diferencial no homogénea (\ref{21}). Demostremos este resultado.

Teorema: Sea $y_{p}(x)$ cualquier solución particular de la ecuación diferencial lineal no homogénea de $n$-ésimo orden (\ref{21}) en el intervalo $\delta$, y sea $\{ y_{1}, y_{2}, \cdots, y_{n} \}$ un conjunto fundamental de soluciones de la ecuación diferencial homogénea asociada (\ref{1}) en $\delta$. Entonces la solución general de la ecuación no homogénea es

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) + y_{p}(x) \label{23} \tag{23}$$

en el intervalo $\delta$ y donde $c_{i}, i = 1, 2, \cdots, n$ son constantes arbitrarias.

Demostración: Sea $y(x)$ la solución general de la ecuación no homogénea (\ref{21}) y sea $y_{p}(x)$ una solución particular de la misma ecuación, ambas definidas en el intervalo $\delta$, de manera que $\mathcal{L} \{ y(x)\} = \mathcal{L} \{ y_{p}(x)\} = g(x)$, con $\mathcal{L}$ el operador polinomial. Nuestro objetivo es encontrar la forma explícita de $y(x)$.

Definamos la función $h(x) = y(x) -y_{p}(x)$ y notemos lo siguiente:

\begin{align*}
\mathcal{L} \{ h(x) \} &= \mathcal{L} \{ y(x) -y_{p}(x) \} \\
&= \mathcal{L} \{ y(x) \} -\mathcal{L} \{ y_{p}(x) \} \\
&= g(x) -g(x) \\
&= 0
\end{align*}

Esto es, $\mathcal{L} \{ h(x) \} = 0$, lo que significa que la función $h(x)$ es solución a la ecuación homogénea (\ref{1}) y por el teorema de la solución general de ecuaciones homogéneas podemos establecer que la función $h(x)$ tiene la siguiente forma:

$$h(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{24} \tag{24}$$

Con $\{ y_{1}, y_{2}, \cdots, y_{n} \}$ un conjunto fundamental de soluciones. Sustituyendo (\ref{24}) en $h(x) = y(x) -y_{p}(x)$ y despejando a la solución general $y(x)$ obtenemos finalmente que

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) + y_{p}(x)$$

que es lo que queríamos demostrar.

$\square$

Recuerda, la diferencia entre las soluciones $(\ref{22})$ y $(\ref{23})$ es que en $(\ref{23})$ las $y_{i}, i = 1, 2, \cdots, n$ forman un conjunto fundamental de soluciones, es decir, son linealmente independientes entre sí, mientras que en (\ref{22}) no necesariamente forman una conjunto fundamental y sin embargo, también son solución a la ecuación (\ref{21}).

En el caso de las ecuaciones no homogéneas vemos que la solución general corresponde a la suma de la solución general de la ecuación homogénea asociada más una solución particular de la ecuación no homogénea, en este caso no homogéneo la solución general de la ecuación homogénea tiene un nombre especial.

Definición: La combinación lineal $y_{c}(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x)$, que es la solución general de la ecuación diferencial lineal homogénea de $n$-ésimo orden (\ref{1}), se denomina función complementaria para la ecuación no homogénea (\ref{21}).

Por tanto, resolver una ecuación lineal no homogénea implica resolver primero la ecuación homogénea asociada para obtener la función complementaria $y_{c}(x)$ y luego se encuentra una solución particular $y_{p}(x)$ a la ecuación no homogénea para finalmente sumarlas $y(x) = y_{c}(x) + y_{p}(x)$.

Realicemos un ejemplo.

Ejemplo: Probar que la función $y(x) = c_{1} e^{2x} + c_{2}x e^{2x} + x^{2} e^{2x} + x -2$, definida en el intervalo $\delta = (-\infty, \infty)$, es la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2 e^{2x} + 4x -12$$

Solución: Primero probemos que las funciones $y_{1} = e^{2x}$ y $y_{2} = x e^{2x}$ forman un conjunto fundamental de soluciones de la ecuación homogénea asociada

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 0$$

Para ello veamos que $y_{1}$ y $y_{2}$ son soluciones de la ecuación homogénea y que son linealmente independientes, es decir, que $W(y_{1}, y_{2}) \neq 0$. Calculemos las derivadas.

$$y_{1} = e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{dy_{1}}{dx} = 2 e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{1}}{dx^{2}} = 4 e^{2x}$$

$$y_{2} = xe^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{dy_{2}}{dx} = e^{2x} + 2x e^{2x} \hspace{1cm} \Rightarrow \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} = 4 e^{2x} + 4x e^{2x}$$

Si sustituyes los valores correspondientes en la ecuación homogénea notaras que se satisface la ecuación, es decir, se cumple que

$$\dfrac{d^{2}y_{1}}{dx^{2}} -4 \dfrac{dy_{1}}{dx} + 4y_{1} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} -4 \dfrac{dy_{2}}{dx} + 4y_{2} = 0$$

Por lo tanto, ambas son soluciones de la ecuación homogénea. Calculemos el Wronskiano.

\begin{align*}
W(y_{1}, y_{2}) = \begin{vmatrix}
e^{2x} & xe^{2x} \\
2 e^{2x} & e^{2x} + 2x e^{2x} \\
\end{vmatrix} = e^{2x}(e^{2x} + 2x e^{2x}) -xe^{2x}(2e^{2x}) = e^{4x} \neq 0
\end{align*}

Como $W(y_{1}, y_{2}) \neq 0$, $\forall x \in \delta$, por los teoremas vistos anteriormente concluimos que $\{y_{1} = e^{2x}, y_{2} = x e^{2x} \}$ forma un conjunto fundamental de soluciones de la ecuación homogénea asociada y que la solución general a dicha ecuación es $y_{c}(x) = c_{1} e^{2x} + c_{2}x e^{2x}$, donde el subíndice $c$ indica que es la función complementaria.

Ahora verifiquemos que la función $y_{p}(x) = x^{2} e^{2x} + x -2$ es una solución particular de la ecuación no homogénea. Calculemos la primera y segunda derivada.

$$\dfrac{dy_{p}}{dx} = 2x e^{2x} + 2x^{2} e^{2x} + 1$$

$$\dfrac{d^{2}y_{p}}{dx^{2}} = 2 e^{2x} + 8x e^{2x} + 4x^{2} e^{2x}$$

Sustituyendo en la ecuación diferencial tenemos

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y &= (2 e^{2x} + 8x e^{2x} + 4x^{2} e^{2x}) -4(2x e^{2x} + 2x^{2} e^{2x} + 1) +4(x^{2} e^{2x} + x -2) \\
&= 2e^{2x} + (8x e^{2x} -8x e^{2x}) + (4x^{2} e^{2x} -8x^{2} e^{2x} + 4x^{2} e^{2x}) + 4x -12 \\
&= 2e^{2x} +4x -12
\end{align*}

Esto es, $\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} +4x -12$, que justo corresponde a la ecuación diferencial no homogénea, por lo tanto, efectivamente $y_{p}$ es una solución particular.

Como $\{y_{1} = e^{2x}, y_{2} = x e^{2x} \}$ es un conjunto fundamental de soluciones de la ecuación homogénea asociada y $y_{p}(x) = x^{2} e^{2x} + x -2$ es una solución particular de la ecuación no homogénea, por el teorema de la solución general de ecuaciones no homogéneas concluimos que la función $y(x) = c_{1} e^{2x} + c_{2}x e^{2x} + x^{2} e^{2x} + x -2$ es la solución general a la ecuación no homogénea.

$\square$

Hay algo muy curioso que ocurre en el ejemplo anterior. Mostramos que la función $y_{p}(x) = x^{2} e^{2x} + x -2$ es una solución particular de la ecuación no homogénea

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} +4x -12 = g(x)$$

Sin embargo, si haces los cálculos correspondientes notarás que la función $y_{p1}(x) = x^{2} e^{2x}$ es una solución particular de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 2e^{2x} = g_{1}(x)$$

mientras que la función $y_{p2}(x) = x -2$ es una solución particular de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + 4y = 4x -12 = g_{2}(x)$$

Así, si superponemos las soluciones particulares $y_{p}(x) = y_{p1}(x) + y_{p2}(x)$ obtenemos en la ecuación diferencial la superposición de la funciones $g(x) = g_{1}(x) + g_{2}(x)$.

Lo anterior es efecto del principio de superposición para ecuaciones no homogéneas.

Teorema: Sean $y_{p1}, y_{p2}, \cdots, y_{pk}$, $k$ soluciones particulares de la ecuación diferencial lineal no homogénea de $n$-ésimo orden (\ref{21}) en un intervalo $\delta$, que corresponde, a su vez, a $k$ funciones diferentes $g_{1}, g_{2}, \cdots, g_{k}$. Es decir, se supone que $y_{pi}$ denota una solución particular de la ecuación diferencial correspondiente

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g_{i}(x) \label{25} \tag{25}$$

donde $i = 1, 2, , \cdots, k$. Entonces,

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x) \label{26} \tag{26}$$

es una solución particular de

$$a_{n} \dfrac{d^{n}y}{dx^{n}} + a_{n-1} \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1} \dfrac{dy}{dx} + a_{0}y = g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x) \label{27} \tag{27}$$

Demostración: Sea $\mathcal{L}$ el operador polinomial y sean $y_{pi}(x)$, $i = 1, 2, \cdots, k$, soluciones particulares de las ecuaciones no homogéneas $\mathcal{L} \{ y_{pi}(x) \} = g_{i}$, $i = 1, 2, \cdots, k$ respectivamente. Vamos a definir la función

$$y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x)$$

Nuestro objetivo es demostrar que la función $y_{p}(x)$ es una solución particular de la ecuación (\ref{27}), es decir, que se cumple que

$$\mathcal{L} \{ y_{p}(x) \} = g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x)$$

En efecto

\begin{align*}
\mathcal{L} \{ y_{p}(x)\} &= \mathcal{L} \{ y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x) \} \\
&= \mathcal{L} \{ y_{p1}(x) \} + \mathcal{L} \{ y_{p2}(x) \} + \cdots + \mathcal{L} \{ y_{pk}(x) \} \\
&= g_{1}(x) + g_{2}(x) + \cdots + g_{k}(x)
\end{align*}

Con esto queda probado que $y_{p}(x) = y_{p1}(x) + y_{p2}(x) + \cdots + y_{pk}(x)$ es solución de (\ref{27}).

$\square$

Corolario: Si la soluciones $y_{pi}(x)$ son soluciones particulares de (\ref{25}) para $i = 1, 2, \cdots, k$, entonces la combinación lineal

$$y_{p}(x) = c_{1}y_{p1}(x) + c_{2}y_{p2}(x) + \cdots + c_{k}y_{pk}(x) \label{28} \tag{28}$$

donde las $c_{i}$ son constantes, es también una solución particular de la ecuación diferencial

$$a_{n} \dfrac{d^{n}y}{dx^{n}} + a_{n-1} \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1} \dfrac{dy}{dx} + a_{0}y = c_{1}g_{1} + c_{2}g_{2} + \cdots + c_{k}g_{k} \label{29} \tag{29}$$

Realicemos un último ejemplo.

Ejemplo: Probar que

  • $y_{p1}(x) = -4x^{2} \hspace{0.5cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8$,
  • $y_{p2}(x) = e^{2x} \hspace{0.9cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = 2e^{2x}$,
  • $y_{p3}(x) = xe^{x} \hspace{0.9cm}$ es solución particular de $\hspace{0.5cm} \dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = 2x e^{x} -e^{x}$.

y probar que la superposición $y = y_{p1} + y_{p2} + y_{p3} = -4x^{2} + e^{2x} + xe^{x}$ es una solución de

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8 + 2e^{2x} + 2xe^{x} -e^{x}$$

Solución: Sean $g_{1}(x) = -16x^{2} + 24x -8$, $g_{2}(x) = 2e^{2x}$ y $g_{3}(x) = 2x e^{x} -e^{x}$, de tarea moral muestra que efectivamente

$$\dfrac{d^{2}y_{p1}}{dx^{2}} -3\dfrac{dy_{p1}}{dx} + 4y_{p1} = g_{1}(x)$$

$$\dfrac{d^{2}y_{p2}}{dx^{2}} -3\dfrac{dy_{p2}}{dx} + 4y_{p2} = g_{2}(x)$$

$$\dfrac{d^{2}y_{p3}}{dx^{2}} -3\dfrac{dy_{p3}}{dx} + 4y_{p3} = g_{3}(x)$$

Por el principio de superposición para ecuaciones no homogéneas sabemos que la función $y(x) = y_{p1}(x) + y_{p2}(x) + y_{p3}(x)$ es solución de la ecuación

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = g_{1}(x) + g_{2}(x) + g_{3}(x)$$

Por lo tanto, la función $y(x) = -4x^{2} + e^{2x} + xe^{x}$ es solución a la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} + 4y = -16x^{2} + 24x -8 + 2e^{2x} + 2xe^{x} -e^{x}$$

Si gustas puedes calcular la primera y segunda derivada de $y(x)$ y verificar la ecuación anterior para asegurarte del resultado.

$\square$

Con esto concluimos nuestro estudio sobre algunas propiedades de las ecuaciones diferenciales lineales de orden superior. En la siguiente entrada conoceremos un primer método para resolver ecuaciones diferenciales de segundo orden.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Dadas las soluciones a las siguientes ecuaciones diferenciales lineales homogéneas de orden superior en el intervalo dado, calcular el Wronskiano para determinar si es un conjunto fundamental de soluciones y en caso de serlo dar la solución general.
  • $x^{3} \dfrac{d^{3}y}{dx^{3}} + 6x^{2} \dfrac{d^{2}y}{dx^{2}} + 4x \dfrac{dy}{dx} -4y = 0$, con soluciones

$\hspace{1cm} y_{1} = x, \hspace{0.6cm} y_{2} = \dfrac{1}{x^{2}}, \hspace{0.6cm} y_{3} = \dfrac{1}{x^{2}} \ln(x); \hspace{1cm} \delta = (0, \infty)$.

  • $\dfrac{d^{4}y}{dx^{4}} + \dfrac{d^{2}y}{dx^{2}} = 0$, con soluciones

$\hspace{1cm} y_{1} = 1, \hspace{0.6cm} y_{2} = x, \hspace{0.6cm} y_{3} = \cos(x), \hspace{0.6cm} y_{4} = \sin(x); \hspace{1cm} \delta = (\infty, \infty)$.

  1. Dadas las soluciones a las siguientes ecuaciones diferenciales lineales NO homogéneas de orden superior en el intervalo dado, probar que se trata de la solución general a la ecuación.
  • $\dfrac{d^{2}y}{dx^{2}} -7 \dfrac{dy}{dx} + 10y = 24 e^{x}$, con solución

$\hspace{1cm} y(x) = c_{1} e^{2x} + c_{2} e^{5x} + 6 e^{x}; \hspace{1cm} \delta = (\infty, \infty)$.

  • $2x^{2} \dfrac{d^{2}y}{dx^{2}} + 5x \dfrac{dy}{dx} + y = x^{2} -x$, con solución

$\hspace{1cm} y(x) = c_{1} \dfrac{1}{\sqrt{x}} + c_{2} \dfrac{1}{x} + \dfrac{1}{15}x^{2} -\dfrac{1}{6}x; \hspace{1cm} \delta = (0, \infty)$.

  1. Comprobar que las funciones $y_{p1}(x) = 3 e^{2x}$ y $y_{p2}(x) = x^{2} + 3x$ son, respectivamente, soluciones particulares de

$$\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = -9 e^{2x} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = 5x^{2} + 3x -16$$

  1. Usando el ejercicio anterior, encontrar la solución particular de la ecuación

$\hspace{1cm}\dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = 5x^{2} + 3x -16 -9 e^{2x}$

$\hspace{1cm}$ y

$\hspace{1cm} \dfrac{d^{2}y}{dx^{2}} -6\dfrac{dy}{dx} + 5y = -10x^{2} -6x +32 + e^{2x}$.

Más adelante…

Ahora que ya conocemos algunas propiedades de las ecuaciones diferenciales de orden superior y sus soluciones, en particular de las lineales de segundo orden, es momento de comenzar a estudiar los distintos métodos de resolución de estas ecuaciones diferenciales.

En la siguiente entrada comenzaremos con un método que permite reducir una ecuación de segundo orden a una ecuación de primer orden de manera que podremos resolverla aplicando alguno de los métodos vistos en la unidad anterior. No es casualidad que dicho método se conozca como método de reducción de orden.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales homogéneas de segundo orden. Propiedades del conjunto de soluciones

Introducción

Después de haber estudiado ecuaciones diferenciales de primer orden, llegamos a la segunda unidad del curso donde analizaremos ecuaciones diferenciales de segundo orden.

Dada la dificultad para resolver este tipo de ecuaciones, nos enfocaremos únicamente en las ecuaciones lineales de segundo orden, es decir, de la forma $$a_{0}(t)\frac{d^{2}y}{dt^{2}}+a_{1}(t)\frac{dy}{dt}+a_{2}(t)y=g(t).$$

En esta entrada comenzaremos con el caso de las ecuaciones homogéneas de segundo orden, es decir, cuando $g(t)$ es la función constante cero en un intervalo $(\alpha,\beta)$. Estudiaremos la teoría de las soluciones a este tipo de ecuaciones antes de analizar las distintas técnicas para resolverlas. Debido a que el conjunto de soluciones a este tipo de ecuaciones se comportan de buena manera, podremos encontrar la solución general a la ecuación si previamente conocemos dos soluciones particulares que cumplan una hipótesis que daremos a conocer en el intervalo $(\alpha,\beta)$. Definiremos el Wronskiano y la independencia lineal de dos soluciones a una ecuación diferencial, y probaremos distintos teoremas y propiedades de las soluciones con base en estos conceptos.

Comencemos!

Ecuaciones lineales homogéneas de segundo orden, Teorema de existencia y unicidad y solución general

En este video damos una introducción a las ecuaciones diferenciales de segundo orden, y en particular, a las ecuaciones lineales de segundo orden. Enunciamos el Teorema de existencia y unicidad para ecuaciones lineales de segundo orden, y comenzamos a desarrollar la teoría para encontrar la solución general a ecuaciones homogéneas.

Conjunto fundamental de soluciones y el Wronskiano

Continuamos con la teoría de las soluciones a ecuaciones homogéneas de segundo orden. Demostramos un par de teoremas que nos ayudan a encontrar la solución general a este tipo de ecuaciones. Además definimos al conjunto fundamental de soluciones de la ecuación homogénea y el Wronskiano de dos funciones.

Independencia lineal de soluciones

En este último video definimos el concepto de independencia lineal de soluciones a la ecuación homogénea de segundo orden, y demostramos un teorema que nos da otra forma de encontrar un conjunto fundamental de soluciones a la ecuación diferencial homogénea.

Tarea moral

  • Prueba que $y_{1}(t)=\sin{t}$ y $y_{2}(t)=\cos{t}$ son soluciones a la ecuación diferencial $\frac{d^{2}y}{dt^{2}}+y=0$. Posteriormente prueba que $y(t)=k_{1}\sin{t}+k_{2}\cos{t}$ también es solución a la ecuación, donde $k_{1}$, $k_{2}$ son constantes.
  • Prueba que $\{\sin{t},\cos{t}\}$ es un conjunto fundamental de soluciones a la ecuación del ejercicio anterior. ¿En qué intervalo es el conjunto anterior un conjunto fundamental de soluciones?
  • Prueba que si $p(t)$, $q(t)$ son continuas en $(\alpha,\beta)$, $y_{1}(t)$, $y_{2}(t)$ son soluciones a la ecuación $\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$ en $(\alpha,\beta)$ y existe $t_{0}$ en dicho intervalo, donde $W[y_{1},y_{2}](t_{0})\neq 0$, entonces $\{y_{1}(t),y_{2}(t)\}$ forman un conjunto fundamental de soluciones en $(\alpha,\beta)$.
  • Prueba que si $p(t)$, $q(t)$ son continuas en $(\alpha,\beta)$, entonces existe un conjunto fundamental de soluciones $\{y_{1}(t),y_{2}(t)\}$ a la ecuación $\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$ en el mismo intervalo. (Hint: Toma un punto en el intervalo $(\alpha,\beta)$ y dos problemas de condición inicial adecuados de tal forma que puedas utilizar el Teorema de existencia y unicidad y el Wronskiano para deducir el resultado).
  • Prueba que $y_{1}(t)=t|t|$, $y_{2}(t)=t^{2}$ son linealmente independientes en $[-1,1]$ pero linealmente dependientes en $[0,1]$. Verifica que el Wronskiano se anula en $\mathbb{R}$. ¿Pueden ser $y_{1}(t)$, $y_{2}(t)$ soluciones a la ecuación $\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$ en $(-1,1)$ si $p$ y $q$ son continuas en este intervalo?

Más adelante

.En la próxima entrada conoceremos el método de reducción de orden, donde supondremos que ya conocemos una solución particular $y_{1}(t)$ a la ecuación lineal homogénea de segundo orden, y con ayuda de esta hallaremos una segunda solución $y_{2}(t)$ tal que forma un conjunto fundamental de soluciones junto con $y_{1}$.

Entradas relacionadas