Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Ecuaciones Diferenciales I: Ecuación de Cauchy – Euler

Por Omar González Franco

Las matemáticas puras son, en su forma, la poesía de las ideas lógicas.
– Albert Einstein

Introducción

Más adelante en esta unidad estudiaremos las ecuaciones diferenciales de orden superior con coeficientes variables, éstas ecuaciones suelen ser mucho más difícil de resolver ya que no se resuelven en términos de funciones elementales, una estrategia usual es suponer una solución en forma de series infinitas y proceder de manera similar al método de coeficientes indeterminados. Sin embargo, existe una ecuación diferencial de coeficientes variables que es una excepción, pues su solución general siempre se puede expresar en términos de potencias de $x$, senos, cosenos y funciones logarítmicas, dicha ecuación es conocida como ecuación de Cauchy – Euler y dedicaremos esta entrada a estudiarla, así como su método de resolución.

Decidimos estudiar esta ecuación en este momento debido a que el método de resolución es bastante similar al de las ecuaciones con coeficientes constantes en los que se debe resolver una ecuación auxiliar.

Ecuación de Cauchy – Euler

Enseguida nos damos cuenta de que los coeficientes

$$b_{n}(x) = a_{n}x^{n}, \hspace{0.5cm} b_{n -1}(x) = a_{n -1}x^{n -1}, \hspace{0.5cm} \cdots, \hspace{0.5cm} b_{1}(x) = a_{1}x^{1}, \hspace{0.5cm} b_{0}(x) = a_{0}x^{0}$$

son dependientes de $x$, es decir, son coeficientes variables, además la característica importante de esta ecuación es que el grado $k = n, n -1, \cdots, 1, 0$ de los coeficientes monomiales $x^{k}$ coincide con el orden $k$ de la derivación $\dfrac{d^{k}y}{dx^{k}}$.

Como se ha hecho a lo largo de la unidad, desarrollaremos con todo detalle el método de resolución de la ecuación de Cauchy – Euler para el caso de segundo orden, recordando que es posible extender el método a cualquier orden $n$ siguiendo el mismo razonamiento.

Iniciaremos nuestro análisis con un estudio detallado de las formas de las soluciones generales de la ecuación homogénea de segundo orden

$$ax^{2} \dfrac{d^{2}y}{dx^{2}} + bx \dfrac{dy}{dx} + cy = 0 \label{2} \tag{2}$$

con $a$, $b$ y $c$ constantes. Para resolver la ecuación no homogénea

$$ax^{2} \dfrac{d^{2}y}{dx^{2}} + bx \dfrac{dy}{dx} + cy = g(x) \label{3} \tag{3}$$

con $g(x) \neq 0$, basta aplicar el método de variación de parámetros (o de coeficientes indeterminados) una vez que se ha determinado la función complementaria $y_{c}$, es decir, la solución general de la ecuación homogénea (\ref{2}).

Una consideración importante es que el coeficiente $ax^{2}$ de $\dfrac{d^{2}y}{dx^{2}}$ es cero en $x = 0$, para garantizar los resultados fundamentales del teorema de existencia y unicidad y sean aplicables a la ecuación de Cauchy – Euler debemos encontrar soluciones generales definidas en el intervalo $\delta = (0, \infty)$. Las soluciones en el intervalo $(-\infty, 0)$ se obtienen al sustituir $t = -x$ en la ecuación diferencial.

Método de resolución

En el caso de las ecuaciones diferenciales con coeficientes constantes propusimos como solución una función de la forma

$$y(x) = e^{kx}$$

De manera similar, en este caso se prueba una solución de la forma

$$y(x) = x^{k}$$

Donde $k$ es un valor que se debe determinar. Al sustituir $x^{k}$, cada término de una ecuación de Cauchy – Euler se convierte en un polinomio en $k$ veces $x^{k}$, puesto que

\begin{align*}
a_{n}x^{n}\dfrac{d^{n}y}{dx^{n}} &= a_{n}x^{n} \left[ k(k -1)(k -2) \cdots (k -n + 1)x^{k -n} \right] \\
&= \left[ a_{n} k(k -1)(k -2) \cdots (k -n + 1) \right] x^{k}
\end{align*}

Por ejemplo, cuando sustituimos $y = x^{k}$ y las respectivas derivadas en la ecuación de segundo orden (\ref{2}), se obtiene

\begin{align*}
ax^{2} \dfrac{d^{2}y}{dx^{2}} + bx \dfrac{dy}{dx} + cy &= ax^{2}[k(k -1)x^{k -2}] + bx[kx^{k -1}] + cx^{k} \\
&= ak(k -1)x^{k} + bkx^{k} + cx^{k} \\
&= \left[ ak(k -1) + bk + c \right] x^{k} \label{4} \tag{4}
\end{align*}

Así, $y = x^{k}$ es una solución de la ecuación diferencial homogénea siempre que $k$ sea una solución de la ecuación auxiliar

$$ak(k -1) + bk + c = 0$$

o bien,

$$ak^{2} + (b -a)k + c = 0 \label{5} \tag{5}$$

Hay tres casos distintos a considerar que dependen de si las raíces de esta ecuación auxiliar son reales y distintas, reales e iguales o complejas.

Caso 1: Raíces reales y distintas

Sean $k_{1}$ y $k_{2}$ las raíces reales de (\ref{5}), tales que $k_{1} \neq k_{2}$. Entonces

$$y_{1} = x^{k_{1}} \hspace{1cm} y \hspace{1cm} y_{2} = x^{k_{2}}$$

forman un conjunto fundamental de soluciones. El Wronskiano esta dado como

\begin{align*}
W(x^{k_{1}}, x^{k_{2}}) &= \begin{vmatrix}
x^{k_{1}} & x^{k_{2}} \\
k_{1}x^{k_{1} -1} & k_{2}x^{k_{2} -1} \end{vmatrix} \\
&= k_{2}x^{(k_{1} + k_{2} -1)} -k_{1}x^{(k_{2} + k_{1} -1)}
\end{align*}

Como

$$W(x^{k_{1}}, x^{k_{2}}) = (k_{2} -k_{1}) x^{k_{1} + k_{2} -1} \neq 0$$

$\forall x \in \delta$, entonces la solución general de la ecuación de Cauchy – Euler para $x > 0$, en el caso en el que las raíces son reales y distintas, es

$$y(x) = c_{1}x^{k_{1}} + c_{2}x^{k_{2}} \label{6} \tag{6}$$

Caso 2: Raíces reales repetidas

Si las raíces de (\ref{5}) son repetidas, es decir $k_{1} = k_{2}$, entonces se obtiene sólo una solución particular

$$y = x^{k_{1}} = x^{k_{2}} = x^{k}$$

Cuando las raíces de la ecuación auxiliar (\ref{5}) son iguales, el discriminante necesariamente es cero, es así que de (\ref{5}) se deduce que las raíces deben ser

$$k = -\dfrac{(b -a)}{2a}$$

Cuando estudiamos el método de reducción de orden vimos que conocida una solución no trivial $y_{1}$, una segunda solución $y_{2}$, tal que $y_{1}$ y $y_{2}$ formen un conjunto fundamental de soluciones, puede ser determinada por la expresión

$$y_{2}(x) = y_{1}(x) \int{\dfrac{e^{-\int{P(x) dx}}}{y^{2}_{1}(x)}} \label{7} \tag{7}$$

Para usar este resultado escribamos a la ecuación de Cauchy – Euler en su forma estándar.

$$\dfrac{d^{2}y}{dx^{2}} + \dfrac{b}{ax} \dfrac{dy}{dx} + \dfrac{c}{ax^{2}}y = 0 \label{8} \tag{8}$$

Identificamos que

$$P(x) = \dfrac{b}{ax} \hspace{1cm} y \hspace{1cm} Q(x) = \dfrac{c}{ax^{2}}$$

Vemos que

$$\int{P(x) dx} = \int{\dfrac{b}{ax} dx} = \dfrac{b}{a} \ln(x)$$

Sustituyendo en (\ref{7}) obtenemos lo siguiente

\begin{align*}
y_{2}(x) &= x^{k} \int{\dfrac{e^{-(b/a) \ln(x)}}{x^{2k}} dx} \\
&= x^{k} \int{ \dfrac{x^{-b/a}}{x^{2k}} dx} \\
&= x^{k} \int{\dfrac{x^{-b/a}}{x^{-(b -a)/a}} dx} \\
&= x^{k} \int{ \dfrac{dx}{x}} \\
&= x^{k} \ln (x)
\end{align*}

En el proceso se ha considerado que

$$e^{-(b/a)}\ln (x) = e^{ \ln (x^{-b/a})} = x^{-b/a}$$

y

$$2k = -\dfrac{(b -a)}{a}$$

Entonces, la segunda solución es

$$y_{2}(x) = x^{k} \ln(x)$$

Vemos que

\begin{align*}
W(x^{k} ,x^{k} \ln (x)) &= \begin{vmatrix}
x^{k} & x^{k} \ln (x) \\
kx^{k -1} & kx^{k -1} \ln (x) + x^{k -1} \end{vmatrix} \\
&= kx^{2k -1} \ln (x) + x^{2k -1} -kx^{2k -1} \ln (x) \\
&= x^{2k -1}
\end{align*}

Como

$$W(x^{k} ,x^{k} \ln (x)) = x^{2k -1} \neq 0$$

$\forall x \in \delta$, entonces la solución general de la ecuación de Cauchy – Euler para $x > 0$, en el caso en el que las raíces son iguales, es

$$y(x) = c_{1}x^{k} + c_{2}x^{k} \ln(x) \label{9} \tag{9}$$

Para ecuaciones de orden superior, si $k$ es una raíz de multiplicidad $r$, entonces se puede demostrar que

$$x^{k}, \hspace{0.5cm} x^{k} \ln(x), \hspace{0.5cm} x^{k}(\ln(x))^{2}, \hspace{0.5cm} \cdots, \hspace{0.5cm} x^{k}(\ln(x))^{r -1}$$

son $r$ soluciones linealmente independientes. En correspondencia, la solución general de la ecuación diferencial debe contener una combinación lineal de estas $r$ soluciones.

Caso 3: Raíces complejas conjugadas

Si las raíces de (\ref{5}) son el par conjugado

$$k_{1} = \alpha + i \beta \hspace{1cm} y \hspace{1cm} k_{2} = \alpha -i \beta$$

Donde $\alpha$ y $\beta > 0$ son reales, entonces una solución es

$$y(x) = C_{1}x^{\alpha + i \beta} + C_{2}x^{\alpha -i \beta} \label{10} \tag{10}$$

De tarea moral muestra que

$$W(x^{\alpha + i \beta}, x^{\alpha -i \beta}) = -2i \beta x^{2\alpha -1} \neq 0$$

lo que indica que la solución (\ref{10}) está compuesta por las funciones del conjunto fundamental de soluciones de la ecuación diferencial de Cauchy – Euler.

Tal como lo hicimos en el caso de coeficientes constantes, se desea escribir la solución en términos de funciones reales. Consideremos la identidad

$$x^{i \beta} = (e^{\ln (x^{i \beta})}) = e^{i \beta \ln (x)} \label{11} \tag{11}$$

Usando la fórmula de Euler podemos escribir

$$x^{i \beta} = \cos \left( \beta \ln (x) \right) + i \sin \left( \beta \ln (x) \right) \label{12} \tag{12}$$

De forma similar,

$$x^{-i \beta} = \cos \left( \beta \ln (x) \right) -i \sin \left( \beta \ln (x) \right) \label{13} \tag{13}$$

Si se suman y restan los dos últimos resultados, se obtiene lo siguiente, respectivamente

$$x^{i \beta } + x^{-i \beta } = 2 \cos \left( \beta \ln (x) \right) \hspace{1cm} y \hspace{1cm} x^{i \beta } -x^{i \beta } = 2i \sin \left( \beta \ln (x) \right) \label{14} \tag{14}$$

Debido a que (\ref{10}) es una solución para cualquier valor de las constantes, podemos notar que si elegimos $C_{1} = C_{2} = 1$ y, por otro lado, $C_{1} = 1, C_{2} = -1$, obtenemos las siguientes dos soluciones, respectivamente

$$y_{1}(x) = x^{\alpha}(x^{i \beta} + x^{-i \beta}) \hspace{1cm} y \hspace{1cm} y_{2}(x) = x^{\alpha} (x^{i \beta} -x^{-i \beta}) \label{15} \tag{15}$$

Usando (\ref{14}) podemos escribir

$$y_{1}(x) = 2x^{\alpha} \cos \left( \beta \ln (x) \right) \hspace{1cm} y \hspace{1cm} y_{2}(x) = 2ix^{\alpha} \sin \left( \beta \ln (x) \right) \label{16} \tag{16}$$

De tarea moral muestra que

$$W(x^{\alpha} \cos \left( \beta \ln (x) \right), x^{\alpha } \sin \left(\beta \ln (x) \right) = \beta x^{2\alpha -1} \neq 0$$

Con esto se concluye que

$$y_{1}(x) = x^{\alpha} \cos \left( \beta \ln (x) \right) \hspace{1cm} y \hspace{1cm} y_{2}(x) = x^{\alpha} \sin \left( \beta \ln (x) \right) \label{17} \tag{17}$$

constituyen un conjunto fundamental de soluciones reales de la ecuación diferencial. Así, la solución general de la ecuación de Cauchy – Euler para $x > 0$, en el caso en el que las raíces son complejas conjugadas, es

$$y(x) = x^{\alpha} \left[ c_{1} \cos \left( \beta \ln (x) \right) + c_{2} \sin \left( \beta \ln (x) \right) \right] \label{18} \tag{18}$$

Realicemos algunos ejemplos en los que apliquemos cada caso.

Ejemplo: Resolver la ecuación de Cauchy – Euler

$$x^{2} \dfrac{d^{2}y}{dx^{2}} + \dfrac{2}{3}x \dfrac{dy}{dx} -\dfrac{2}{9}y = 0$$

Solución: Consideremos la solución $y = x^{k}$, las respectivas derivadas son

$$\dfrac{dy}{dx} = kx^{k -1} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = k(k -1)x^{k -2}$$

Sustituimos en la ecuación diferencial.

$$x^{2} \left[ k(k -1)x^{k -2} \right] + \dfrac{2}{3} x \left[ kx^{k -1} \right] -\dfrac{2}{9}x^{k} = x^{k} \left[ k(k -1) + \dfrac{2}{3}k -\dfrac{2}{9} \right] = 0$$

Como $x \neq 0$, entonces la ecuación auxiliar es

$$k(k -1) + \dfrac{2}{3}k -\dfrac{2}{9} = 0$$

o bien,

$$k^{2} -\dfrac{1}{3}k -\dfrac{2}{9} = 0$$

Resolviendo para $k$ obtenemos las raíces $k_{1} = \dfrac{2}{3}$ y $k_{2} = -\dfrac{1}{3}$. Como las raíces son reales y distintas, de acuerdo a (\ref{6}), la solución de la ecuación de Cauchy – Euler es

$$y(x) = c_{1}x^{2/3} + c_{2}x^{-1/3}$$

$\square$

Ejemplo: Resolver la ecuación de Cauchy-Euler

$$x^{2} \dfrac{d^{2}y}{dx^{2}} + 3x \dfrac{dy}{dx} + y = 0$$

Solución: Consideremos la solución $y = x^{k}$, las respectivas derivadas son

$$\dfrac{dy}{dx} = kx^{k -1} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = k(k -1)x^{k -2}$$

Sustituimos en la ecuación diferencial.

$$x^{2} \left[ k(k -1)x^{k -2} \right] + 3x \left[ kx^{k -1} \right] + x^{k} = x^{k} \left[ k(k -1) + 3k + 1 \right] = 0$$

Como $x \neq 0$, entonces la ecuación auxiliar es

$$k(k -1) + 3k + 1 = 0$$

o bien,

$$k^{2} + 2k + 1= 0$$

Resolviendo para $k$ obtenemos las raíces $k_{1} = k_{2} = -1$. Como las raíces son reales repetidas, por (\ref{9}) concluimos que la solución general de la ecuación de Cauchy – Euler es

$$y(x) = c_{1}x^{-1} + c_{2}x^{-1} \ln (x) = \dfrac{1}{x}[c_{1} + c_{2}\ln(x)]$$

$\square$

Ejemplo: Resolver la ecuación de Cauchy-Euler

$$3x^{2} \dfrac{d^{2}y}{dx^{2}} + 6x \dfrac{dy}{dx} + y = 0$$

Solución: Consideremos la solución $y = x^{k}$, las respectivas derivadas son

$$\dfrac{dy}{dx} = kx^{k -1} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = k(k -1)x^{k -2}$$

Sustituimos en la ecuación diferencial.

$$3x^{2} \left[ k(k -1)x^{k -2} \right] + 6x \left[ kx^{k -1} \right] + x^{k} = x^{k} \left[ 3k(k -1) + 6k + 1 \right] = 0$$

Como $x \neq 0$, entonces la ecuación auxiliar es

$$3k(k -1) + 6k + 1 = 0$$

o bien,

$$3k^{2} + 3k + 1 = 0$$

Resolviendo para $k$ obtenemos las raíces

$$k_{1} = -\dfrac{1}{2} + i \dfrac{1}{2 \sqrt{3}} \hspace{1cm} y \hspace{1cm} k_{2} = -\dfrac{1}{2} -i \dfrac{1}{2\sqrt{3}}$$

Identificamos que

$$\alpha = -\dfrac{1}{2} \hspace{1cm} y \hspace{1cm} \beta = \dfrac{1}{2\sqrt{3}}$$

Las raíces son complejas conjugadas, de manera que la solución esta dada por (\ref{18}). Así, la solución general de la ecuación de Cauchy – Euler es

$$y(x) = x^{-1/2} \left[ c_{1} \cos \left( \dfrac{1}{2 \sqrt{3}} \ln (x) \right) + c_{2} \sin \left( \dfrac{1}{2 \sqrt{3}} \ln (x) \right) \right]$$

$\square$

Caso no homogéneo

Para resolver la ecuación no homogénea (\ref{3}) podemos aplicar el método de variación de parámetros visto en la entrada anterior, pues basta encontrar el conjunto fundamental de soluciones $\{ y_{1}, y_{2}\}$ de la ecuación homogénea asociada y con ello aplicar la fórmula de la solución particular, esto es

$$y_{p}(x) = -y_{1}(x) \int{\dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} + y_{2}(x) \int{\dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{19} \tag{19}$$

Recordar que la función $g(x)$ se obtiene de la forma estándar de la ecuación diferencial.

Realicemos un ejemplo.

Ejemplo: Usando el método de variación de parámetros, resolver la ecuación de Cauchy – Euler

$$x^{2} \dfrac{d^{2}y}{dx^{2}} -x \dfrac{dy}{dx} + y = 2x$$

Solución: Debemos hallar el conjunto fundamental de soluciones, así que primero debemos resolver la ecuación homogénea asociada.

$$x^{2} \dfrac{d^{2}y}{dx^{2}} -x \dfrac{dy}{dx} + y = 0$$

Consideremos la solución $y = x^{k}$ y sus derivadas

$$\dfrac{dy}{dx} = kx^{k -1} \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = k(k -1)x^{k -2}$$

Sustituimos en la ecuación homogénea asociada.

$$x^{2} \left[ k(k -1)x^{k -2} \right] -x \left[ kx^{k-1} \right] + x^{k} = x^{k} \left[ k(k -1) -k + 1 \right] = 0$$

La ecuación auxiliar es

$$k^{2} -2k + 1 = 0$$

De donde $k_{1} = k_{2} = 1$, así la solución complementaria es

$$y_{c}(x) = c_{1} x + c_{2} x \ln (x)$$

Las funciones

$$y_{1}(x) = x \hspace{1cm} y \hspace{1cm} y_{2}(x) = x\ln(x)$$

conforman al conjunto fundamental de soluciones. Para determinar el Wronskiano vamos a considerar la primer derivada de cada solución.

$$\dfrac{dy_{1}}{dx} = 1 \hspace{1cm} y \hspace{1cm} \dfrac{dy_{2}}{dx} = \ln(x) + 1$$

Sustituimos en el Wronskiano

$$W = \begin{vmatrix}
x & x \ln(x) \\
1 & \ln(x) + 1
\end{vmatrix} = x \ln(x) + x -x\ln(x) = x$$

El Wronskiano es

$$W(x) = x$$

Para determinar la función $g$ dividamos entre $x^{2}$ la ecuación diferencial y así escribirla en su forma estándar.

$$\dfrac{d^{2}y}{dx^{2}} -\dfrac{1}{x} \dfrac{dy}{dx} + \dfrac{1}{x^{2}}y = \dfrac{2}{x}$$

Vemos que

$$g(x) = \dfrac{2}{x}$$

Ahora podemos sustituir en la solución particular (\ref{19}).

\begin{align*}
y_{p}(x) &= -x \int{ \dfrac{x \ln(x) \left( \dfrac{2}{x} \right)}{x} dx} + x \ln(x) \int{ \dfrac{x \left(\dfrac{2}{x} \right)}{x}dx} \\
&= -2x \int{ \dfrac{\ln(x)}{x} dx} + 2x \ln(x) \int{ \dfrac{dx}{x}} \\
&= -2x \dfrac{[\ln(x)]^{2}}{2} + 2x [\ln(x)]^{2} \\
&= x[\ln(x)]^{2}
\end{align*}

La solución particular es

$$y_{p}(x) = x[\ln (x)]^{2}$$

Por lo tanto, la solución general de la ecuación de Cauchy – Euler será la superposición de ambas soluciones, esto es

$$y(x) = c_{1}x + c_{2}x \ln(x) + x[\ln(x)]^{2}$$

$\square$

Reducción a coeficientes constantes

Las similitudes entre las formas de las soluciones de ecuaciones de Cauchy – Euler y soluciones de ecuaciones con coeficientes constantes no son una coincidencia.

Por ejemplo, cuando las raíces de las ecuaciones auxiliares para

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy =0$$

y

$$ax^{2} \dfrac{d^{2}y}{dx^{2}} + bx \dfrac{dy}{dx} + cy =0$$

son distintas y reales, las soluciones generales respectivas, para $x > 0$, son

$$y(x) = c_{1}e^{k_{1}x} + c_{2}e^{k_{2}x} \hspace{1cm} y \hspace{1cm} y(x) = c_{1}x^{k_{1}} + c_{2}x^{k_{2}} \label{20} \tag{20}$$

Usando la identidad

$$e^{\ln x} = x$$

Para $x> 0$, la segunda solución dada en (\ref{20}) puede expresarse en la misma forma que la primera solución.

$$y(x) = c_{1}e^{k_{1} \ln(x)} + c_{2}e^{k_{2} \ln (x)} = c_{1}e^{k_{1}t} + c_{2}e^{k_{2}t} \label{21} \tag{21}$$

donde $t = \ln (x)$. Este resultado ilustra que cualquier ecuación de Cauchy – Euler se puede escribir como una ecuación con coeficientes constantes haciendo la sustitución $x = e^{t}$ y con esto resolver la nueva ecuación diferencial en términos de la variable $t$, usando los métodos descritos en la entrada correspondiente y una vez obtenida la solución general, sustituir nuevamente $t = \ln (x)$. Este método requiere del uso de la regla de la cadena.

Si se hace la sustitución $x = e^{t}$, (o bien $t = \ln(x)$), aplicando la regla de la cadena obtenemos las siguientes expresiones para las derivadas.

$$\dfrac{dy}{dx} = \dfrac{dy}{dt} \dfrac{dt}{dx} = \dfrac{1}{x} \dfrac{dy}{dt} \label{22} \tag{22}$$

y

$$\dfrac{d^{2}y}{dx^{2}} = \dfrac{d}{dx} \left( \dfrac{1}{x} \dfrac{dy}{dt} \right) = -\dfrac{1}{x^{2}} \dfrac{dy}{dt} + \dfrac{1}{x^{2}} \dfrac{d^{2}y}{dt^{2}} = \dfrac{1}{x^{2}} \left( \dfrac{d^{2}y}{dt^{2}} -\dfrac{dy}{dt} \right) \label{23} \tag{23}$$

Sustituyendo en la ecuación de Cauchy – Euler obtenemos lo siguiente.

\begin{align*}
ax^{2} \dfrac{d^{2}y}{dx^{2}} + bx \dfrac{dy}{dx} + cy &= ax^{2} \left[ \dfrac{1}{x^{2}} \left( \dfrac{d^{2}y}{dt^{2}} -\dfrac{dy}{dt} \right) \right] + bx \left[ \dfrac{1}{x} \dfrac{dy}{dt} \right] + cy \\
&= a \dfrac{d^{2}y}{dt^{2}} + (b -a) \dfrac{dy}{dt} + cy
\end{align*}

Por lo tanto, haciendo la sustitución $x = e^{t}$ reducimos la ecuación de Cauchy – Euler a la ecuación

$$a\dfrac{d^{2}y(t)}{dt^{2}} + (b -a) \dfrac{dy(t)}{dt} + cy(t) = g(t) \label{24} \tag{24}$$

que corresponde a una ecuación diferencial con coeficientes constantes en donde la variable independiente es $t$.

Realicemos un ejemplo.

Ejemplo: Usar el cambio de variable $x= e^{t}$ para convertir la ecuación de Cauchy – Euler

$$x^{2} \dfrac{d^{2}y}{dx^{2}} -3x \dfrac{dy}{dx} + 13y = 4 + 3x$$

en una ecuación de coeficiente constantes y obtener la solución general.

Solución: Consideremos el cambio de variable $x = e^{t}$, usando los resultados (\ref{22}) y (\ref{23}), la ecuación de Cauchy – Euler queda como sigue

$$x^{2}\left[ \dfrac{1}{x^{2}} \left( \dfrac{d^{2}y}{dt^{2}} -\dfrac{dy}{dt} \right) \right] -3x \left[ \dfrac{1}{x} \dfrac{dy}{dt} \right] +13y = 4 + 3e^{t}$$

Esto es,

$$\dfrac{d^{2}y}{dt^{2}} -4 \dfrac{dy}{dt} + 13y = 4 + 3e^{t}$$

Ahora tenemos una ecuación no homogénea con coeficientes constantes. Comencemos por resolver la ecuación homogénea.

$$\dfrac{d^{2}y}{dt^{2}} -4 \dfrac{dy}{dt} + 13y = 0$$

La ecuación auxiliar es

$$k^{2} -4k + 13 = 0$$

Las raíces son

$$k_{1} = 2 + i3 \hspace{1cm} y \hspace{1cm} k_{2} = 2 -i3$$

Identificamos que $\alpha = 2 $ y $\beta = 3$, entonces la solución complementaria, en la variable $t$, es

$$y_{c}(t) = c_{1}e^{2t} \cos(3t) + c_{2}e^{2t} \sin(3t)$$

Las funciones correspondientes al conjunto fundamental de soluciones son

$$y_{1}(x) = e^{2t} \cos(3t) \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{2t} \sin(3t)$$

Las derivadas correspondientes son

$$\dfrac{dy_{1}}{dx} = 2e^{2t} \cos(3t) -3e^{2t} \sin(3t) \hspace{1cm} y \hspace{1cm} \dfrac{dy_{2}}{dx} = 2e^{2t} \sin(3t) + 3e^{2t} \cos(3t)$$

El Wronskiano esta dado por

$$W = \begin{vmatrix}
e^{2t} \cos(3t) & e^{2t} \sin(3t) \\
2e^{2t} \cos(3t) -3e^{2t} \sin(3t) & 2e^{2t} \sin(3t) + 3e^{2t} \cos(3t)
\end{vmatrix}$$

Calculando el determinante obtendremos

$$W(t) = 3e^{4t}$$

La ecuación diferencial ya se encuentra en su forma estándar, así que la función $g$ es

$$g(t) = 4 + 3e^{t}$$

Ahora podemos sustituir las funciones correspondientes en la solución particular (\ref{19}) para la variable $t$.

\begin{align*}
y_{p}(t) &= -e^{2t} \cos(3t) \int{ \dfrac{e^{2t} \sin(3t) (4 + 3e^{t})} {3e^{4t}} dt} + e^{2t} \sin(3t) \int{ \dfrac{e^{2t} \cos(3t) (4 + 3e^{t})}{3e^{4t}} dt} \\
&= -e^{2t} \cos(3t) \left[ \dfrac{4}{3} \int{ \dfrac{\sin(3t)}{e^{2t}} dt} + \int{ \dfrac{\sin(3t)}{e^{t}} dt }\right] \\
&+ e^{2t} \sin(3t) \left[ \dfrac{4}{3} \int{ \dfrac{\cos(3t)}{e^{2t}} dt} + \int{ \dfrac{\cos(3t)}{e^{t}} dt} \right]
\end{align*}


Las integrales se resuelven con integración por partes. De tarea moral desarrolla el cálculo de cada integral, los resultados correspondientes son

$$\int{ \dfrac{\sin(3t)}{e^{2t}} dt} = -\dfrac{2}{13}e^{-2t} \sin(3t) -\dfrac{3}{13}e^{-2t} \cos(3t)$$

$$\int{ \dfrac{\sin(3t)}{e^{t}} dt} = -\dfrac{3}{10}e^{-t} \cos(3t) -\dfrac{1}{10}e^{-t} \sin(3t)$$

$$\int{ \dfrac{\cos(3t)}{e^{2t}} dt} = -\dfrac{2}{13}e^{-2t} \cos(3t) + \dfrac{3}{13}e^{-2t} \sin(3t)$$

$$ \int{ \dfrac{\cos(3t)}{e^{t}} dt} = \dfrac{3}{10}e^{-t} \sin(3t) -\dfrac{1}{10}e^{-t} \cos(3t)$$

Sustituyendo estos resultados en $y_{p}(t)$ y reduciendo la expresión obtendremos la solución particular

$$y_{p}(t) = \dfrac{4}{13} + \dfrac{3}{10}e^{t}$$

Por tanto, la solución general en términos de la variable $t$ es

$$y(t) = c_{1}e^{2t} \cos(3t) + c_{2}e^{2t} \sin(3t) + \dfrac{4}{13} + \dfrac{3}{10}e^{t}$$

Si regresamos a la variable original $x = e^{t}$ obtenemos finalmente que la solución general de la ecuación de Cauchy – Euler es

$$y(x) = c_{1}x^{2} \cos[3 \ln(x)] + c_{2}x^{2} \sin[3 \ln(x)] + \dfrac{4}{13} + \dfrac{3}{10}x$$

$\square$

Con esto concluimos el estudio de la ecuación de Cauchy – Euler y en general con el estudio de las ecuaciones diferenciales lineales de orden superior con coeficientes constantes y ecuaciones sencillas con coeficientes variables.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver las siguientes ecuaciones de Cauchy – Euler.
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} -12y = 0$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} + 5x \dfrac{dy}{dx} + 4y = 0$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} -3x \dfrac{dy}{dx} + 5y = 0$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} + 4y = 0$
  • $25x^{2} \dfrac{d^{2}y}{dx^{2}} + 25x \dfrac{dy}{dx} + y = 0$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} + 5x \dfrac{dy}{dx} -5y = 0$
  1. Resolver las siguientes ecuaciones de Cauchy – Euler usando el método de variación de parámetros.
  • $2x^{2} \dfrac{d^{2}y}{dx^{2}} + 5x \dfrac{dy}{dx} + y = x^{2} -x$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} + x \dfrac{dy}{dx} -y = \dfrac{1}{x + 1}$
  1. Usar el cambio de variable $x = e^{t}$ para convertir las ecuaciones de Cauchy – Euler en ecuaciones diferenciales con coeficientes constantes y resolver la ecuación.
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} + 10x \dfrac{dy}{dx} + 8y = x^{2}$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} -4x \dfrac{dy}{dx} + 6y = \ln (x^{2})$
  1. Hacer una extensión a orden 3 de la teoría desarrollada en esta entrada y aplicando el método de variación de parámetros obtener la solución general de la siguiente ecuación de Cauchy – Euler.
  • $x^{3} \dfrac{d^{3}y}{dx^{3}} -3x^{2} \dfrac{d^{2}y}{dx^{2}} + 6x \dfrac{dy}{dx} -6y = 3 + \ln (x^{3})$

Más adelante…

Con esto concluimos la primera parte de la unidad dos. En la siguiente entrada abordaremos el tema de las oscilaciones mecánicas como ejemplo de aplicación de la teoría que hemos desarrollado hasta este momento.

En entradas posteriores haremos un estudio detallado sobre las ecuaciones diferenciales de orden superior con coeficientes variables y con ello cerraremos la segunda unidad.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios repetidos

Por Eduardo Vera Rosales

Introducción

En las últimas entradas hemos revisado el método de valores y vectores propios para resolver sistemas lineales homogéneos con coeficientes constantes de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$. Revisamos los casos cuando la matriz asociada tiene valores propios reales y todos distintos, y cuando tiene valores complejos. Para el primer caso las funciones $e^{\lambda_{i} t}\textbf{v}_{i}$ son soluciones linealmente independientes, donde $\lambda_{i}$ es un valor propio y $\textbf{v}_{i}$ es un vector propio asociado a $\lambda_{i}, \; \forall i \in \{1,…,n\}$. La solución general es la combinación lineal de dichas soluciones. Para el caso de valores propios complejos vimos que de una solución compleja $e^{\lambda_{i} t}\textbf{v}_{i}$ podíamos encontrar dos soluciones reales: la parte real y la parte imaginaria de dicha solución. Además estas soluciones resultaron ser linealmente independientes por lo que no fue difícil hallar la solución general al sistema de esta forma.

Vamos a terminar de revisar el método de valores y vectores propios analizando el caso cuando la matriz $\textbf{A}$ asociada al sistema tiene valores propios repetidos, tanto si es diagonalizable como si no lo es.

Iniciaremos con el caso cuando es $\textbf{A}$ es diagonalizable. Veremos que es bastante sencillo hallar $n$ vectores propios linealmente independientes ya que si $\lambda_{i}$ es un valor propio con multiplicidad $k$, entonces existirán $k$ vectores propios linealmente independientes asociados a dicho valor propio. Por lo tanto, podremos encontrar $n$ soluciones linealmente independientes al sistema y la solución general será la combinación lineal de estas.

Finalizaremos con el caso cuando $\textbf{A}$ no es diagonalizable, donde no existirán $n$ vectores propios linealmente independientes ya que para algún valor propio $\lambda_{i}$ con multiplicidad $k$ no existirán $k$ vectores propios linealmente independientes. Sin embargo, con ayuda de la exponencial de la matriz $\textbf{e}^{t \textbf{A}}$ y el concepto de vector propio generalizado podremos encontrar $k$ soluciones linealmente independientes correspondientes al valor propio $\lambda_{i}$. Nuevamente la solución general será la combinación lineal de las $n$ soluciones generadas de esta manera.

Método de valores y vectores propios para matrices diagonalizables con valores propios repetidos

Analizamos el caso cuando la matriz $\textbf{A}$ asociada al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ es diagonalizable y tiene valores propios repetidos. Resolvemos un par de sistemas para ejemplificar el caso correspondiente.

Método de valores y vectores propios para matrices no diagonalizables

En el primer video analizamos de manera general el caso cuando la matriz asociada al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ no es diagonalizable. Definimos el concepto de vector propio generalizado y con ayuda de la exponencial $\text{e}^{t \textbf{A}}$ generamos la solución general al sistema. En el segundo video resolvemos un par de ejemplos referentes al caso analizado.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Es posible tener una matriz $\textbf{A}$ de tamaño $3 \times 3$ con valores propios complejos repetidos?
  • Prueba que si $\lambda$ es un valor propio complejo con multiplicidad $k$ de $\textbf{A}$, entonces su conjugado $\bar{\lambda}$ tiene multiplicidad $k$.
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 0 & 0 & -1\\ 1 & 0 & 0 & 0\\ 0 & 1 & 0 & -2\\ 0 & 0 & 1 & 0\end{pmatrix}\textbf{X}.$$
  • Resuelve el problema de condición inicial $$\dot{\textbf{X}}=\begin{pmatrix} 1 & 3 & 3\\ 3 & 1 & 3\\ 3 & 3 & 1\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 0\\ 0 \end{pmatrix}.$$
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} 0 & -1 & 1\\ 2 & -3 & 1\\ 1 & -1 & -1\end{pmatrix}\textbf{X}.$$

Más adelante

Con esta entrada terminamos de analizar el método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Una vez que logramos resolver tales sistemas, es tiempo de estudiar el caso no homogéneo.

Como ya sabemos, la solución general a estos sistemas serán la suma de la solución general al sistema homogéneo correspondiente mas una solución particular al sistema no homogéneo. El método por el cual encontraremos esta solución particular será el de variación de parámetros, el cual estudiaremos en la siguiente entrada.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral I: Localización de máximos y mínimos. Monotonía de funciones

Por Karen González Cárdenas

Introducción

En cursos de Cálculo en el bachillerato, posiblemente resolviste ejercicios en los cuales te solicitaban hallar los puntos críticos de una función y realizar la gráfica de la misma basándote en ellos.
Recordemos primero que un punto crítico $x$ de una función $f$ es aquel que al evaluarlo en la derivada de $f$ nos da la siguiente igualdad:
$$f'(x)=0.$$

Y que en el conjunto de estos puntos críticos se encontraban los máximos y mínimos de la función $f$.
En esta entrada daremos las definiciones formales correspondientes y veremos los Criterios de las derivadas para identificarlos. También veremos resultados en los que, haciendo uso de la derivada, podremos determinar si una función es creciente o decreciente en un intervalo.

Máximo y mínimo global

Definición: Sea $f: D_f \subseteq \r \rightarrow \r$ una función y $x_0 \in D_f$. Decimos que en $x_0$ se alcanza:

  • Un máximo global si para toda $x \in D_f$ se cumple que:
    $$f(x)\leq f(x_0).$$
  • Un mínimo global si para toda $x \in D_f$ se cumple que:
    $$f(x_0)\leq f(x).$$

Máximo y mínimo local

Definición: Consideremos a una función $f$ continua en un intervalo $I$ y $x_0 \in (x_0-r, x_0+r) \subseteq I$ con $r\in \r^{+}$ y tenemos que existe $f(x_0)$ decimos que:

  • $x_0$ es un máximo local de $f \Leftrightarrow$ existe $r>0$ tal que para todo $x\in (x_0-r, x_0 +r)\subseteq D_f$ ocurre que:
    $$f(x)\leq f(x_0).$$
  • $x_0$ es un mínimo local de $f \Leftrightarrow$ existe $r>0$ tal que para todo $x\in (x_0-r, x_0 +r)\subseteq D_f$ ocurre que:
    $$f(x_0)\leq f(x).$$
  • $x_0$ no es máximo ni mínimo si existen $x_1, x_2$ tales que para toda $r>0$ y para cualquier $x\in(x_0-r, x_0 +r)$ ocurre que:
    $$f(x_1)<f(x_0)<f(x_2).$$

En la imagen anterior vemos que el punto $A$ es un máximo de la función y $B$ un mínimo.

La derivada y los puntos críticos

Teorema: Consideremos una función $f$ continua en un intervalo $I$ y es derivable en el punto $x_0 \in (x_0-r, x_0+r) \subseteq I$.

Si tenemos que $x_0$ es un máximo o un mínimo local de $f \Rightarrow f'(x_0)=0$.

Demostración: Tomemos $x_0$ máximo local de $f$, así por definición tenemos que existe $r_1>0$ tal que para cualquier $x \in (x_0-r_1, x_0+r_1)$ ocurre que:
$$ f(x) \leq f(x_0) .$$
O bien, si $x_0$ mínimo local de $f$ tenemos que existe $r_1>0$ tal que para cualquier $x \in (x_0-r_1, x_0+r_1)$ ocurre que:
$$f(x_0) \leq f(x).$$
Consideremos ahora $h$ tal que:
$$|h| \leq r_2= \text{min} \left\{r,r_1 \right\}.$$
Veremos el caso en que $x_0$ es máximo local de $f$.
Caso 1: Supongamos que $x_0$ es máximo.
Si tenemos que $h>0$ se sigue que:
\begin{align*}
f(x_0+h)< f(x_0) &\Rightarrow f(x_0+h)-f(x_0)<0\\
&\Rightarrow \frac{ f(x_0+h)-f(x_0) }{h}<0\\
&\Rightarrow \lim_{h \to 0^{+}} \frac{ f(x_0+h)-f(x_0) }{h} \leq 0\\
\end{align*}

Ya que $f$ es derivable en $x_0$ entonces podemos afirmar la siguiente igualdad:
$$ \lim_{h \to 0^{+}} \frac{ f(x_0+h)-f(x_0) }{h}=f'(x_0).$$
$$\therefore f'(x_0)\leq 0.$$

Ahora bien, si tenemos que $h<0$ tenemos que:
\begin{align*}
f(x_0+h)-f(x_0)<0 &\Rightarrow \frac{ f(x_0+h)-f(x_0) }{h}>0\\
&\Rightarrow \lim_{h \to 0^{-}} \frac{ f(x_0+h)-f(x_0) }{h}\geq 0
\end{align*}
$$\therefore f'(x_0) \geq 0.$$
$$\therefore 0\leq f'(x_0) \leq 0.$$

Y así concluimos que $f'(x_0)=0.$

$\square$

El Caso 2 considerando ahora que $x_0$ es mínimo se quedará como ejercicio de Tarea moral, para realizar la prueba se procede de manera análoga al caso que ya vimos.

Gráficamente el resultado anterior se vería como sigue:

donde en el intervalo en el que se encuentra el punto $A$ la recta tangente a dicho punto tiene pendiente cero, es decir, es una recta horizontal. Observamos que para el intervalo (representado por la franja rosa) en el que se encuentra el punto $B$ tenemos una situación similar.

La derivada y la monotonía de las funciones

Teorema: Consideremos $f$ una función e $I$ un intervalo.

  1. Si $f'(x) > 0$ para todo $x\in I \Rightarrow f$ es creciente en $I$.
  2. Si $f'(x) \geq 0$ para todo $x\in I \Rightarrow f$ es no decreciente en $I$.
  3. Si $f'(x) < 0$ para todo $x\in I \Rightarrow f$ es decreciente en $I$.
  4. Si $f'(x) \leq 0$ para todo $x\in I \Rightarrow f$ es no creciente en $I$.

Demostración 1:

Queremos probar que para cualesquiera $x_1,x_2 \in I$ donde si $x_1<x_2$ entonces:
$$f(x_1)<f(x_2).$$

Así tomemos $x_1,x_2$ en el intervalo $I$ con $x_1 < x_2$. Veamos que $[x_1,x_2] \subseteq I$ y que $f$ es derivable en $(x_1,x_2) \subseteq I$. Y además tenemos que $f$ es continua en $[x_1,x_2] \subseteq I$, aplicando el Teorema del valor medio para la derivada:
$\exists \alpha \in (x_1,x_2)$ tal que $f'(\alpha)=\frac{f(x_2)-f(x_1)}{x_2-x_1}$.
Por hipótesis tenemos que:
$$ f'(\alpha)=\frac{f(x_2)-f(x_1)}{x_2-x_1} >0.$$
Debido a que también supusimos $x_2-x_1>0$ para que se cumpla la desigualdad anterior necesariamente debe ocurrir que:
$$f(x_2)-f(x_1)>0 \Rightarrow f(x_2)>f(x_1).$$

$\square$

Criterio de la primera derivada

Teorema (Criterio de la primera derivada): Si $f'(x_0)=0$ y existe $r>0$ tal que:

  1. Para todo $x \in (x_0-r,x_0)$, $f'(x)<0$ y para todo $x \in (x_0,x_0+r)$, $f'(x)>0$
    $\Rightarrow x_0$ es mínimo local de $f$.
  2. Para todo $x\in (x_0-r,x_0)$, $f'(x)>0$ y para todo $x \in (x_0,x_0+r)$, $f'(x)<0$
    $\Rightarrow x_0$ es máximo local de $f$.

Demostración 1:

Sea $x \in (x_0-r, x_0)$ por hipótesis tenemos que $f'(x)<0$. Aplicando el teorema anterior afirmamos que $f$ es decreciente en $(x_0-r,x_0)$, así para cualquier $x < x_0$ en $(x_0-r, x_0)$:
$$f(x)>f(x_0).$$

Ahora tomando $x\in (x_0,x_0+r)$ tenemos que $f'(x)>0$. Y por el teorema anterior sabemos que $f$ es creciente en el intervalo $(x_0,x_0+r)$. Por definición para cualquier $x>x_0$ en $(x_0,x_0+r)$ ocurre que:
$$f(x_0)<f(x).$$
De lo anterior podemos concluir que para toda $x \in (x_0-r,x_0) \cup (x_0,x_0+r)= (x_0-r,x_0+r)$ se cumple la desigualdad:
$$f(x_0)<f(x).$$
que es justo la definición de $x_0$ mínimo local de $f$.

$\square$

A continuación veremos ejemplos donde aplicaremos los teoremas anteriores para localizar los máximos y mínimos de una función, como los intervalos donde es creciente o decreciente.

Ejemplo 1

Encuentra los puntos críticos de la siguiente función y determina si se trata de un máximo o un mínimo:
$$f(x)=(x-1)^{2}(x+1)^{3}$$

Solución:

Para encontrarlos seguiremos los siguientes pasos:
Paso 1: Hallamos la primera derivada de la función $f$.
\begin{align*}
f'(x)&= 2(x-1)(x+1)^{3}+3(x+1)^{2}(x-1)^{2}\\
&= (x-1)[2(x+1)^{3}+3(x+1)^{2}(x-1)]\\
&=(x-1)(x+1)^{2}[2(x+1)+3(x-1)]\\
&=(x-1)(x+1)^{2}[2x+2+3x+3]\\
&=(x-1)(x+1)^{2}(5x-1)\\
\therefore f'(x)&= (x-1)(x+1)^{2}(5x-1)
\end{align*}

Paso 2: Igualamos la derivada a cero para encontrar los puntos críticos.
$$f'(x)=0 \Leftrightarrow (x-1)(x+1)^{2}(5x-1) =0$$
El producto anterior lo cumple cuando:
\begin{align*}
(x+1)^{2} =0 & &\text{o}\quad 5x-1=0 & &\text{o}\quad x-1=0 \\
\sqrt{ (x+1)^{2}}= \sqrt{0} & &\text{o}\quad 5x=1& &\text{o}\quad x=1\\
x+1=0 & &\text{o}\quad x=\frac{1}{5}\\
x=-1
\end{align*}

Por lo que debemos determinar para $x=1$, $x=-1$ y $x=\frac{1}{5}$ si se trata de un máximo, un mínimo o ninguno de los dos.

Paso 3: Para determinar si es un máximo o mínimo, aplicando el Criterio de la primera derivada debemos sustituir en la primera derivada un valor $x_1<x$ para determinar si $f'(x_1)$ es positiva o negativa. De igual modo debemos evaluar una $x<x_2$ y obtener si $f'(x_2)$ es positiva o negativa.

Comencemos con $x=1$:
Si tomamos $x<1$ y sustituimos en $f'(x)=5(x-1)(x+1)^{2}(x-\frac{1}{5})$ a $x_1=\frac{1}{2}$ en la derivada
\begin{align*}
f’ \left(\frac{1}{2}\right)&= 5 \left(\frac{1}{2}-1\right) \left(\frac{1}{2}+1\right)^{2}\left(\frac{1}{2}-\frac{1}{5}\right)\\
&= 5\left(-\frac{1}{2}\right)\left(\frac{3}{2}\right)^{2}\left(\frac{3}{10}\right) \tag{que es negativo}
\end{align*}
Ahora para $x>1$ evaluamos $x_2=2$
\begin{align*}
f'(2)&= 5(2-1)(2+1)^{2}\left(2-\frac{1}{5}\right)\\
&=5(1)(3)^{2}\left(\frac{9}{5}\right) \tag{que es positivo}
\end{align*}
Ya que la derivada pasó de ser negativa a positiva tenemos que cuando $x=1$ la función tiene un mínimo.
$\therefore p_1=(1,0)$ es mínimo de $f$.

Continuemos con $x=-1$:
Para $x<-1$ tomaremos $x_1=-2$.
\begin{align*}
f'(-2)&=5(-2-1)(-2+1)^{2}\left(-2-\frac{1}{5}\right)\\
&=5(-3)(-1)^{2}\left(-\frac{11}{5}\right) \tag{que es positivo}
\end{align*}

Y para $x>-1$ consideramos ahora $x_2=-\frac{1}{2}$.
\begin{align*}
f’\left(-\frac{1}{2}\right)&=5\left(-\frac{1}{2}-1\right)^{2}\left(-\frac{1}{2}-\frac{1}{5}\right)\\
&=5\left(-\frac{3}{2}\right)\left(\frac{1}{2}\right)^{2}\left(-\frac{7}{10}\right)\tag{que es positivo}
\end{align*}

Debido a que la derivada no presenta cambio de signo, cuando $x=-1$ no es máximo ni mínimo.

Finalmente para $x=\frac{1}{5}$ análogamente procedemos:
Cuando $x< \frac{1}{5}$ sustituiremos $x_1=\frac{1}{6}$.
\begin{align*}
f’\left(\frac{1}{6}\right)&=5\left(\frac{1}{6}-1\right)\left(\frac{1}{6}+1\right)^{2}\left(\frac{1}{6}-\frac{1}{5}\right)\\
&=5\left(-\frac{5}{6}\right)\left(\frac{7}{6}\right)^{2}\left(-\frac{1}{30}\right)\tag{que es positivo}
\end{align*}

Ahora bien para $x>\frac{1}{5}$ evaluaremos $x_2=\frac{1}{2}$.
\begin{align*}
f’\left(\frac{1}{2}\right)&=5\left(\frac{1}{2}-1\right)\left(\frac{1}{2}+1\right)^{2}\left(\frac{1}{2}-\frac{1}{5}\right)\\
&=5\left(-\frac{1}{2}\right)\left(\frac{3}{2}\right)\left(\frac{3}{10}\right)\tag{que es negativo}
\end{align*}

Vemos que la derivada pasó de ser positiva a ser negativa, por lo tanto, cuando $x=\frac{1}{5}$ la función $f$ tiene un máximo.
$\therefore p_2=(0.2,1.10)$ es un máximo de $f$.

Ejemplo 2

Hallar los intervalos donde es creciente o decreciente la siguiente función:
$$f(x)=4x^{3}+3x^{2}-6x.$$

Solución:
Comenzaremos derivando la función y simplificando
\begin{align*}
f'(x)&= 12x^{2}+6x-6\\
&=6x^{2}+x-1\\
&=\left(x-\frac{1}{2}\right)(x+1)
\end{align*}

Sabemos que cuando $f'(x)>0$ la función es creciente, por ello veremos qué valores satisfacen la siguiente desigualdad:
$$\left(x-\frac{1}{2}\right)(x+1)>0.$$
El producto anterior cumple ser positivo cuando
Caso 1:
\begin{align*}
x -\frac{1}{2} >0 & &\text{y}\quad x+1>0\\
x > \frac{1}{2} & &\text{y}\quad x>-1\\
\end{align*}
Por lo que el intervalo solución para este caso es: $\left(\frac{1}{2}, \infty \right)$.

Caso 2:
\begin{align*}
x-\frac{1}{2}<0 & &\text{y}\quad x+1<0\\
x <\frac{1}{2} & &\text{y}\quad x<-1
\end{align*}
Así el intervalo solución es: $(-\infty, -1)$.

Concluimos que los intervalos donde $f$ es creciente son:
$$ (-\infty, -1) \cup \left(\frac{1}{2}, \infty \right).$$

Para encontrar donde la función es decreciente debemos trabajar con la desigualdad $f'(x)<0$, que sería:
$$\left(x-\frac{1}{2}\right)(x+1)<0.$$
Lo anterior se cumple en los siguientes casos:
Caso 3:
\begin{align*}
x-\frac{1}{2}>0 & &\text{y}\quad x+1<0\\
x>\frac{1}{2} & &\text{y}\quad x<-1
\end{align*}
Vemos que la solución de este caso es vacía.

Caso 4:
\begin{align*}
x-\frac{1}{2}<0 & &\text{y}\quad x+1>0\\
x<\frac{1}{2} & &\text{y}\quad x>-1
\end{align*}
El intervalo que cumple lo anterior es $\left(-1,\frac{1}{2}\right)$.

De los casos anteriores tenemos que $f$ es decreciente en el intervalo:
$$ \left(-1,\frac{1}{2}\right) $$

Más adelante

En la siguiente entrada seguiremos trabajando con los máximos y mínimos de funciones, por lo que te presentaremos una herramienta más para poder localizarlos: el Criterio de la segunda derivada. También veremos cómo determinar las regiones de concavidad o convexidad de una función y sus puntos de inflexión.

Tarea moral

  • Da la demostración del teorema para el caso en que $x_0$ es un mínimo local de $f$.
  • Prueba los siguientes puntos:
    • Si $f'(x) \geq 0$ para todo $x\in I \Rightarrow f$ es no decreciente en $I$.
    • Si $f'(x) < 0$ para todo $x\in I \Rightarrow f$ es decreciente en $I$.
    • Si $f'(x) \leq 0$ para todo $x\in I \Rightarrow f$ es no creciente en $I$.
  • Determina si los siguientes enunciados son verdaderos o falsos. De ser verdadero da la demostración correspondiente, de lo contrario da un contraejemplo:
    • Si $f$ es una función creciente, derivable y continua en un intervalo $I \Rightarrow f'(x)>0$ para toda $x\in I$.
    • Si $f$ es una función estrictamente creciente, continua y derivable en $I \Rightarrow f'(x)>0$ para toda $x\in I$.
  • Realiza la gráfica de la función:
    $$f(x)=\frac{1}{(x-1)^{2}}+1.$$
    Determinando los intervalos donde $f$ es creciente o decreciente.
    Señalando si es que existen:
    • máximos y mínimos (locales y globales).
    • los valores $x$ donde $f(x)=0$.
    • $\lim_{x \to \infty^{+}} f(x)$.
    • $\lim_{x \to \infty^{-}} f(x)$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Moderna I: Triángulo medial y recta de Euler

Por Rubén Alexander Ocampo Arellano

Introducción

Continuando con el estudio de las propiedades del centroide, en esta entrada veremos que es colineal con el ortocentro y el circuncentro, y que además triseca al segmento que une dichos puntos. Para establecer estos resultados, veremos primero algunos resultados del triángulo medial de un triángulo dado.

Triángulo medial

Definición 1. Al triángulo que tiene como vértices los puntos medios de un triángulo dado se le conoce como triángulo medial o triángulo complementario del triángulo dado.

Teorema 1. Un triángulo y su triángulo medial son homotéticos además comparten el mismo centroide.

Demostración. Sean $\triangle ABC$, $A’$, $B’$ y $C’$ los puntos medios de $BC$, $AC$ y $AB$ respectivamente.

Por el teorema del segmento medio, los lados del triángulo medial $\triangle A’B’C’$ son paralelos a los lados de $\triangle ABC$ y por lo tanto son homotéticos.

Ya que las rectas determinadas por dos puntos homólogos, $AA’$, $BB’$ y $CC’$ son las medianas de $\triangle ABC$, entonces el centroide $G$ es el centro de homotecia y sabemos que $AG = 2GA’$, por lo que la razón de homotecia es $\dfrac{-1}{2}$, donde el signo menos indica que dos puntos homólogos de esta homotecia se encuentran en lados opuestos respecto del centro de homotecia.

Figura 1

Como $BC$ y $B’C’$ son rectas homotéticas, entonces el punto homólogo de $A’ \in BC$ es $E = A’G \cap B’C’$, y como $A’$ es el punto medio de $BC$ entonces $E$ es el punto medio de $B’C’$, pues la homotecia preserva las proporciones.

Por lo tanto, $A’G$ es mediana de $\triangle A’B’C’$, de manera similar podemos ver que $B’G$ y $C’G$ son medianas de $\triangle A’B’C’$, por lo tanto, $G$ es el centroide de $\triangle A’B’C’$.

$\blacksquare$

Proposición 1. El circuncentro de un triángulo es el ortocentro de su triángulo medial.

Demostración. Se sigue del hecho de que las mediatrices de un triángulo son las alturas de su triángulo medial, esto es así porque los vértices del triángulo medial son, por definición, los puntos medios de un triángulo dado y los lados del triángulo medial son paralelos a los lados del triángulo dado.

$\blacksquare$

Figura 2

Triángulo anticomplementario

Definición 2. Dado un triángulo, al triángulo formado por las rectas paralelas a los lados del triángulo dado a través de los respectivos vértices opuestos, se le conoce como triángulo anticomplementario del triángulo dado.

Proposición 2. Un triángulo y su triángulo anticomplementario son homotéticos y tienen el mismo centroide.

Demostración. Consideremos $\triangle ABC$ y $\triangle A’’B’’C’’$ su triángulo anticomplementario.

Figura 3

Como $\square C’’BCA$ y $\square ABCB’’$ son paralelogramos entonces $C’’A = BC = AB’’$, por lo tanto, $A$ es el punto medio de $B’’C’’$. De manera análoga vemos que $B$ y $C$ son puntos medio de $A’’C’’$ y $A’’B’’$ respectivamente,

Por lo tanto, $\triangle ABC$ es el triángulo medial de $\triangle A’’B’’C’’$ y por el teorema 1 se tiene el resultado.

$\blacksquare$

Circunferencia de Droz Farny

Proposición 3. El producto de los segmentos en que el ortocentro divide a la altura de un triángulo es igual para las tres alturas del triángulo.

Demostración. Sean $\triangle ABC$ y $D$, $E$ y $F$ los pies de las alturas por $A$, $B$ y $C$ respectivamente y $H$ el ortocentro.

Figura 4

Notemos que $\triangle AFH \sim \triangle CDH$ y $\triangle AEH \sim \triangle BDH$ (son semejantes) pues son triángulos rectángulos y comparten un ángulo opuesto por el vértice, por lo tanto
$\dfrac{AH}{CH} = \dfrac{FH}{DH}$ $\Rightarrow AH \times DH = CH \times HF$,
$\dfrac{AH}{BH} = \dfrac{EH}{DH}$ $\Rightarrow AH \times DH = BH \times HE$.

De esto se sigue que
$CH \times HF = AH \times DH = BH \times HE$.

$\blacksquare$

Teorema 2. Si tomamos los vértices de un triángulo como centros de circunferencias del mismo radio, estas cortaran a los respectivos lados de su triángulo medial en tres pares de puntos que son equidistantes del ortocentro del triángulo.

Demostración. Sean $\triangle ABC$ y $\triangle A’B’C’$ su triángulo medial, tracemos tres circunferencias del mismo radio $(A, r)$, $(B, r)$ y $(C, r)$ las cuales intersecan a $B’C’$, $A’C’$ y $A’B’$ en $P$, $P’$; $Q$, $Q’$ y $R$, $R’$, respectivamente.

Sean $D \in BC$ el pie de la altura por $A$, y $M = AD \cap B’C’$, por el teorema de Pitágoras en $\triangle AMP$ y $\triangle HMP$ tenemos
$AP^2 – AM^2 = MP^2 = HP^2 – HM^2$
$\Rightarrow AP^2 – HP^2 = AM^2 – HM^2 = (AM + HM)(AM – HM)$.

Figura 5

Como $\triangle AC’B’ \cong \triangle C’BA’$ son congruentes por criterio LLL entonces sus alturas desde $A$ y $C’$, respectivamente, son iguales , por lo tanto $AM = MD$,
$\Rightarrow AP^2 – HP^2 = (MD + HM)AH = HD \times AH$.

Por otra parte, $\triangle PAP’$ es isósceles y como $AM$ es altura entonces $AM$ es mediatriz de $PP’$, por lo tanto $HP = HP’$$\Rightarrow$
$\begin{equation} HP’^2 = HP^2 = AP^2 – AH \times HD. \end{equation}$.

Si consideramos $E$ y $F$ los pies de las alturas por $B$ y $C$ respectivamente podemos encontrar fórmulas análogas
$\begin{equation} HQ’^2 = HQ^2 = BQ^2 – BH \times HE, \end{equation} $
$\begin{equation} HR’^2 = HR^2 = CR^2 – CH \times HF. \end{equation} $.

Como $(A, r)$, $(B, r)$ y $(C, r)$ tienen el mismo radio, entonces $AP = BQ = CR$ y por la proposición 3, $AH \times DH = BH \times HE = CH \times HF$.

Tomando lo anterior en cuenta y a las ecuaciones $(1)$, $(2)$ y $(3)$ se sigue que
$HP = HP’ = HQ = HQ’ = HR = HR’$.

$\blacksquare$

Recta de Euler

Teorema 3. El circuncentro, el centroide y el ortocentro de todo triangulo son colineales, con el centroide siempre en medio, a la recta determinada por estos tres puntos se le conoce como recta de Euler del triángulo, además $HG = 2GO$.

Demostración. Sean $\triangle ABC$ y $\triangle A’B’C’$ su triángulo medial, por el teorema 1, $\triangle ABC$ y $\triangle A’B’C’$ están en homotecia desde $G$, el centroide, que es el mismo para ambos triángulos, y la razón de homotecia es $\dfrac{-1}{2}$.

Consideremos la altura $AD$ de $\triangle ABC$, la homotecia de $AD$ es una recta paralela a ella y que pasa por el punto homólogo de $A$, $A’$, es decir la homotecia de una altura de $\triangle ABC$ es una altura de $\triangle A’B’C’$.

Figura 6

Como el ortocentro $H$ de $\triangle ABC$ es la intersección de sus alturas, entonces su punto homologo bajo la homotecia estará en la intersección de las alturas de $\triangle A’B’C’$, esto es, el ortocentro de $\triangle A’B’C’$, $H’$.

Con esto tenemos que el ortocentro de $\triangle A’B’C’$ es colineal con $G$ el centroide y el ortocentro de $\triangle ABC$ respectivamente, además, debido a la razón de homotecia, $HG = 2GH’$.

Por la proposición 1, el ortocentro del triángulo medial $\triangle A’B’C’$ es el circuncentro $O$ de $\triangle ABC$.

Así, $O$, $G$ y $H$ son colineales y $HG = 2GO$.

$\blacksquare$

Observación. Notemos que si el triángulo es equilátero el ortocentro, el centroide y el circuncentro son el mismo punto y por lo tanto la recta de Euler degenera en un punto.

Problema. Construye un triángulo $\triangle ABC$ dados el vértice $A$, el circuncentro $O$ y las distancias de $A$ al ortocentro $AH$, y al centroide $AG$.

Solución. El centroide $G$ se encuentra en la circunferencia con centro en $A$ y radio $AG$, $(A, AG)$, el ortocentro $H$ se encuentra en la circunferencia con centro en $A$ y radio $H$, $(A, AH)$.

Por el teorema 3 sabemos que $H$, $G$ y $O$ son colineales y que $HO = 3GO$, por lo que $H$ y $G$ se encuentran en homotecia desde $O$.

Entonces, a $(A, AH)$ le aplicamos una homotecia con centro en $O $ y razón $\dfrac{1}{3}$, esto será una circunferencia $\Gamma$ y $G$ resultara de la intersección de $\Gamma$ con $(A, AG)$.

Figura 7

Teniendo a $G$ construido, como tenemos el circuncírculo $(O, OA)$ y un vértice del triángulo, el problema se reduce a la solución del problema 2 de la entrada anterior.

$\blacksquare$

Distancia entre puntos notables

Teorema 4. Para un triángulo con lados $a$, $b$, $c$, ortocentro $H$, centroide $G$, y circuncírculo $(O, R)$ tenemos:
$OH^2 = 9R^2 – (a^2 + b^2 + c^2)$,
$HG^2 = 4R^2 – \dfrac{4}{9}( a^2 – b^2 + c^2)$.

Demostración. Por el teorema 3 sabemos que $OH = 3OG$ y $HG = 2GO$, además en la entrada anterior calculamos
$OG^2 = R^2 – (\dfrac{a^2 + b^2 + c^2}{9})$.

Por lo tanto,
$OH^2 = 9OG^2 = 9R^2 – (a^2 + b^2 + c^2)$,
$HG^2 = 4OG^2 = 4R^2 – \dfrac{4}{9}(a^2 + b^2 + c^2)$.

$\blacksquare$

Corolario. Podemos calcular la suma de los cuadrados de las distancias del ortocentro a los vértices del triángulo en función del circunradio y los lados del triángulo con la siguiente fórmula.
$HA^2 + HB^2 + HC^2 = 12R^2 + (a^2 + b^2 + c^2)$.

Demostración. Por el teorema 4, y usando las fórmulas encontradas en la entrada anterior
$HA^2 + HB^2 + HC^2 = GA^2 + GB^2 + GC^2 + 3HG^2$,
$GA^2 + GB^2 + GC^2 = \dfrac{a^2 + b^2 + c^2}{3}$ .

Esto implica que,
$HA^2 + HB^2 + HC^2 = \dfrac{a^2 + b^2 + c^2}{3} + 12R^2 – \dfrac{4}{3}(a^2 + b^2 + c^2)$
$= 12R^2 – (a^2 + b^2 + c^2)$.

$\blacksquare$

Más adelante…

En la siguiente entrada estudiaremos otro triángulo asociado a un triángulo dado, aquel cuyos vértices son los pies de las alturas del triángulo dado.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Muestra que el triángulo complementario y el triángulo anticomplementario de un triángulo dado son homotéticos, encuentra el centro y la razón de homotecia.
  2. Sea $\triangle ABC$ y $P$ un punto en el plano, considera $A’$, $B’$ y $C’$ los pies de las perpendiculares dese $P$ a $BC$, $AC$ y $AB$ respectivamente. Desde los puntos medios de $A’B’$, $A’C’$ y $B’C’$ traza perpendiculares a los lados de $AB$, $AC$ y $BC$ respectivamente, muestra que este último conjunto de perpendiculares son concurrentes.
  3. Sean $D$, $D’ \in BC$ de un triangulo $\triangle ABC$, tal que el punto medio de $BC$ es el punto medio de $DD’$, sea $E = AD \cap B’C’$, donde $B’$ y $C’$ son los puntos medios de $AC$ y $AB$ respectivamente, muestra que $ED’$ pasa por el centroide de $\triangle ABC$.
  4. Muestra que la recta de Euler de un triángulo pasa por uno de los vértices del triángulo si y solo si el triángulo es isósceles o rectángulo.
  5. Prueba que la recta que une el centroide de un triangulo con un punto $P$ en su circuncírculo biseca al segmento que une el punto diametralmente opuesto a $P$ con el ortocentro.
  6. Sean $H$, $G$, $(O, R)$ y $(I, r)$, el ortocentro, el centroide, el circuncírculo y el incírculo de un triángulo, muestra que:
    $i)$ $HI^2 + 2OI^2 = 3(IG^2 + 2OG^2)$,
    $ii)$ $3(IG^2 + \dfrac{HG^2}{2}) – IH^2 = 2R(R – 2r)$.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 68-69, 94-96, 101-102.
  • Coxeter, H. y Greitzer, L., Geometry Revisited. Washington: The Mathematical Association of America, 1967, pp 18-19.
  • Gomez, A. y Bulajich, R., Geometría. México: Instituto de Matemáticas, 2002, pp 65-68.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Ecuaciones lineales no homogéneas de segundo orden – Método de variación de parámetros

Por Omar González Franco

Las matemáticas son un lugar donde puedes hacer
cosas que no puedes hacer en el mundo real.
– Marcus du Sautoy

Introducción

Con lo que hemos estudiado en las dos últimas entradas somos capaces de resolver ecuaciones diferenciales lineales de segundo orden homogéneas y no homogéneas con coeficientes constantes, es decir, ecuaciones de la forma

$$a \dfrac{d^{2}y}{dx^{2}} + b \dfrac{dy}{dx} + cy = g(x) \label{1} \tag{1}$$

Con $a, b, c$ constantes y $g(x) = 0$ en el caso homogéneo o $g(x) \neq 0$ en el caso no homogéneo, en éste último caso aún estamos limitados a la forma que puede tener la función $g$, pues sabemos resolver las ecuaciones diferenciales en el caso en el que la función $g$ es una constante, una función polinomial, una función exponencial, funciones seno o coseno, o una combinación entre ellas. La pregunta ahora es, ¿cómo resolver este tipo de ecuaciones para cualquier tipo de función $g(x)$?.

En esta entrada desarrollaremos un método que nos permite obtener la solución general independientemente de la forma que tenga la función $g(x)$. A dicho método se le conoce como variación de parámetros.

El nombre de este método resulta familiar. En la unidad anterior desarrollamos éste método para el caso de las ecuaciones diferenciales lineales de primer orden como método alterno al método por factor integrante. Lo que haremos en esta entrada es una adaptación del método de variación de parámetros para el caso en el que las ecuaciones diferenciales son de orden superior, en particular, de segundo orden.

Variación de parámetros

Consideremos la ecuación diferencial

$$a_{2}(x) \dfrac{d^{2}y}{dx^{2}} + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g_{0}(x) \label{2} \tag{2}$$

Si $a_{2}(x) \neq 0$ para toda $x$ en el intervalo $\delta$ en el que está definida la solución, entonces podemos definir las funciones

$$P(x) = \dfrac{a_{1}(x)}{a_{2}(x)}, \hspace{1cm} Q(x) = \dfrac{a_{0}(x)}{a_{2}(x)} \hspace{1cm} y \hspace{1cm} g(x) = \dfrac{g_{0}(x)}{a_{2}(x)}$$

de manera que la ecuación (\ref{2}) la podemos escribir en su forma estándar como

$$\dfrac{d^{2}y}{dx^{2}} + P(x)\dfrac{dy}{dx} + Q(x)y = g(x) \label{3} \tag{3}$$

En el caso de primer orden se hizo la suposición de que la solución particular era de la forma

$$y_{p}(x) = k(x)y_{1}(x) = k(x) e^{-\int{P(x)dx}}$$

Manteniendo esta idea, en el caso de segundo orden se busca una solución de la forma

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) \label{4} \tag{4}$$

Donde $y_{1}$ y $y_{2}$ forman un conjunto fundamental de soluciones en $\delta$ de la ecuación homogénea asociada a (\ref{3}). Determinemos la primera y segunda derivada de $y_{p}$ para sustituir los resultados en la ecuación diferencial (\ref{3}).

$$\dfrac{dy_{p}}{dx} = k_{1}\dfrac{dy_{1}}{dx} + y_{1}\dfrac{dk_{1}}{dx} + k_{2}\dfrac{dy_{2}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \label{5} \tag{5}$$

y

$$\dfrac{d^{2}y_{p}}{dx^{2}} = k_{1}\dfrac{d^{2}y_{1}}{dx^{2}} + 2\dfrac{dy_{1}}{dx}\dfrac{dk_{1}}{dx} + y_{1}\dfrac{d^{2}k_{1}}{dx^{2}} + k_{2}\dfrac{d^{2}y_{2}}{dx^{2}} + 2\dfrac{dy_{2}}{dx}\dfrac{dk_{2}}{dx} + y_{2}\dfrac{d^{2}k_{2}}{dx^{2}} \label{6} \tag{6}$$

Sustituyendo en (\ref{3}) y reorganizando los términos obtenemos lo siguiente.

\begin{align*}
k_{1} \left[ \dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Q y_{1} \right] + y_{1} \dfrac{d^{2}k_{1}}{dx^{2}} + \dfrac{dk_{1}}{dx} \dfrac{dy_{1}}{dx} + k_{2} \left[ \dfrac{d^{2}y_{2}}{dx^{2}} + P\dfrac{dy_{2}}{dx} + Q y_{2} \right] \\
+ y_{2} \dfrac{d^{2}k_{2}}{dx^{2}} + \dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} + P \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x)
\end{align*}

Como $y_{1}$ y $y_{2}$ son soluciones de la ecuación homogénea asociada, entonces

$$\dfrac{d^{2}y_{1}}{dx^{2}} + P\dfrac{dy_{1}}{dx} + Q y_{1} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} + P\dfrac{dy_{2}}{dx} + Q y_{2} = 0$$

y además notamos que

$$\dfrac{d}{dx} \left[ y_{1}\dfrac{dk_{1}}{dx} \right] = y_{1} \dfrac{d^{2}k_{1}}{dx^{2}} + \dfrac{dk_{1}}{dx} \dfrac{dy_{1}}{dx} \label{7} \tag{7}$$

y

$$\dfrac{d}{dx} \left[ y_{2}\dfrac{dk_{2}}{dx} \right] = y_{2} \dfrac{d^{2}k_{2}}{dx^{2}} + \dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} \label{8} \tag{8}$$

Considerando lo anterior la ecuación diferencial queda como

$$\dfrac{d}{dx} \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + P \left[ y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \right] + \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x) \label{9} \tag{9}$$

Nuestro propósito es determinar a las funciones $k_{1}(x)$ y $k_{2}(x)$ de (\ref{4}), esto implica que debemos formar un sistema con dos ecuaciones que debemos resolver para obtener dichas funciones. De acuerdo al resultado obtenido vamos a establecer la restricción de que las funciones $k_{1}$ y $k_{2}$ satisfacen la relación

$$y_{1}\dfrac{dk_{1}}{dx} + y_{2}\dfrac{dk_{2}}{dx} = 0 \label{10} \tag{10}$$

Considerando esto la ecuación se reduce a

$$\dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = g(x) \label{11} \tag{11}$$

Las ecuaciones (\ref{10}) y (\ref{11}) corresponden al sistema de dos ecuaciones que debemos resolver.

Como podemos notar, es un sistema para determinar las derivadas de las funciones $k_{1}$ y $k_{2}$ y no las funciones mismas, esto implica que una vez que determinemos a las derivadas será necesario hacer una integración a cada una de ellas. Resolvamos el sistema.

Multipliquemos la ecuación (\ref{10}) por $\dfrac{dy_{2}}{dx}$ y la ecuación (\ref{11}) por $y_{2}$.

$$y_{1}\dfrac{dk_{1}}{dx} \dfrac{dy_{2}}{dx} + y_{2}\dfrac{dk_{2}}{dx} \dfrac{dy_{2}}{dx} = 0 \label{12} \tag{12}$$

$$y_{2} \dfrac{dy_{1}}{dx} \dfrac{dk_{1}}{dx} + y_{2} \dfrac{dy_{2}}{dx} \dfrac{dk_{2}}{dx} = y_{2} g(x) \label{13} \tag{13}$$

Si a la ecuación (\ref{12}) le restamos la ecuación (\ref{13}) obtenemos lo siguiente.

$$\dfrac{dk_{1}}{dx} \left( y_{1} \dfrac{dy_{2}}{dx} -y_{2} \dfrac{dy_{1}}{dx} \right) = -y_{2}(x)g(x) \label{14} \tag{14}$$

Recordemos que el Wronskiano esta definido como

$$W(y_{1}, y_{2}) = y_{1} \dfrac{dy_{2}}{dx} -y_{2} \dfrac{dy_{1}}{dx} \label{15} \tag{15}$$

Entonces la ecuación (\ref{14}) la podemos escribir como

$$\dfrac{dk_{1}}{dx} \left[ W(y_{1}, y_{2}) \right] = -y_{2}(x)g(x) \label{16} \tag{16}$$

Como $y_{1}$ y $y_{2}$ forman un conjunto fundamental de soluciones de la ecuación homogénea asociada, entonces

$$W(y_{1}, y_{2}) \neq 0$$

Así, de la ecuación (\ref{16}) obtenemos que

$$\dfrac{dk_{1}}{dx} = -\dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} \label{17} \tag{17}$$

Hemos encontrado el valor de la derivada de la función $k_{1}(x)$, integrando obtenemos finalmente que

$$k_{1}(x) = -\int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{18} \tag{18}$$

En un proceso totalmente análogo, si multiplicamos a la ecuación (\ref{10}) por $\dfrac{dy_{1}}{dx}$ y a la ecuación (\ref{11}) por $y_{1}$ y realizamos los mismos pasos obtendremos la ecuación para la derivada de la función $k_{2}(x)$.

$$\dfrac{dk_{2}}{dx} = \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} \label{19} \tag{19}$$

Integrando obtendremos la función que buscamos

$$k_{2}(x) = \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{20} \tag{20}$$

Sustituyendo los resultados (\ref{18}) y (\ref{20}) en la solución particular (\ref{4}) obtenemos finalmente la solución que buscábamos

$$y_{p}(x) = -y_{1}(x) \int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} + y_{2}(x) \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \label{21} \tag{21}$$

El resultado (\ref{21}) corresponde a la solución particular de la ecuación diferencial (\ref{2}) que, a diferencial del método de coeficientes indeterminados, se aplica para cualquier función $g(x)$, aunque cabe mencionar que si la función $g$ es muy compleja, entonces nos resultará, en algunas ocasiones, complicado resolver las integrales involucradas.

A lo largo del curso hemos motivado a no memorizar las formulas y en su lugar desarrollar el procedimiento del método correspondiente, sin embargo, en esta ocasión se trata de un método muy largo y complicado para usarse cada vez que se intente resolver una ecuación diferencial, por lo que se recomienda seguir los siguientes pasos.

  • Primero se determina la solución complementaria $$y_{c} = c_{1}y_{1} + c_{2}y_{2}$$ de la ecuación diferencial homogénea asociada, esto nos permitirá determinar el conjunto fundamental de soluciones $\{y_{1}, y_{2}\}$.
  • Una vez conocido el conjunto fundamental de soluciones se procede a calcular el Wronskiano $W(y_{1}, y_{2})$.
  • Posteriormente se divide la ecuación diferencial por $a_{2}$ para escribir la ecuación es su forma estándar (\ref{3}) y así obtener la forma de la función $g(x)$.
  • Se sustituyen los valores correspondientes en (\ref{18}) y (\ref{20}) para obtener las funciones $k_{1}$ y $k_{2}$ respectivamente.
  • Finalmente se sustituyen los resultados en la solución particular $$y_{p} = k_{1}y_{1} + k_{2}y_{2}$$ y posteriormente en la solución general $$y = y_{c} + y_{p}$$

Cuando se calculan las integrales indefinidas (\ref{18}) y (\ref{20}) no es necesario considerar las constantes de integración. Para mostrar esto consideremos las constantes $c_{3}$ y $c_{4}$, tales que

\begin{align*}
y(x) &= y_{c}(x) + y_{p}(x) \\
&= c_{1}y_{1}(x) + c_{2}y_{2}(x) + \left[ k_{1}(x) + c_{3} \right] y_{1}(x) + \left[ k_{2}(x) + c_{4} \right] y_{2}(x) \\
&= \left[ c_{1} + c_{3} \right] y_{1}(x) + \left[ c_{2} + c_{4} \right] y_{2}(x) + k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) \\
&= C_{1}y_{1}(x) + C_{2}y_{2}(x) + k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x)
\end{align*}

Es decir, las constantes de la solución complementaria contienen todas las constantes que puedan aparecer en el método.

Realicemos algunos ejemplos.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$3 \dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 6y = e^{x} \sec(x)$$

Solución: El primer paso es obtener la solución complementaria. La ecuación auxiliar es

$$3k^{2} -6k + 6 = 0$$

De donde $k_{1} = 1 + i$ y $k_{2} = 1 -i$, identificamos que $\alpha = \beta = 1$, entonces la forma de la solución complementaria es

$$y_{c}(x) = c_{1}e^{x} \cos(x) + c_{2}e^{x} \sin(x)$$

El conjunto fundamental de soluciones esta conformado por las funciones

$$y_{1}(x) = e^{x} \cos(x) \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{x} \sin(x)$$

La derivada de ambas soluciones son

$$\dfrac{dy_{1}}{dx} = e^{x} \cos(x) -e^{x} \sin(x) \hspace{1cm} y \hspace{1cm} \dfrac{dy_{2}}{dx} = e^{x} \sin(x) + e^{x} \cos(x)$$

Usando estos resultados calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{x} \cos(x) & e^{x} \sin(x) \\
e^{x} \cos(x) -e^{x} \sin(x) & e^{x} \sin(x) + e^{x} \cos(x)
\end{vmatrix} \\
&= e^{2x} \cos(x) \sin(x) + e^{2x} \cos^{2}(x) -e^{2x} \cos(x) \sin(x) + e^{2x} \sin^{2}(x) \\
&= e^{2x}
\end{align*}

El Wronskiano es

$$W(x) = e^{2x}$$

¡Cuidado!, como en la ecuación diferencial la segunda derivada tiene un coeficiente, debemos dividir toda la ecuación por dicho coeficiente para obtener la forma estándar y así la función $g(x)$. La ecuación en su forma estándar es

$$\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = \dfrac{e^{x} \sec(x)}{3}$$

En este caso la función $g$ es

$$g(x) = \dfrac{e^{x} \sec(x)}{3}$$

Ahora que ya conocemos los valores que necesitábamos, recurrimos a las ecuaciones (\ref{18}) y (\ref{20}) para obtener las funciones que buscamos.

Para la función $k_{1}(x)$, tenemos lo siguiente.

\begin{align*}
k_{1}(x) &= -\int{ \dfrac{y_{2}(x)g(x)}{W(y_{1}, y_{2})} dx} \\
&= -\int{\dfrac{\left( e^{x} \sin(x) \right) \left( \dfrac{e^{x} \sec(x)}{3} \right)}{e^{2x}} dx} \\
&= -\int{\dfrac{e^{2x} \sin(x) \sec(x)}{3e^{2x}} dx} \\
&= -\dfrac{1}{3} \int{\tan(x) dx} \\
&= \dfrac{1}{3} \ln|\cos(x)|
\end{align*}

La integral de la tangente es común. Por tanto, la función $k_{1}$ es

$$k_{1}(x) = \dfrac{1}{3} \ln|\cos(x)|$$

Para el caso de la función $k_{2}(x)$, tenemos lo siguiente.

\begin{align*}
k_{2}(x) &= \int{ \dfrac{y_{1}(x)g(x)}{W(y_{1}, y_{2})} dx} \\
&= \int{\dfrac{\left( e^{x} \cos(x) \right) \left( \dfrac{e^{x} \sec(x)}{3} \right)}{e^{2x}} dx} \\
&= \int{\dfrac{e^{2x} \cos(x) \sec(x)}{3e^{2x}} dx} \\
&= \dfrac{1}{3} \int{dx} \\
&= \dfrac{1}{3}x
\end{align*}

La función $k_{2}$ es

$$k_{2}(x) = \dfrac{1}{3}x$$

Ya podemos establecer que la solución particular, de acuerdo a (\ref{4}), es

$$y_{p}(x) = \dfrac{1}{3} \ln|\cos(x)| \left[ e^{x} \cos(x) \right] + \dfrac{1}{3}x \left[ e^{x} \sin(x) \right]$$

Por lo tanto, la solución general de la ecuación diferencial

$$3 \dfrac{d^{2}y}{dx^{2}} -6 \dfrac{dy}{dx} + 6y = e^{x} \sec(x)$$

es

$$y(x) = c_{1}e^{x} \cos(x) + c_{2}e^{x} \sin(x) + \dfrac{1}{3}e^{x} \cos(x) \ln|\cos(x)| + \dfrac{1}{3}x e^{x} \sin(x)$$

$\square$

Con este ejemplo encontramos un buen momento para reflexionar y darnos cuenta de que ya hemos avanzado mucho, tan sólo observa el tipo de ecuación que acabamos de resolver y no sólo eso, observa que tan compleja es la solución general.

¡Sigamos adelante!.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 2\dfrac{dy}{dx} + y = \dfrac{e^{-x}}{x}$$

Solución: Como la ecuación ya está es su forma estándar la función $g$ es

$$g(x) = \dfrac{e^{-x}}{x}$$

Determinemos la solución complementaria, la ecuación auxiliar es

$$k^{2} + 2k + 1 = 0$$

De donde $k_{1} = k_{2} = -1$, la multiplicidad de la solución nos indica que la forma de la solución complementaria es

$$y_{c}(x) = c_{1}e^{-x} + c_{2}xe^{-x}$$

El conjunto fundamental de soluciones esta conformado por las funciones

$$y_{1}(x) = e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = xe^{-x}$$

Usando estas soluciones y sus derivadas calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{-x} & xe^{-x} \\
-e^{-x} & e^{-x} -xe^{-x}
\end{vmatrix} \\
&= e^{-2x} -xe^{2x} + xe^{-2x} \\
&= e^{-2x}
\end{align*}

El Wronskiano es

$$W(x) = e^{-2x}$$

Sustituyamos estos resultados directamente en la ecuación (\ref{21}).

\begin{align*}
y_{p}(x) &= -e^{-x} \int {\dfrac{ \left( xe^{-x} \right) \left( \dfrac{e^{-x}}{x} \right) }{e^{-2x}}dx} + xe^{-x} \int {\dfrac{ \left( e^{-x} \right) \left( \dfrac{e^{-x}}{x} \right) }{e^{-2x}}dx} \\
&= -e^{-x}\int dx+xe^{-x}\int \dfrac{dx}{x} \\
&= -xe^{-x} + xe^{-x}\ln(x)
\end{align*}

La solución particular es

$$y_{p}(x) = -xe^{-x} + xe^{-x}\ln(x)$$

Por lo tanto, la solución general de la ecuación diferencial es

$$y(x) = c_{1}e^{-x} + c_{2}xe^{-x} -xe^{-x} + xe^{-x}\ln(x)$$

$\square$

Un ejemplo más.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} -y = 4x^{3}e^{x}$$

Solución: La función $g$ es

$$g(x) = 4x^{3}e^{x}$$

y la ecuación auxiliar es

$$k^{2} -1 = 0$$

De donde $k_{1} = 1$ y $k_{2} = -1$. Entonces, la solución complementaria es

$$y_{c}(x) = c_{1}e^{x} + c_{2}e^{-x}$$

El conjunto fundamental de soluciones esta conformado por

$$y_{1}(x) = e^{x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = e^{-x}$$

Usando estas funciones y sus derivadas calculemos el Wronskiano.

\begin{align*}
W &= \begin{vmatrix}
e^{x} & e^{-x} \\
e^{x} & -e^{-x} \end{vmatrix} = -2
\end{align*}

El Wronskiano es $W = -2$. Sustituyendo estos resultados directamente en la ecuación (\ref{21}), obtenemos lo siguiente.

\begin{align*}
y_{p}(x) &= -e^{x} \int {\dfrac{(e^{-x})(4x^{3}e^{x})}{-2} dx} + e^{-x} \int {\dfrac{(e^{x})(4x^{3}e^{x})}{-2} dx} \\
&= 2e^{x} \int {x^{3} dx} -2e^{-x} \int {x^{3}e^{2x} dx} \\
&= \dfrac{1}{2}x^{4}e^{x} -2e^{-x} \int {x^{3}e^{2x} dx}
\end{align*}

La integral que nos falta se puede resolver por partes tomando $u = x^{2}$ y $v^{\prime} = e^{2x}$. Resolviendo la integral obtendremos lo siguiente.

$$\int {x^{3}e^{2x} dx} = \dfrac{1}{2}e^{2x}x^{3} -\dfrac{3}{4}e^{2x}x^{2} + \dfrac{3}{4}e^{2x}x -\dfrac{3}{8}e^{2x}$$

Sustituyendo en la solución particular tenemos

\begin{align*}
y_{p}(x) &= \dfrac{1}{2}x^{4}e^{x} -2e^{-x} \left( \dfrac{1}{2}e^{2x}x^{3} -\dfrac{3}{4}e^{2x}x^{2} + \dfrac{3}{4}e^{2x}x -\dfrac{3}{8}e^{2x} \right) \\
&= \dfrac{1}{2}x^{4}e^{x} -x^{3}e^{x} + \dfrac{3}{2}x^{2}e^{x} -\dfrac{3}{2}xe^{x} + \dfrac{3}{4}e^{x}
\end{align*}

Finalmente obtenemos como solución particular a la función

$$y_{p}(x) = e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x + \dfrac{3}{4} \right)$$

Y por lo tanto, la solución general de la ecuación diferencial es

$$y(x) = c_{1}e^{x} + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x + \dfrac{3}{4} \right)$$

Este resultado es válido, sin embargo se puede simplificar más, ya que se puede reescribir a la solución como

$$y(x) = e^{x} \left( c_{1} + \dfrac{3}{4} \right) + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x \right)$$

y definir la constante $C_{1} = c_{1} + \dfrac{3}{4}$ para finalmente escribir la solución como

$$y(x) = C_{1} e^{x} + c_{2}e^{-x} + e^{x} \left( \dfrac{1}{2}x^{4} -x^{3} + \dfrac{3}{2}x^{2} -\dfrac{3}{2}x \right)$$

$\square$

Variación de parámetros en ecuaciones de orden superior

Este método se puede generalizar a ecuaciones de orden $n$ aunque, por su puesto, los cálculos se vuelven más extensos.

A continuación mostraremos el panorama general para ecuaciones diferenciales de orden $n$ y mostraremos los resultados para el caso $n = 3$ que nos mostrará la forma en que aumenta la complejidad de los cálculos.

La ecuación de orden $n$ es su forma estándar es

$$\dfrac{d^{n}y}{dx^{n}} + P_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + P_{1}(x) \dfrac{dy}{dx} + P_{0}(x) y = g(x) \label{22} \tag{22}$$

Si la solución complementaria de (\ref{22}) es

$$y_{c}(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{n}y_{n}(x) \label{23} \tag{23}$$

Entonces una solución particular debe ser

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) + \cdots + k_{n}(x)y_{n}(x) \label{24} \tag{24}$$

Análogo a las ecuaciones (\ref{10}) y (\ref{11}), las derivadas $\dfrac{dk_{i}}{dx} = k^{\prime}_{i}$ con $i = 1, 2, \cdots, n$ se determinan del sistema de $n$ ecuaciones

\begin{align*}
y_{1}k^{\prime}_{1} + y_{2}k^{\prime}_{2} + \cdots + y_{n}k^{\prime}_{n} &= 0 \\
y^{\prime}_{1}k^{\prime}_{1} + y^{\prime}_{2}k^{\prime}_{2} + \cdots + y^{\prime}_{n}k^{\prime}_{n} &= 0 \\
\vdots \\
y^{(n -1)}_{1}k^{\prime}_{1} + y^{(n -1)}_{2}k^{\prime}_{2} + \cdots + y^{(n-1)}_{n}k^{\prime}_{n} &= g(x) \label{25} \tag{25}
\end{align*}

Al igual que el caso de segundo orden, las primeras $n -1$ ecuaciones del sistema son suposiciones que se hacen para simplificar la ecuación resultante de sustituir la solución (\ref{24}) en la ecuación (\ref{22}).

Usando la regla de Cramer para resolver el sistema se obtiene que

$$\dfrac{dk_{i}}{dx} = \dfrac{W_{i}}{W}; \hspace{1cm} i = 1, 2 , \cdots, n \label{26} \tag{26}$$

Donde $W$ es el Wronskiano del conjunto fundamental $\{ y_{1}(x), y_{2}(x), \cdots, y_{n}(x) \}$ y $W_{i}$ es el determinante que se obtiene de remplazar la $i$-ésima columna del Wronskiano por la columna formada por el lado derecho de (\ref{25}), es decir, la columna que consta de $(0, 0, \cdots, g(x))$.

Para que quede más claro lo anterior, en el caso $n = 3$ las $\dfrac{dk_{i}}{dx}$, $i = 1, 2, 3$ quedan como

$$\dfrac{dk_{1}}{dx} = \dfrac{W_{1}}{W}, \hspace{1cm} \dfrac{dk_{2}}{dx} = \dfrac{W_{2}}{W}, \hspace{1cm} \dfrac{dk_{3}}{dx} = \dfrac{W_{3}}{W} \label{27} \tag{27}$$

Donde

$$W = \begin{vmatrix}
y_{1} & y_{2} & y_{3} \\
y^{\prime}_{1} & y^{\prime}_{2} & y^{\prime}_{3} \\
y^{\prime \prime}_{1} & y^{\prime \prime}_{2} & y^{\prime \prime}_{3}
\end{vmatrix} \label{28} \tag{28}$$

y

\begin{align*}
W_{1} = \begin{vmatrix}
0 & y_{2} & y_{3} \\
0 & y^{\prime}_{2} & y^{\prime}_{3} \\
g(x) & y^{\prime \prime}_{2} & y^{\prime \prime}_{3}
\end{vmatrix}, \hspace{1cm} W_{2} = \begin{vmatrix}
y_{1} & 0 & y_{3} \\
y^{\prime}_{1} & 0 & y^{\prime}_{3} \\
y^{\prime \prime}_{1} & g(x) & y^{\prime \prime}_{3}
\end{vmatrix}, \hspace{1cm} W_{3} = \begin{vmatrix}
y_{1} & y_{2} & 0 \\
y^{\prime}_{1} & y^{\prime}_{2} & 0 \\
y^{\prime \prime}_{1} & y^{\prime \prime}_{2} & g(x)
\end{vmatrix}
\end{align*}

Habrá que integrar las ecuaciones de (\ref{27}) para obtener las funciones $k_{i}$, $i = 1, 2, 3$ y así obtener la solución particular

$$y_{p}(x) = k_{1}(x)y_{1}(x) + k_{2}(x)y_{2}(x) + k_{3}(x)y_{3}(x) \label{29} \tag{29}$$

Notemos que usando esta notación, los resultados (\ref{17}) y (\ref{19}) del caso $n = 2$ se pueden escribir como

$$\dfrac{dk_{1}}{dx} = \dfrac{W_{1}}{W} = -\dfrac{y_{2}g(x)}{W} \hspace{1cm} y \hspace{1cm} \dfrac{dk_{2}}{dx} = \dfrac{W_{2}}{W} = \dfrac{y_{1}g(x)}{W} \label{30} \tag{30}$$

Donde

\begin{align*} W = \begin{vmatrix}
y_{1} & y_{2} \\
y^{\prime}_{1} & y^{\prime}_{2}
\end{vmatrix}, \hspace{1cm} W_{1} = \begin{vmatrix}
0 & y_{2} \\
g(x) & y^{\prime}_{2}
\end{vmatrix} \hspace{1cm} y \hspace{1cm} W_{2} = \begin{vmatrix}
y_{1} & 0 \\
y^{\prime}_{1} & g(x)
\end{vmatrix} \label{31} \tag{31}
\end{align*}

Realicemos un ejemplo con una ecuación de orden $3$.

Ejemplo: Resolver la ecuación diferencial de tercer orden

$$\dfrac{d^{3}y}{dx^{3}} + \dfrac{dy}{dx} = \tan(x)$$

Solución: La función $g$ es

$$g(x) = \tan(x)$$

y la ecuación auxiliar es

$$k^{3} + k = k(k^{2} + 1) = 0$$

De donde $k_{1} = 0$, $k_{2} = i$ y $k_{3} = -i$. Dos raíces son complejas conjugadas con $\alpha = 0$ y $\beta = 1$. La primer raíz nos indica que la forma de una solución es

$$y_{1}(x) = e^{k_{1}x} = 1$$

mientras que las dos raíces restantes nos indican dos solución de la forma

$$y_{2}(x) = e^{\alpha x} \cos(\beta x) = \cos(x)$$

y

$$y_{3}(x) = e^{\alpha x} \sin(\beta x) = \sin(x)$$

Por lo tanto, la solución complementaria de la ecuación diferencial es

$$y_{c}(x) = c_{1} + c_{2} \cos(x) + c_{3} \sin(x)$$

Como vimos, el conjunto fundamental de soluciones es $\{ y_{1} = 1, y_{2} = \cos(x) , y_{3} = \sin(x) \}$, las primeras y segundas derivadas correspondientes son

$$\dfrac{dy_{1}}{dx} = 0, \hspace{1cm} \dfrac{dy_{2}}{dx} = -\sin(x), \hspace{1cm} \dfrac{dy_{3}}{dx} = \cos(x)$$

y

$$\dfrac{d^{2}y_{1}}{dx^{2}} = 0, \hspace{1cm} \dfrac{d^{2}y_{2}}{dx^{2}} = -\cos(x), \hspace{1cm} \dfrac{d^{2}y_{3}}{dx^{2}} = -\sin(x)$$

Ahora calculemos los determinantes correspondientes, el primero de ellos es el Wronskiano

$$W = \begin{vmatrix}
1 & \cos(x) & \sin(x) \\
0 & -\sin(x) & \cos(x) \\
0 & -\cos(x) & -\sin(x)
\end{vmatrix} = \sin^{2}(x) + \cos^{2}(x) = 1$$

Para el resto de determinantes, tenemos

$$W_{1} = \begin{vmatrix}
0 & \cos(x) & \sin(x) \\
0 & -\sin(x) & \cos(x) \\
\tan(x) & -\cos(x) & -\sin(x)
\end{vmatrix} = \tan(x) \left[ \cos^{2}(x) + \sin^{2}(x) \right] = \tan(x)$$

$$W_{2} = \begin{vmatrix}
1 & 0 & \sin(x) \\
0 & 0 & \cos(x) \\
0 & \tan(x) & -\sin(x)
\end{vmatrix} = -\cos(x) \tan(x) = -\sin(x)$$

y

$$W_{3} = \begin{vmatrix}
1 & \cos(x) & 0 \\
0 & -\sin(x) & 0 \\
0 & -\cos(x) & \tan(x)
\end{vmatrix} = -\sin(x) \tan(x) = -\dfrac{\sin^{2}(x)}{\cos(x)}$$

Sustituyendo estos resultados en (\ref{27}), obtenemos

$$\dfrac{dk_{1}}{dx} = \tan(x), \hspace{1cm} \dfrac{dk_{2}}{dx} = -\sin(x), \hspace{1cm} \dfrac{dk_{3}}{dx} = -\dfrac{\sin^{2}(x)}{\cos(x)}$$

Procedemos a integrar cada ecuación (sin considerar constantes) para obtener las funciones que buscamos.

La primer integral es común,

$$k_{1}(x) = \int{\tan(x) dx} = -\ln|\cos(x)|$$

La segunda integral es directa

$$k_{2}(x) = -\int{\sin(x) dx} = \cos(x)$$

Mientras que para la tercer integral si se requiere de un mayor cálculo.

\begin{align*}
k_{3}(x) &= -\int{\dfrac{\sin^{2}(x)}{\cos(x)} dx} \\
&= -\int{\dfrac{1 -\cos^{2}(x)}{\cos(x)} dx} \\
&= -\int{\dfrac{1}{\cos(x)} dx} + \int{\cos(x) dx} \\
\end{align*}

Por un lado

$$-\int{\dfrac{1}{\cos(x)} dx} = -\int{\sec(x) dx} = -\ln|\tan(x) + \sec(x)|$$

por otro lado,

$$\int{\cos(x) dx} = \sin(x)$$

entonces

$$k_{3}(x) = -\ln|\tan(x) + \sec(x)| + \sin(x)$$

Ahora que conocemos las funciones incógnita concluimos que la solución particular de la ecuación diferencial es

\begin{align*}
y_{p}(x) &= -\ln|\cos(x)|(1) + \cos(x) [\cos(x)] + \left[ -\ln|\tan(x) + \sec(x)| + \sin(x) \right] (\sin(x)) \\
&= -\ln|\cos(x)| + \cos^{2}(x) -\sin(x) \ln|\tan(x) + \sec(x)| + \sin^{2}(x) \\
&= -\ln|\cos(x)| -\sin(x) \ln|\tan(x) + \sec(x)| \\
\end{align*}

Por lo tanto, la solución general de la ecuación diferencial de tercer orden es

$$y(x) = c_{1} + c_{2} \cos(x) + c_{3} \sin(x) -\ln|\cos(x)| -\sin(x) \ln|\tan(x) + \sec(x)|$$

$\square$

Como podemos notar, los cálculos se hacen más extensos, sin embargo los pasos a seguir son los mismos para cualquier orden.

El método de variación de parámetros, a diferencia del método de coeficientes indeterminados, tiene la ventaja de que siempre produce una solución de la ecuación diferencial independientemente de la forma de la función $g(x)$, siempre y cuando se pueda resolver la ecuación homogénea asociada. Además, el método de variación de parámetros es aplicable a ecuaciones diferenciales lineales con coeficientes variables.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de las siguientes ecuaciones diferenciales.
  • $\dfrac{d^{2}y}{dx^{2}} -9\dfrac{dy}{dx} = 18x^{2}e^{9x}$
  • $\dfrac{d^{2}y}{dx^{2}} + 9y = 18e^{x} \sin(x)$
  • $4 \dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + y = e^{x/2}\sqrt{1 -x^{2}}$
  1. Resolver las siguientes ecuaciones diferenciales para las condiciones iniciales dadas.
  • $\dfrac{d^{2}y}{dx^{2}} -3\dfrac{dy}{dx} = 12e^{4x}(x + 1); \hspace{1cm} y(0) = 0, \hspace{0.6cm} y^{\prime}(0) = 4$
  • $\dfrac{d^{2}y}{dx^{2}} + \dfrac{dy}{dx} -6y = 10e^{x} \sin(x); \hspace{1cm} y(0) = \dfrac{2}{17}, \hspace{0.6cm} y^{\prime}(0) = 0$
  1. Obtener la solución general de las siguientes ecuaciones diferenciales de tercer orden. Simplificar la forma de la solución redefiniendo las constantes.
  • $\dfrac{d^{3}y}{dx^{3}} + 4 \dfrac{dy}{dx} = \sec(2x)$
  • $\dfrac{d^{3}y}{dx^{3}} + \dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -y = 2e^{-x}$

Más adelante…

Hemos concluido con el estudio de las ecuaciones diferenciales lineales de orden superior con coeficientes constantes.

Lo que sigue es estudiar este mismo tipo de ecuaciones, pero en el caso en el que los coeficientes no son constantes, es decir, son coeficientes variables. Estas ecuaciones suelen ser mucho más difícil de resolver, sin embargo existe un tipo de ecuación especial, conocida como ecuación de Cauchy – Euler, que contiene coeficientes variables, pero que su método de resolución es bastante similar a lo que hemos desarrollado en el caso de coeficientes constantes, pues su resolución involucra resolver una ecuación auxiliar. En la siguiente entrada estudiaremos dicha ecuación.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»