Archivo de la etiqueta: Ecuaciones diferenciales lineales

Ecuaciones Diferenciales I: Ecuaciones diferenciales de orden superior

Las matemáticas expresan valores que reflejan el cosmos, incluyendo
el orden, equilibrio, armonía, lógica y belleza abstracta.
– Deepak Chopra

Introducción

¡Bienvenidos a la segunda unidad del curso de Ecuaciones Diferenciales I!.

En la primera unidad estudiamos las ecuaciones diferenciales lineales y no lineales de primer orden, en esta unidad estudiaremos las ecuaciones diferenciales de orden superior a uno, en particular las ecuaciones lineales de segundo orden.

Anteriormente vimos que las ecuaciones diferenciales se pueden clasificar por orden, el cual corresponde al orden de la derivada más alta presente en la ecuación diferencial. A las ecuaciones diferenciales de orden mayor a uno se le conocen como ecuaciones diferenciales de orden superior. Nuestro enfoque en esta unidad serán las ecuaciones diferenciales lineales de segundo orden, pero antes de desarrollar los distintos métodos de resolución es necesario establecer una serie de conceptos y teoremas que sustentarán a dichos métodos.

Si bien, la segunda unidad tratará sobre las ecuaciones diferenciales lineales de segundo orden, gran parte de esta teoría preliminar la desarrollaremos para el caso general en el que el orden de la ecuación es $n$, con $n$ un número entero mayor a uno, así sólo será suficiente fijar $n = 2$ para referirnos a las ecuaciones de segundo orden.

Ecuaciones Diferenciales lineales de orden superior

Recordemos que una ecuación diferencial de $n$-ésimo orden en su forma general es

$$F(x, y, y^{\prime}, \cdots, y^{(n)}) = 0 \label{1} \tag{1}$$

Donde $F$ es una función con valores reales de $n + 2$ variables. La ecuación (\ref{1}) se puede escribir en su forma normal como

$$\dfrac{d^{n}y}{dx^{n}} = f(x, y, y^{\prime}, \cdots, y^{(n -1)}) \label{2} \tag{2}$$

Con $f$ una función continua con valores reales. Para el caso en el que la ecuación es lineal, una ecuación diferencial de $n$-ésimo orden se puede escribir como

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{3} \tag{3}$$

Satisfaciendo las propiedades que ya conocemos. La ecuación (\ref{3}) es una ecuación no homogénea, en el caso en el que $g(x) = 0$, decimos que la ecuación es homogénea.

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{4} \tag{4}$$

Las ecuaciones (\ref{3}) y (\ref{4}) serán, entonces, el tipo de ecuaciones sobre la cual desarrollaremos esta teoría preliminar.

Para comenzar estudiemos los problemas con valores iniciales y problemas con valores en la frontera en el caso de las ecuaciones diferenciales lineales de orden superior.

Problema con valores iniciales para ecuaciones lineales

En la unidad anterior definimos lo que es un problema con valores iniciales, esta definición fue general, definamos ahora lo que es un problema con valores iniciales para el caso en el que la ecuación es lineal.

Para el caso de segundo orden ya hemos mencionado que geométricamente un PVI involucra obtener una curva solución que pase por el punto $(x_{0}, y_{0})$ y la pendiente en dicho punto sea $m = y_{1}$.

Enunciaremos, sin demostrar, el teorema de existencia y unicidad que contiene las condiciones suficientes para la existencia y unicidad de una solución de un PVI de $n$-ésimo orden para el caso de las ecuaciones lineales.

Podemos enunciar el teorema de existencia y unicidad para el caso de las ecuaciones diferenciales lineales de segundo orden ($n = 2$) de la siguiente manera.

No demostraremos este teorema, pero es importante notar que dentro del enunciado hemos escrito la definición de PVI para el caso $n = 2$ (segundo orden). Veamos un ejemplo en donde apliquemos este último teorema.

Ejemplo: Probar que la función

$$y(x) = 3 e^{2x} + e^{-2x} -3x$$

es solución al PVI

$$\dfrac{d^{2}y}{dx^{2}} -4y = 12x; \hspace{1cm} y(0) = 4, \hspace{0.5cm} y^{\prime}(0) = 1$$

y además es única.

Solución: Primero probemos que es solución al PVI, para ello veamos que satisface la ecuación diferencial y además cumple con las condiciones iniciales.

La función dada es

$$y(x) = 3 e^{2x} + e^{-2x} -3x$$

La primera y segunda derivada de esta función son, respectivamente

$$\dfrac{dy}{dx} = y^{\prime}(x) = 6 e^{2x} -2 e^{-2x} -3 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = y^{\prime \prime}(x) = 12 e^{2x} + 4e^{-2x}$$

Notemos que

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} -4y &= (12 e^{2x} + 4e^{-2x}) -4(3 e^{2x} + e^{-2x} -3x) \\
&= 12 e^{2x} + 4e^{-2x} -12 e^{2x} -4e^{-2x} + 12x \\
&= 12x
\end{align*}

Esto es,

$$\dfrac{d^{2}y}{dx^{2}} -4y = 12x$$

La función satisface la ecuación diferencial. Verifiquemos que satisface las condiciones iniciales.

En la solución evaluemos $x = 0$.

$$y(0) = 3 e^{0} + e^{0} -0 = 3 + 1 = 4 \hspace{1cm} \Rightarrow \hspace{1cm} y(0) = 4$$

Se cumple la primera condición inicial. Ahora, en la derivada de la función evaluemos en $x = 0$.

$$y^{\prime}(0) = 6 e^{0} -2 e^{0} -3 = 6 -2 -3 = 1 \hspace{1cm} \Rightarrow \hspace{1cm} y^{\prime}(0) = 1$$

Se cumple la segunda condición inicial. Por lo tanto, la función dada es solución al PVI.

Es claro que el intervalo de solución es $\delta = (-\infty, \infty)$ y que $x_{0} = 0 \in \delta.$ Como $a_{2}(x) = 1 \neq 0, a_{0}(x) = -4$ y $g(x) = 12x$ son funciones continuas en $\delta$, por el teorema de existencia y unicidad para ecuaciones diferenciales lineales de segundo orden concluimos que la función $y(x) = 3 e^{2x} + e^{-2x} -3x$ es una solución única.

$\square$

Al haber aumentado el orden de las ecuaciones diferenciales aparece un nuevo problema que estudiaremos a continuación.

Problema con valores en la frontera

En el estudio de las ecuaciones diferenciales de orden superior existe otro problema similar al PVI conocido como problema con valores en la frontera (PVF) en el que se busca resolver una ecuación diferencial de orden dos o mayor, tal que la variable dependiente y/o sus derivadas se especifican en distintos puntos.

Para que quede claro este concepto definiremos un problema con valores en la frontera para el caso de una ecuación diferencial lineal de segundo orden y siguiendo esta misma idea es que se puede definir para una ecuación de orden superior a dos.

Así, resolver un PVF es hallar una función $y(x)$ que satisfaga la ecuación diferencial en algún intervalo $\delta$ que contiene a $a$ y $b$ y que cuya curva solución pase por los puntos $(a, y_{0})$ y $(b, y_{1})$.

La razón por la que definimos un PVF para el caso de una ecuación diferencial de segundo orden es porque es posible hacer notar que otros pares de condiciones en la frontera pueden ser

$$y^{\prime}(a) = y_{0} \hspace{1cm} y \hspace{1cm} y(b) = y_{1}$$

$$y(a) = y_{0} \hspace{1cm} y \hspace{1cm} y^{\prime}(b) = y_{1}$$

$$y^{\prime}(a) = y_{0} \hspace{1cm} y \hspace{1cm} y^{\prime}(b) = y_{1}$$

Sin embargo, las condiciones en la frontera presentadas son sólo casos particulares de las condiciones en la frontera generales

\begin{align*}
\alpha_{1} y(a) + \beta_{1} y^{\prime}(a) &= \gamma_{1} \\
\alpha_{2} y(b) + \beta_{2} y^{\prime}(b) &= \gamma_{2}
\end{align*}

Es así que aumentando el orden de la ecuación, las combinaciones de pares de condiciones en la frontera aumentan.

A diferencia de un PVI en el que si existe una solución, entonces ésta es única, en un PVF pueden existir varias soluciones distintas que satisfacen las mismas condiciones en la frontera, o bien, puede sólo existir una solución única o no tener ninguna solución. Veamos un ejemplo que muestre este hecho.

Ejemplo: Probar que la función general

$$y(x) = c_{1}x^{2} + c_{2}x^{4} + 3$$

es solución de la ecuación diferencial

$$x^{2} \dfrac{d^{2}y}{dx^{2}} -5x \dfrac{dy}{dx} + 8y = 24$$

y además, de acuerdo a las condiciones en la frontera dadas a continuación, se cumplen las siguientes propiedades:

  • $y(-1) = 0, \hspace{0.5cm} y(1) = 4 \hspace{0.5cm} \Rightarrow \hspace{0.5cm}$ No existe una solución.
  • $y(0) = 3, \hspace{0.8cm} y(1) = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm}$ Existen infinitas soluciones.
  • $y(1) = 3, \hspace{0.8cm} y(2) = 15 \hspace{0.3cm} \Rightarrow \hspace{0.5cm}$ Existe una única solución.

Solución: De tarea moral verifica que la función dada es solución de la ecuación diferencial. Más adelante estudiaremos los métodos de resolución de este tipo de ecuaciones diferenciales, de manera que seremos capaces de obtener esta función y probar, de hecho, que es la solución general. Por ahora sólo verifica que es solución.

Una vez comprobado que $y(x)$ es solución apliquemos las condiciones de frontera de cada caso y veamos que ocurre con la solución.

  • Caso 1: $\hspace{0.5cm} y(-1) = 0, \hspace{0.5cm} y(1) = 4$

$$y(-1) = c_{1}(-1)^{2} + c_{2}(-1)^{4} + 3 = c_{1} + c_{2} + 3 = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = -3$$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 4 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = 1$$

De ambas condiciones de la frontera obtenemos que $c_{1} + c_{2} = -3$ y a la vez $c_{1} + c_{2} = 1$ lo cual es imposible, por lo tanto en este caso NO existe una solución al PVF.

  • Caso 2: $\hspace{0.5cm} y(0) = 3, \hspace{0.5cm} y(1) = 0$

$$y(0) = c_{1}(0)^{2} + c_{2}(0)^{4} + 3 = 3 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} y(0) = 3$$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = -3$$

Vemos que la primer condición de frontera se cumple y aplicando la segunda obtenemos que $c_{1} + c_{2} = -3$ de donde $c_{2} = -(c_{1} +3)$, sustituyendo en la solución $y(x)$ obtenemos la función

$$y(x) = c_{1}x^{2} -(c_{1} +3) x^{4} + 3$$

Donde $c_{1}$ es un parámetro libre, lo que indica que en este caso existen infinitas soluciones, una por cada posible valor de $c_{1}$.

  • Caso 3: $\hspace{0.5cm} y(1) = 3, \hspace{0.5cm} y(2) = 15$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 3 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = 0$$

$$y(2) = c_{1}(2)^{2} + c_{2}(2)^{4} + 3 = 4c_{1} + 16c_{2} + 3 = 15 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + 4c_{2} = 3$$

De ambas condiciones de frontera obtenemos el sistema de ecuaciones

\begin{align*}
c_{1} + c_{2} &= 0 \\
c_{1} + 4c_{2} &= 3
\end{align*}

De la primer ecuación obtenemos que $c_{1} = -c_{2}$, sustituyendo en la segunda ecuación obtenemos

$$-c_{2} + 4c_{2} = 3c_{2} = 3$$

de donde $c_{2} = 1$ y por tanto $c_{1} = -1$. Sustituyendo en la solución $y(x)$ obtenemos la función

$$y(x) = -x^{2} + x^{4} + 3$$

Por lo tanto, al ser una función sin parámetros, la solución es única.

$\square$

A continuación estudiaremos algunos operadores importantes que nos ayudarán en las posteriores demostraciones de algunos teoremas importantes, además de que nos serán de utilidad en cuestiones de notación.

Operadores Diferenciales

Comencemos por definir el operador de derivada.

Con ayuda del operador diferencial podemos escribir la derivada de una función $y(x)$ como

$$Dy = \dfrac{dy}{dx} = y^{\prime}(x) \label{7} \tag{7}$$

En el entendido que $D$ opera sobre la variable independiente de $y$, en este caso de $x$.

Por ejemplo, ahora podemos escribir

$$D \{ 2x \sin(x) \} = 2 \sin(x) + 2x \cos(x)$$

Usando el operador diferencial, las expresiones de las derivadas de orden superior se pueden escribir como

$$\dfrac{d}{dx} \left( \dfrac{dy}{dx} \right) = \dfrac{d^{2}y}{dx^{2}} = D(Dy) = D^{2}y \label{8} \tag{8}$$

Y de manera general

$$\dfrac{d^{n}y}{dx^{n}} = D^{n}y \label{9} \tag{9}$$

Sabemos que la derivada es lineal (en el contexto del álgebra lineal), por tanto el operador diferencial también satisface las propiedades de linealidad:

  • $D \{ f(x) + g(x) \} = D \{f(x) \} + D \{g(x) \}$
  • $D \{cf(x) \} = cD \{f(x) \}$

Por otro lado, una ecuación diferencial como

$$\dfrac{d^{2}y}{dx^{2}} -2\dfrac{dy}{dx} + 5y = 0$$

se puede escribir en términos del operador diferencial como

$$D^{2}y -2Dy +5y = (D^{2} -2D +5)y = 0$$

Observamos que el lado izquierdo de ésta última expresión corresponde a una expresión polinomial en la que interviene el operador $D$, estas expresiones polinomiales son también un operador diferencial y tiene un nombre particular.

Debido a que el operador polinomial esta definido con operadores diferenciales $D$, las propiedades de linealidad de $D$ le atribuyen a $\mathcal{L}$ linealidad. Más general, $\mathcal{L}$ operando sobre una combinación lineal de dos funciones derivables es lo mismo que la combinación lineal de $\mathcal{L}$ operando en cada una de las funciones, esto es

$$\mathcal{L} \{ \alpha f(x) + \beta g(x) \} = \alpha \mathcal{L} \{f(x) \} + \beta \mathcal{L} \{g(x) \} \label{11} \tag{11}$$

Una primera ventaja de usar el operador polinomial es que las ecuaciones (\ref{3}) y (\ref{4}) se pueden escribir como

$$\mathcal{L}(y) = g(x) \hspace{1cm} y \hspace{1cm} \mathcal{L}(y) = 0$$

respectivamente.

A continuación el operador polinomial nos será de mucha utilidad.

Principio de superposición

Es posible obtener varias soluciones de una ecuación diferencial lineal homogénea (\ref{4}) y si sumamos o superponemos todas estas soluciones veremos que dicha función es también solución de la ecuación diferencial. Este hecho se muestra en el siguiente resultado conocido como principio de superposición para ecuaciones homogéneas.

Demostración: Sea $\mathcal{L}$ el operador polinomial (\ref{10}) de $n$-ésimo orden y sean $y_{1}, y_{2}, \cdots, y_{k}$ soluciones de la ecuación homogénea (\ref{4}) en el intervalo $\delta$. Definamos la combinación lineal

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$$

con $c_{i}$, $i = 1,2, \cdots, k$ constantes arbitrarias. Notemos que

$$\mathcal{L}(y) = \mathcal{L} \{ c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x) \}$$

Por la linealidad de $\mathcal{L}(y)$ (\ref{11}), se tiene

$$\mathcal{L}(y) = c_{1} \mathcal{L} \{ y_{1}(x) \} + c_{2} \mathcal{L} \{ y_{2}(x) \} + \cdots + c_{k} \mathcal{L} \{ y_{k}(x) \}$$

Pero cada $y_{i}$, $i = 1, 2, \cdots, k$ es solución de (\ref{4}), entonces

$$\mathcal{L}(y_{i}) = 0$$

para todo $i = 1, 2, \cdots, k$, así la expresión anterior se reduce a lo siguiente.

$$\mathcal{L}(y) = c_{1} 0 + c_{2} 0 + \cdots + c_{k} 0 = 0$$

Por lo tanto

$$\mathcal{L}(y) = 0$$

es decir, la combinación lineal

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$$

es también solución de la ecuación diferencial homogénea (\ref{4}).

$\square$

Dos corolarios importantes del teorema anterior son los siguientes.

Demostración: Consideremos la función $y = c_{1}y_{1}(x)$, aplicando el operador polinomial $\mathcal{L}$, tenemos

$$\mathcal{L}(y) = \mathcal{L} \{ c_{1}y_{1}(x) \} = c_{1} \mathcal{L} \{ y_{1}(x) \} = 0$$

Ya que $y_{1}(x)$ es solución de la ecuación homogénea, es decir, $\mathcal{L} \{y_{1} \} = 0 $. Por lo tanto la función $y(x) =c_{1}y_{1}(x)$ es también solución de la ecuación diferencial homogénea.

$\square$

Usando el teorema anterior y la definición de $\mathcal{L}$ es clara la demostración, inténtalo.

Realicemos un ejemplo sobre el principio de superposición.

Ejemplo: Mostrar que las funciones

$$y_{1}(x) = x^{2} \hspace{1cm} y \hspace{1cm} y_{2}(x) = x^{2} \ln(x)$$

son soluciones de la ecuación diferencial lineal homogénea

$$x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y = 0$$

en el intervalo $\delta = (0, \infty)$. Y mostrar que la combinación lineal

$$y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$$

es también solución de la ecuación diferencial en el mismo intervalo.

Solución: De tarea moral verifica que las funciones por separado

$$y_{1}(x) = x^{2} \hspace{1cm} y \hspace{1cm} y_{2}(x) = x^{2} \ln(x)$$

son soluciones de la ecuación diferencial en el intervalo $\delta = (0, \infty)$.

Una vez asegurado que ambas funciones son solución, de acuerdo al principio de superposición, la combinación lineal de ambas funciones

$$y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$$

debe ser también solución de la ecuación diferencial, veamos que es así. Para ello calculemos la primera, segunda y tercera derivada. Para la primer derivada tenemos

$$\dfrac{dy}{dx} = 2c_{1}x + 2c_{2}x \ln(x) + c_{2} x$$

La segunda derivada es

$$\dfrac{d^{2}y}{dx^{2}} = 2c_{1} + 2c_{2} \ln(x) + 3c_{2}$$

Finalmente, la tercer derivada es

$$\dfrac{d^{3}y}{dx^{3}} = \dfrac{2c_{2}}{x}$$

Sustituyendo los valores correspondientes en la ecuación diferencial, tenemos

\begin{align*}
x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y &= x^{3} \left( \dfrac{2c_{2}}{x} \right) -2x \left( 2c_{1}x + 2c_{2}x \ln(x) + c_{2} x \right) + 4 \left( c_{1} x^{2} + c_{2} x^{2} \ln(x) \right) \\
&= 2c_{2}x^{2} -4c_{1}x^{2} -4c_{2}x^{2} \ln(x) -2c_{2} x^{2} + 4c_{1} x^{2} + 4c_{2} x^{2} \ln(x) \\
&= c_{1}(4x^{2} -4x^{2}) + c_{2} \left( 2x^{2} -2x^{2} + 4x^{2}\ln(x) -4x^{2}\ln(x) \right) \\
&= c_{1}(0) + c_{2}(0) \\
&= 0
\end{align*}

Hemos recuperado la ecuación diferencial

$$x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y = 0$$

por lo tanto, la combinación lineal

$$y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$$

es también solución de la ecuación diferencial verificando así el principio de superposición.

Es claro que la función $\ln(x)$ restringe los valores de $x$, de manera que el intervalo $\delta = (0, \infty)$ es el intervalo en el que la función $y(x)$ es continua.

$\square$

Dependencia e independencia lineal

El principio de superposición trae consigo el concepto de combinación lineal y, de álgebra lineal, sabemos que si un elemento de un espacio vectorial se puede escribir como combinación lineal de otros elementos del mismo espacio vectorial, decimos que dicho elemento es linealmente dependiente y si no es dependiente, entonces decimos que es linealmente independiente. Ahora es necesario definir estos conceptos en el contexto de las ecuaciones diferenciales lineales.

Podemos decir que un conjunto de funciones es linealmente independiente en un intervalo $\delta$ si las únicas constantes para las que

$$c_{1}f_{1}(x) + c_{2}f_{2}(x) + \cdots +c_{n}f_{n}(x) = 0, \hspace{1cm} \forall x \in \delta$$

son $c_{1} = c_{2} = \cdots = c_{n} = 0$.

Realicemos algunas observaciones para el caso $n = 2$.

Dos funciones $f_{1}(x), f_{2}(x)$ son linealmente dependientes en el intervalo $\delta$, donde ambas están definidas, si en dicho intervalo son proporcionales, esto es, si

$$f_{1}(x) = c_{1}f_{2}(x) \hspace{1cm} o \hspace{1cm} f_{2}(x) = c_{2}f_{1}(x) \label{14} \tag{14}$$

donde $c_{1}$ y $c_{2}$ son constantes distintas de cero, de esta manera, si $f_{1}(x)$ y $f_{2}(x)$ no son proporcionales en el intervalo $\delta$, entonces ambas funciones son linealmente independientes en dicho intervalo.

De las relaciones de proporcionalidad (\ref{14}) notamos que

$$\dfrac{f_{1}(x)}{f_{2}(x)} = c_{1} \hspace{1cm} y \hspace{1cm} \dfrac{f_{2}(x)}{f_{1}(x)} = c_{2} \label{15} \tag{15}$$

Con estas relaciones podemos establecer que $f_{1}(x)$ y $f_{2}(x)$ son linealmente dependientes en el intervalo $\delta$ si cada cociente es una constante a lo largo de todo el intervalo $\delta$ y, por otro lado, si los cocientes dependen de $x$ en el intervalo $\delta$, entonces las funciones $f_{1}(x)$ y $f_{2}(x)$ son linealmente independientes.

En definitiva, las funciones $f_{1}(x), f_{2}(x), \cdots, f_{n}(x)$ son linealmente dependientes en el intervalo $\delta$ si al menos una de ellas puede expresarse como combinación lineal de las otras. En caso contrario, las funciones son linealmente independientes.

Por ejemplo, dado el conjunto de funciones

$$f_{1}(x) = 4x^{3}, \hspace{0.5cm} f_{2}(x) = 2x^{2}, \hspace{0.5cm} f_{3}(x) = 8x^{3} + 12x^{2}$$

es sencillo darse cuenta que

$$f_{3}(x) = 2f_{1}(x) + 6f_{2}(x)$$

Por lo tanto, el conjunto de funciones es linealmente dependiente.

Ejemplo: Determinar si las funciones

$$y_{1}(x) = c_{1} e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = c_{2}x e^{-x}$$

son linealmente dependientes o linealmente independientes. Probar además que dichas funciones por separado son solución de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

y verificar que la combinación lineal

$$y(x) = c_{1} e^{-x} + c_{2}x e^{-x}$$

es también solución de la ecuación diferencial.

Solución: Como vimos, hay distintas formas de verificar si las funciones son linealmente dependientes o linealmente independientes, quizá la forma más práctica es observar si el cociente $\dfrac{y_{1}}{y_{2}}$ o $\dfrac{y_{2}}{y_{1}}$ es constante o dependiente de $x$ en el intervalo $\delta$ en el que ambas están definidas.

Observamos primero que ambas funciones

$$y_{1}(x) = c_{1} e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = c_{2}x e^{-x}$$

están definidas en todo $\mathbb{R}$, por tanto

$$\delta = (-\infty, \infty)$$

Ahora bien, notamos que

$$\dfrac{y_{1}}{y_{2}} = \dfrac{c_{1}}{c_{2} x}$$

O bien,

$$\dfrac{y_{2}}{y_{1}} = \dfrac{c_{2} x}{c_{1}}$$

Como podemos ver, ambos cocientes son dependientes de la variable independiente $x$. Por lo tanto, las funciones son linealmente independientes.

Ahora verifiquemos que cada función $y_{1}(x)$ y $y_{2}(x)$ es solución de la ecuación diferencial dada.

Para la primer función tenemos

$$y_{1}(x) = c_{1} e^{-x} \hspace{0.8cm} \Rightarrow \hspace{0.8cm} \dfrac{dy_{1}}{dx} = -c_{1} e^{-x} \hspace{0.8cm} \Rightarrow \hspace{0.8cm} \dfrac{d^{2}y_{1}}{dx^{2}} = c_{1} e^{-x}$$

Sustituimos en la ecuación diferencial.

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y &= c_{1} e^{-x} + 2(-c_{1} e^{-x}) + c_{1} e^{-x} \\
&= 2c_{1} e^{-x} -2c_{1} e^{-x} \\
&= 0
\end{align*}

Esto es,

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

Por lo tanto, la función $y_{1}(x) = c_{1} e^{-x}$ satisface la ecuación diferencial.

Para la segunda función tenemos

$$y_{2}(x) = c_{2}x e^{-x} \hspace{0.5cm} \Rightarrow \hspace{0.5cm} \dfrac{dy_{2}}{dx} = c_{2} e^{-x} -c_{2}x e^{-x} \hspace{0.5cm} \Rightarrow \hspace{0.5cm} \dfrac{d^{2}y_{2}}{dx^{2}} = -2c_{2} e^{-x} + c_{2}x e^{-x}$$

Sustituimos en la ecuación diferencial.

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y &= (-2c_{2} e^{-x} + c_{2}x e^{-x}) + 2(c_{2} e^{-x} -c_{2}x e^{-x}) + c_{2}x e^{-x} \\
&= -2c_{2} e^{-x} + c_{2}x e^{-x} + 2c_{2} e^{-x} -2c_{2}x e^{-x} + c_{2}x e^{-x} \\
&= (2c_{2} e^{-x} -2c_{2} e^{-x}) + (2c_{2}x e^{-x} -2c_{2}x e^{-x}) \\
&= 0
\end{align*}

Nuevamente

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

Por lo tanto, la función $y_{2}(x) = c_{2}x e^{-x}$ es también solución de la ecuación diferencial.

Ahora que sabemos que ambas funciones son solución de la ecuación diferencial, podemos aplicar el principio de superposición y concluir que la combinación lineal

$$y(x) = c_{1} e^{-x} + c_{2}x e^{-x}$$

es también solución de la ecuación diferencial. De tarea moral verifica que en efecto es solución.

$\square$

Para finalizar esta entrada definiremos un concepto sumamente importante y el cual estudiaremos con mayor detalle en la siguiente entrada.

En el ejemplo anterior mostramos que las funciones

$$y_{1}(x) = c_{1} e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = c_{2}x e^{-x}$$

son linealmente independientes y ambas por separado son solución de la ecuación diferencial homogénea

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

En general, al conjunto de $n$ soluciones linealmente independientes de una ecuación diferencial lineal homogénea de $n$-ésimo orden se le da el nombre de conjunto fundamental de soluciones.

Así, el conjunto $\{ y_{1}(x) = c_{1} e^{-x}, y_{2}(x) = c_{2}x e^{-x} \}$ es un conjunto fundamental de soluciones de la ecuación diferencial homogénea

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

en el intervalo $\delta = (-\infty, \infty)$.

En la siguiente entrada retomaremos este concepto.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Problemas con valores iniciales.
  • La solución general de la ecuación diferencial $$\dfrac{d^{2}y}{dx^{2}} -y = 0$$ es $$y(x) = c_{1} e^{x} + c_{2} e^{-x}$$ definida en $\delta = (-\infty, \infty)$. Determinar la solución particular que es solución al PVI dadas las condiciones iniciales $$y(0) = 0, \hspace{1cm} y^{\prime}(0) = 1$$
  • Dado que $$x(t) = c_{1} \cos(\omega t) + c_{2} \sin(\omega t)$$ es la solución general de $$x^{\prime \prime} + \omega^{2} x = 0$$ en el intervalo $(-\infty, \infty)$, demostrar que la solución que satisface las condiciones iniciales $x(0) = x_{0}$ y $x^{\prime}(0) = x_{1}$ esta dada por $$x(t) = x_{0} \cos(\omega t) + \dfrac{x_{1}}{\omega} \sin(\omega t)$$
  1. Problema con condiciones en la frontera.
  • La función $$y(x) = c_{1} e^{x} \cos(x) + c_{2} e^{x} \sin(x)$$ es una solución de la ecuación diferencial $$\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = 0$$ en el intervalo $(-\infty, \infty)$. Determinar si se puede encontrar una solución que satisfaga las siguientes condiciones en la frontera.

$$a) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y^{\prime}(\pi) = 0; \hspace{1.5cm} b) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y(\pi) = -1$$

$$c) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y \left( \dfrac{\pi}{2} \right) = 1; \hspace{1.2cm} d) \hspace{0.1cm} y(0) = 0, \hspace{0.4cm} y(\pi) = 0$$

  1. Determinar si los siguientes conjuntos de funciones son linealmente independientes en el intervalo $(-\infty, \infty )$.
  • $f_{1}(x) = x, \hspace{0.5cm} f_{2}(x) = x^{2}, \hspace{0.5cm} f_{3}(x) = 4x -3x^{2}$
  • $f_{1}(x) = 1+ x, \hspace{0.5cm} f_{2}(x) = x, \hspace{0.5cm} f_{3}(x) = x^{2}$
  • $f_{1}(x) = e^{x}, \hspace{0.5cm} f_{2}(x) = e^{-x}, \hspace{0.5cm} f_{3}(x) = \sinh (x)$
  1. Comprobar que las funciones dadas forman un conjunto fundamental de soluciones de la ecuación diferencial en el intervalo que se indica y formar la solución general.
  • $\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -12y = 0; \hspace{1cm} y_{1} = e^{-3x}, \hspace{0.4cm} y_{2} = e^{4x}; \hspace{1cm} (-\infty, \infty)$
  • $4 \dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + y = 0; \hspace{1cm} y_{1} = e^{x/2}, \hspace{0.4cm} y_{2} = x e^{x/2}; \hspace{1cm} (-\infty, \infty)$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} -6x \dfrac{dy}{dx} + 12y = 0; \hspace{1cm} y_{1} = x^{3}, \hspace{0.4cm} y_{2} = x^{4}; \hspace{1cm} (0, \infty)$

Más adelante…

Hemos comenzado nuestro estudio sobre las ecuaciones diferenciales de orden superior, vimos que, además del problema con valores iniciales, ahora nos enfrentamos a un nuevo problema conocido como problema con valores en la frontera. Definimos algunos operadores de interés y demostramos el principio de superposición. Finalmente, vimos que si las soluciones son funciones linealmente independientes, entonces forman un conjunto fundamental de soluciones de la ecuación diferencial.

En la siguiente entrada estudiaremos algunas propiedades de las soluciones retomando el concepto de conjunto fundamental de soluciones. Veremos cuál es la forma de la solución general, la importancia de que las soluciones sean linealmente independientes y definiremos el concepto de Wronskiano, el cual será una herramienta muy importante para determinar la dependencia o independencia lineal de las soluciones.

Entradas relacionadas

Ecuaciones Diferenciales I: Demostración del Teorema de Existencia y Unicidad de Picard – Lindelöf

Si la gente no cree que las matemáticas son simples, es solo
porque no se dan cuenta de lo complicado que es la vida.
– John Louis von Neumann

Introducción

¡Hemos llegado al final de la primera unidad de este curso!.

Concluiremos con la demostración de uno de los teoremas más importantes dentro del campo de las ecuaciones diferenciales; el teorema de existencia y unicidad de Picard – Lindelöf. Pero antes, un poco de contexto histórico.

Este resultado fue estudiado y desarrollado entre los años 1820 y 1900 por Cauchy, Liouville, Lipschitz, Picard y Lindelöf. Entre 1820 y 1830 Cauchy probó que si $f = f(x, y)$ es una función continua y existe su derivada parcial $\dfrac{df}{dy}$ continua en cierta región $U \subset \mathbb{R}^{2}$ que contiene el punto $(x_{0}, y_{0})$, entonces existe un intervalo $\delta$ en el que un problema de valor inicial posee una única solución definida en $\delta$.

En 1838, Liouville simplificó la prueba de Cauchy introduciendo el método de las aproximaciones sucesivas, que más tarde continuarían siendo desarrolladas por Picard y que se conocerían como iterantes de Picard.

En 1876, Lipschitz mejoraría el resultado de Cauchy, sustituyendo la condición de que exista la derivada continua de $f$ por una menos fuerte, conocida como condición de Lipschitz.

Posteriormente, todo lo anterior fue ligeramente mejorado y generalizado por Picard (1890) y Lindelöf (1893), siguiendo las mismas ideas dadas por Liouville y Lipschitz.

Actualmente el método y los resultados se les atribuyen a Picard conociéndose como método de las iterantes de Picard y teorema de Picard (o más generalmente, teorema de Picard – Lindelöf).

En las dos últimas entradas hemos presentado una teoría preliminar con todas las herramientas necesarias para demostrar el teorema de Picard – Lindelöf, sin más, demostremos el teorema.

Teorema de existencia y unicidad de Picard – Lindelöf

El resultado global del teorema de existencia y unicidad de Picard – Lindelöf es el siguiente.

Demostración del teorema de Picard – Lindelöf

Sea $\delta = [a, b]$. Como cualquier función $y: \delta \rightarrow \mathbb{R}$ tiene su gráfica en $U$ y por hipótesis $f$ es continua en $U$, tenemos, como consecuencia del teorema sobre la ecuación integral, que $y: \delta \rightarrow \mathbb{R}$ es solución del PVI si y solo si $y(x)$ es una función continua en $\delta$ y para cada $x \in \delta$ verifica la ecuación integral

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t))dt \label{2} \tag{2}$$

Necesitamos probar que esta ecuación integral sólo posee una solución continua. Para ello, al ser $U$ una banda vertical, podemos definir sin problema alguno las iterantes de Picard $y_{n}: \delta \rightarrow \mathbb{R}$, las cuales son funciones continuas que verifican $y_{n}(x_{0}) = y_{0}$.

La demostración la dividiremos en tres secciones:

  • Primero probaremos que la sucesión de iterantes $\{y_{n}\}$ converge uniformemente en el intervalo $\delta$ hacia una función continua $y: \delta \rightarrow \mathbb{R}$.
  • Posteriormente comprobaremos que esta función $y: \delta \rightarrow \mathbb{R}$ verifica la ecuación integral (\ref{2}) y, por tanto, es solución del PVI.
  • Finalmente probaremos que el PVI no posee otra solución distinta de $y: \delta \rightarrow \mathbb{R}$.

Con los primeros dos puntos estaremos demostrando la existencia de una solución al problema de valor inicial y con el tercer punto estaremos demostrando la unicidad. Es importante mencionar que en cada uno de los tres puntos anteriores, aparte de la continuidad de $f$, haremos uso de manera esencial de la condición de Lipschitz de $f$ respecto de la segunda variable.

$$|f(x, y_{1}) -f(x, y_{2})| \leq L|y_{1} -y_{2}| \label{3} \tag{3}$$

para cada par de puntos $(x, y_{1}), (x, y_{2}) \in U$. Con $L$ la constante de Lipschitz para $f$ en $U$.

Así mismo, en el primer punto utilizaremos de forma esencial que la convergencia de las iterantes es uniforme, pues no basta con la convergencia puntual.

Demostremos el primer punto.

  • Convergencia uniforme de las iterantes de Picard.

Para probar que la sucesión de iterantes $\{y_{n}\}$ converge uniformemente en el intervalo $\delta$ es conveniente expresarlas de la siguiente forma.

$$y_{n}(x) = y_{0}(x) + \sum_{m = 1}^{n}(y_{m}(x) -y_{m -1}(x)) \label{4} \tag{4}$$

Desglosa la serie anterior para que verifiques la equivalencia.

Fijado $x \in \delta$ es evidente que la sucesión numérica $\{y_{n}(x)\}$ es convergente en $\mathbb{R}$ si y sólo si la serie numérica $\sum_{m = 1}^{\infty}(y_{m}(x) -y_{m -1}(x))$ es convergente, para lo cual es suficiente con la convergencia absoluta de la serie para cada $x \in \delta$, es decir

$$\sum_{m = 1}^{\infty }|y_{m}(x) -y_{m -1}(x)|< \infty \label{5} \tag{5}$$

Si la serie (\ref{5}) fuese convergente para cada $x \in \delta$, entonces se tendría que la sucesión de iterantes converge puntualmente en $\delta$, sin embargo no es suficiente con la convergencia puntual; necesitamos algo más fuerte, como lo es la convergencia uniforme.

Para probar que la serie funcional $\sum_{m = 1}^{\infty}(y_{m}(x) -y_{m -1}(x))$ converge uniformemente en $\delta$ y, por tanto, la sucesión de iterantes, vamos a usar el criterio mayorante de Weierstrass para lo cual necesitamos probar que existen unas constantes $M_{m} \in \mathbb{R}^{+}$, tales que

$$|y_{m}(x) -y_{m -1}(x)|\leq M_{m} \label{6} \tag{6}$$

para cada $x \in \delta$, cada $m = 1, 2, 3 \cdots$, y $\sum_{m = 1}^{\infty } M_{m} < \infty$.

Vamos a comenzar con los casos $m = 1$ y $m = 2$, es decir, vamos a hallar las constantes $M_{1}$ y $M_{2}$, tales que

$$|y_{1}(x) -y_{0}(x)| \leq M_{1} \hspace{1cm} y \hspace{1cm} |y_{2}(x) -y_{1}(x)| \leq M_{2}$$

y con estos resultados intentaremos encontrar una relación de recurrencia para las constantes $M_{m}$ para luego corroborar que $\sum_{m = 1}^{\infty } M_{m} < \infty$ y de esta manera probar la convergencia (\ref{5}).

Partiendo de la ecuación de las iterantes de Picard

$$y_{m}(x) = y_{0} + \int_{x_{0}}^{x} f(t, y_{m -1}(t)) dt; \hspace{1cm} y_{0} = y_{0}(x) \label{7} \tag{7}$$

las primeras iterantes son

$$y_{1}(x) = y_{0}(x) + \int_{x_{0}}^{x} f(t, y_{0}(t)) dt \hspace{1cm} y \hspace{1cm} y_{2}(x) = y_{0}(x) + \int_{x_{0}}^{x} f(t, y_{1}(t)) dt$$

de donde,

$$|y_{1}(x) -y_{0}(x)| = \left| \int_{x_{0}}^{x} f(t, y_{0}) dt \right |$$

y

$$|y_{2}(x) -y_{1}(x)| = \left| \int_{x_{0}}^{x} f(t, y_{1}(t)) -f(t, y_{0}(t))dt \right|$$

Al momento de estimar $|y_{1}(x) -y_{0}(x)|$ necesitamos hacer la siguiente consideración. La función $f$ es continua en $U$ y, por tanto, la función

$$g: \delta \rightarrow \mathbb{R}; \hspace{1cm} x \rightarrow g(x) = f(x, y_{0}(x))$$

es continua en $\delta$. Como $\delta$ es compacto, la función $g(x)$ está acotada en $\delta$, es decir, existe una constante $H > 0$, tal que

$$|g(x)| = |f(x, y_{0}(x))| \leq H$$

para cada $x \in \delta$ y, por tanto, se verifica lo siguiente.

\begin{align*}
|y_{1}(x) -y_{0}(x)| &= \left| \int_{x_{0}}^{x} f(t, y_{0}(t)) dt \right | \\
&\leq \int_{x_{0}}^{x}|f(t, y_{0}(t))| dt \\
&\leq \int_{x_{0}}^{x} H dt \\
&= H|x -x_{0}|
\end{align*}

esto es,

$$|y_{1}(x) -y_{0}(x)| \leq H|x -x_{0}| \label{8} \tag{8}$$

Si consideramos todo el intervalo $\delta = [a, b]$ podríamos obtener finalmente la estimación

$$|y_{1}(x) -y_{0}(x)| \leq H (b -a) = M_{1} \label{9} \tag{9}$$

Para poder estimar adecuadamente $|y_{2}(x) -y_{1}(x)|$ consideremos el resultado (\ref{8}), además de las siguientes dos desigualdades.

\begin{align*}
|y_{2}(x) -y_{1}(x)| &= \left| \int_{x_{0}}^{x} f(t, y_{1}(t)) -f(t, y_{0}(t))dt \right| \\
&\leq \int_{x_{0}}^{x}| f(t, y_{1}(t)) -f(t, y_{0}(t))|dt \label{10} \tag{10}
\end{align*}

y la condición de Lipschitz

$$|f(t, y_{1}(t)) -f(t, y_{0})| \leq L |y_{1}(t) -y_{0}(t)| \label{11} \tag{11}$$

Supongamos que $x > x_{0}$. Usando (\ref{10}) y (\ref{11}), además del resultado (\ref{8}), se tiene

\begin{align*}
|y_{2}(x) -y_{1}(x)| &\leq \int_{x_{0}}^{x}|f(t, y_{1}(t)) -f(t ,y_{0}(t))| dt \\
&\leq \int_{x_{0}}^{x} L |y_{1}(t) -y_{0}(t)|dt \\
&\leq LH \int_{x_{0}}^{x}|t- x_{0}|dt \\
&= LH \int_{x_{0}}^{x}(t -x_{0})dt \\
&= LH \dfrac{(x -x_{0})^{2}}{2}
\end{align*}


Por otro lado, para $x < x_{0}$, se tiene

\begin{align*}
|y_{2}(x) -y_{1}(x)| &\leq \int_{x}^{x_{0}}|f(t, y_{1}(t)) -f(t ,y_{0}(t))| dt \\
&\leq L \int_{x}^{x_{0}}|y_{1}(t) -y_{0}(t)|dt \\
&\leq LH \int_{x}^{x_{0}}|t -x_{0}|dt \\
&= LH \int_{x}^{x_{0}}(x_{0} -t)dt \\
&= LH \dfrac{(x_{0} -x)^{2}}{2}
\end{align*}

De ambos resultados, podemos afirmar que para cada $x \in \delta$

$$|y_{2}(x) -y_{1}(x)| \leq HL \dfrac{|x -x_{0}|^{2}}{2!} \label{12} \tag{12}$$

La desigualdad (\ref{8}) la podemos escribir de forma similar a (\ref{12}) de la siguiente forma.

$$|y_{1}(x) -y_{0}(x)| \leq HL^{0} \dfrac{|x -x_{0}|^{1}}{1!}$$

De estas dos relaciones establecemos una relación de recurrencia que vamos a probar por inducción sobre $m$. Proponemos que para cada $m = 1, 2, 3, \cdots$, y para cada $x \in \delta$, se cumple

$$|y_{m}(x) -y_{m -1}(x)| \leq HL^{m -1} \dfrac{|x -x_{0}|^{m}}{m!} \label{13} \tag{13}$$

La desigualdad ha sido probada anteriormente para $m = 1$ y $m = 2$. Supongamos que es cierta para $m$ y vamos a probar que es válida para $m + 1$ siguiendo el mismo razonamiento que en la obtención del caso $m = 2$. Vamos a mostrar el caso $x > x_{0}$, pero la prueba es similar para el caso $x < x_{0}$.

Si $x > x_{0}$, se tiene

\begin{align*}
|y_{m+1}(x) -y_{m}(x)| &\leq \int_{x_{0}}^{x}|f(t, y_{m}(t)) -f(t, y_{m -1}(t))|dt \\
&\leq L \int_{x_{0}}^{x}|y_{m}(t) -y_{m -1}(t)|dt \\
&\leq \dfrac{HL^{m}}{m!} \int_{x_{0}}^{x}(t -x_{0})^{m} dt \\
&= HL^{m} \dfrac{(x -x_{0})^{m + 1}}{(m+1)!}
\end{align*}

De forma similar, si $x < x_{0}$, se tiene

$$|y_{m+1}(x) -y_{m}(x)| \leq HL^{m} \dfrac{(x_{0} -x)^{m + 1}}{(m+1)!}$$

De ambos resultados concluimos que

$$|y_{m+1}(x) -y_{m}(x)| \leq HL^{m} \dfrac{|x -x_{0}|^{m + 1}}{(m+1)!}$$

Es Importante hacer énfasis que en este desarrollo ha sido fundamental que las iterantes $\{y_{n}\}$ tengan sus gráficas en una región $U$ donde $f$ es lipschitziana.

De lo obtenido anteriormente, y considerando el intervalo completo $\delta = [a, b]$, obtenemos finalmente la siguiente desigualdad.

$$|y_{m}(x) -y_{m -1}(x)| \leq \dfrac{H}{L} \dfrac{(L(b -a))^{m}}{m!} = M_{m} \label{14} \tag{14}$$

para cada $x \in \delta$ y cada $m = 1, 2, 3, \cdots$. Como el intervalo $\delta$ es acotado, entonces $M_{m} \in \mathbb{R}^{+}$ y sabemos que

$$\sum_{m = 1}^{\infty} \dfrac{(L(b -a))^{m}}{m!} = e^{L(b -a)} -1< \infty \label{15} \tag{15}$$

En definitiva,

$$\sum_{m=1}^{\infty } M_{m} < \infty$$

es decir la serie es convergente. Con esto queda probada la condición (\ref{5}) y debido a que la prueba se hizo utilizando el criterio mayorante de Weierstrass concluimos que se trata de una convergencia uniforme de las iterantes de Picard en el intervalo $\delta$ hacia una función $y: \delta \rightarrow \mathbb{R}$.

Es bien conocido que si una sucesión $y_{n}: \delta \rightarrow \mathbb{R}$, $n = 1, 2, 3, \cdots$, de funciones continuas sobre $\delta$ que convergen uniformemente en $\delta$ hacia una función $y: \delta \rightarrow \mathbb{R}$, la función límite uniforme $y$ también es continua en $\delta$.

Queda así demostrado el primer punto de la prueba. Ahora verifiquemos que la función límite uniforme $y: \delta \rightarrow \mathbb{R}$ verifica la ecuación integral (\ref{2}) siendo la solución al problema de valor inicial.

  • La existencia de la solución.

Sea $y: \delta \rightarrow \mathbb{R}$ la función obtenida anteriormente como límite uniforme de las iterantes de Picard $\{y_{n}\}$. La convergencia uniforme de $\{y_{n}\}$ hacia $y(x)$ en el intervalo $\delta$ significa que dado cualquier $\hat{\varepsilon} > 0$ existe un natural $N = N(\hat{\varepsilon})$, tal que para cada $n > N$ y cada $x \in \delta$

$$|y_{n}(x) -y(x)| < \hat{\varepsilon} \label{16} \tag{16}$$

Sabemos que la convergencia uniforme implica la convergencia puntual (pero no al revés), de manera que para cada $x \in \delta$ se cumple que

$$\lim_{n \to \infty}y_{n}(x) = y(x) \label{17} \tag{17}$$

Fijemos un $x \in \delta$. De acuerdo a (\ref{17}) y usando (\ref{7}), se tiene

$$y(x) = \lim_{n \to \infty} y_{n+1}(x) = y_{0} + \lim_{n \to \infty } \int_{x_{0}}^{x}f(t, y_{n}(t))dt$$

Por otro lado, sabemos que la función solución que satisface el PVI satisface también la ecuación integral (\ref{2}),

$$y(x) = y_{0} + \int_{x_{0}}^{x} f(t, y(t))dt$$

Nuestro objetivo es probar que

$$\lim_{n\rightarrow \infty }\int_{x_{0}}^{x} f(t, y_{n}(t)) dt = \int_{x_{0}}^{x}f(t, y(t))dt \label{18} \tag{18}$$

Pues de esta forma la función límite uniforme $y$ verificaría la ecuación integral y, por tanto sería solución del PVI en el intervalo $\delta$, quedando así probada la existencia de la solución.

Demostrar la relación (\ref{18}) es equivalente a probar que $\forall \varepsilon > 0$ existe $N = N(\varepsilon) \in \mathbb{N}$, tal que para cada $n > N$ y cada $x \in \delta$

$$\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt \right| < \varepsilon \label{19} \tag{19}$$

Para probar la relación (\ref{19}) de nuevo haremos uso de la condición de Lipschitz (\ref{3}) y de la convergencia uniforme de las iterantes hacia $y$ en $\delta$ (\ref{16}).

\begin{align*}
\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt\right| &\leq \int_{x_{0}}^{x}|f(t, y_{n}(t)) -f(t, y(t))|dt \\
&\leq \int_{a}^{b}|f(t, y_{n}(t)) -f(t, y(t))|dt \\
&\leq L \int_{a}^{b}|y_{n}(t) -y(t)|dt
\end{align*}

Dado $\varepsilon > 0$, definimos

$$\hat{\varepsilon} = \dfrac{\varepsilon }{L(b -a)} \label{20} \tag{20}$$

Con esto, la desigualdad (\ref{16}) se puede escribir como

$$|y_{n}(t) -y(t)|< \dfrac{\varepsilon }{L(b -a)} \label{21} \tag{21}$$

Usando esta desigualdad notamos que, para cada $n > N$ y cada $x \in \delta$

\begin{align*}
\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt\right| &\leq L \int_{a}^{b}|y_{n}(t) -y(t)|dt \\
&\leq \dfrac{L}{L(b -a)} \int_{a}^{b} \varepsilon dt \\
&= \dfrac{L}{L(b -a)} \varepsilon (b -a) \\
&= \varepsilon
\end{align*}

Por lo tanto, $ \forall \varepsilon > 0$ existe $N = N(\varepsilon) \in \mathbb{N}$, tal que para cada $n > N$ y cada $x \in \delta$

$$\left|\int_{x_{0}}^{x}f(t, y_{n}(t))dt -\int_{x_{0}}^{x} f(t, y(t))dt \right| < \varepsilon$$

lo que confirma la relación (\ref{18}) que es lo que queríamos demostrar. De esta forma queda demostrada la existencia de la solución $y: \delta \rightarrow \mathbb{R}$ para el problema de valor inicial. Finalmente demostremos la unicidad de esta solución.

  • Demostración de la unicidad.

Con los dos puntos anteriores estamos convencidos de la existencia de una solución $y: \delta \rightarrow \mathbb{R}$ que satisface el problema de valor inicial (\ref{1}), así como la ecuación integral (\ref{2}). La prueba de la unicidad se basa en la suposición de la existencia de otra solución $\hat{y}: \delta \rightarrow \mathbb{R}$ que igualmente cumple con los dos puntos anteriores y el objetivo será demostrar que $\hat{y}(x) = y(x)$.

De tarea moral demostrarás que la solución $\hat{y}(x)$ es también una función límite uniforme de las mismas iterantes de Picard para cada $x \in \delta$, esto es

$$\lim_{n \to \infty}y_{n}(x) = \hat{y}(x) \label{22} \tag{22}$$

o, lo que es equivalente, mostrar que

$$\lim_{n \to \infty} |\hat{y}(x) -y_{n}(x)| = 0 \label{23} \tag{23}$$

y por la ecuación (\ref{17}) concluir que $\hat{y}(x) = y(x)$.

En esta situación se procede de manera muy similar a la prueba del primer punto en el que debemos encontrar una relación de recurrencia que acote a la cantidad $|\hat{y}(x) -y_{n}(x)|$ para cada $x \in \delta$ de la siguiente manera

$$0 \leq |\hat{y}(x) -y_{n}(x)| \leq B_{n} \label{24} \tag{24}$$

y si se prueba que

$$\lim_{n \to \infty}B_{n} = 0$$

entonces quedará probada la relación (\ref{23}).

A continuación te damos algunos hints y resultados que deberás obtener a lo largo de tu demostración.

Estudia lo que sucede con $n = 1$ y $n = 2$ y con los resultados encuentra la relación de recurrencia general para cada $n \in \mathbb{N}$, para ello considera la máxima distancia entre $\hat{y}$ y $y_{0}$, esto es

$$A = \max_{x \in \delta} |\hat{y} -y_{0}|$$

El máximo $A \in \mathbb{R}^{+}$ esta asegurado gracias a la continuidad de la función $\hat{y}$ en el intervalo compacto $\delta$. Como la gráfica de la función $\hat{y}(x)$ está contenida en $U$ y $f = f(x, \hat{y})$ es una función lipschitziana, demuestra que para cada $x \in \delta$

$$|\hat{y}(x) -y_{1}(x)| \leq L \int_{x_{0}}^{x}|\hat{y}(t) -y_{0}(t)|dt \leq AL|x -x_{0}| \label{25} \tag{25}$$

Usando este resultado demuestra que

$$|\hat{y}(x) -y_{2}(x)| \leq AL^{2} \int_{x_{0}}^{x}|t -x_{0}|dt \leq AL^{2} \dfrac{|x -x_{0}|^{2}}{2!} \label{26} \tag{26}$$

Demuestra por inducción que en general, para cada $n = 1, 2, 3, \cdots,$ y $x \in \delta$

$$|\hat{y}(x) -y_{n}(x)| \leq AL^{n} \dfrac{|x -x_{0}|}{n!} \label{27} \tag{27}$$

Este resultado te permite concluir que para cada $x \in \delta = [a, b]$

$$|\hat{y}(x) -y_{n}(x)| \leq A \dfrac{(L(b -a))^{n}}{n!} = B_{n} \label{28} \tag{28}$$

Prueba que

$$\lim_{n \to \infty} B_{n} = \lim_{n \to \infty} \dfrac{(L(b -a))^{n}}{n!} = 0 \label{29} \tag{29}$$

Así finalmente queda demostrada la relación (\ref{23}) y por lo tanto $\hat{y}(x) = y(x)$ para cada $x \in \delta$.

Realizar este ejercicio te servirá para consolidar mucho mejor lo que hemos realizado a lo largo de la demostración. Sin embargo, la demostración de la unicidad puede ser mucho más simple si aplicamos el lema de Gronwall. Demostremos la unicidad por esta opción.

Sean $y: \delta \rightarrow \mathbb{R}$ y $\hat{y}: \delta \rightarrow \mathbb{R}$ soluciones al PVI (\ref{1}) y la ecuación integral (\ref{2}).

$$y(x) = y_{0} + \int_{x_{0}}^{x}f(t, y(t)) dt \hspace{1cm} y \hspace{1cm} \hat{y}(x) = y_{0} + \int_{x_{0}}^{x}f(t, \hat{y}(t)) dt$$

Restemos las dos ecuaciones anteriores y consideramos su valor absoluto.

\begin{align*}
|y(x) -\hat{y}(x)| &= \left|\int_{x_{0}}^{x}f(t, y(t))dt -\int_{x_{0}}^{x}f(t, \hat{y}(t))dt \right|\\
&= \left|\int_{x_{0}}^{x}f(t, y(t)) -f(t, \hat{y}(t))dt \right| \\
&\leq \int_{x_{0}}^{x}|f(t, y(t)) -f(t,\hat{y}(t))|dt
\end{align*}

Como $f$ es una función lipschitziana respecto de la segunda variable, entonces

$$\int_{x_{0}}^{x}|f(t, y(t)) -f(t, \hat{y}(t))|dt \leq \int_{x_{0}}^{x} L|y(t) -\hat{y}(t)|dt = L \int_{x_{0}}^{x}|y(t) -\hat{y}(t)|dt$$

es decir,

$$|y(x) -\hat{y}(x)| \leq L \int_{x_{0}}^{x}|y(t) -\hat{y}(t)|dt \label{30} \tag{30}$$

Para que este resultado nos sea más familiar definamos lo siguiente.

$$h(x) = |y(x) -\hat{y}(x)| \hspace{1cm} y \hspace{1cm} \alpha = 0, \hspace{0.2cm} \beta = L$$

Usando esto reescribimos a la ecuación (\ref{30}) como

$$0 \leq h(x) \leq \alpha + \beta \int_{x_{0}}^{x} h(t) dt \label{31} \tag{31}$$

Estamos en las condiciones del lema de Gronwall, pero en el caso especial en el que $\alpha = 0$, así que aplicando el corolario del lema de Gronwall podemos concluir que para cada $x \in \delta$

$$h(x) = |y(x) -\hat{y}(x)| = 0$$

lo que significa que $\forall x \in \delta$, $y(x) = \hat{y}(x)$, es decir, la solución al problema de valor inicial es única.

Con esto quedan demostrados los tres puntos de la prueba, por lo tanto concluimos que el problema de valor inicial (\ref{1}) posee una única solución en $\delta = [a, b]$ y además, las iterantes de Picard asociadas al PVI convergen uniformemente en $\delta$ hacia la solución $y: \delta \rightarrow \mathbb{R}$ del PVI.

$\square$

¡Listo!. Hemos demostrado el teorema de existencia y unicidad de Picard – Lindelöf.

Apliquemos este resultado al caso de las ecuaciones diferenciales lineales.

Existencia y unicidad en ecuaciones lineales

Apliquemos el teorema de Picard – Lindelöf al caso de las ecuaciones diferenciales lineales de primer orden.

$$\dfrac{dy}{dx} = P(x) y + Q(x); \hspace{1cm} y(x_{0}) = y_{0} \label{32} \tag{32}$$

Donde las funciones $P(x)$ y $Q(x)$ son continuas en un intervalo compacto $\delta = [a, b]$, $x_{0} \in \delta$ y $y_{0} \in \mathbb{R}$.

En este caso $U = \delta \times \mathbb{R}$ y

$$f(x, y) = P(x) y + Q(x)$$

Notemos que se verifica lo siguiente:

  • $U$ es una banda vertical de base compacta, pues $\delta$ es un intervalo compacto.
  • Como $P(x)$ y $Q(x)$ son continuas en $\delta$, entonces $f$ es continua en $U$.
  • Como $P(x)$ es continua en el intervalo $\delta$ y éste es compacto, entonces la función $P(x)$ es acotada, así que podemos fijar $L > 0$, tal que $|P(x)|< L$ para todo $x \in \delta$. Considerando esto tenemos que

\begin{align*}
|f(x, y_{1}) -f(x, y_{2})| &= |(P(x) y_{1} + Q(x)) -(P(x) y_{2} + Q(x))| \\
&= |P(x) y_{1} -P(x) y_{2}| \\
&= |P(x) ||y_{1} -y_{2}| \\
&\leq L|y_{1} -y_{2}|
\end{align*}

esto es

$$|f(x, y_{1}) -f(x, y_{2})| \leq L|y_{1} -y_{2}| \label{33} \tag{33}$$

para cada par de puntos $(x, y_{1}), (x, y_{2}) \in U$ es decir, $f$ es una función lipschitziana.

Por tanto, se cumplen las condiciones del teorema de existencia y unicidad global. En consecuencia ratificamos el resultado visto anteriormente en el que se asegura que cualquier problema de valor inicial asociado a una ecuación lineal posee solución única en el intervalo $\delta$. Además, ahora podemos afirmar que las iterantes de Picard asociadas convergen uniformemente hacia la solución del PVI.

$\square$

Un resultado importante que debemos revisar es que si dos problemas de valor inicial tienen valores iniciales muy cercanos entre sí, entonces las soluciones a cada PVI serán funciones muy próximas. A esto le llamamos dependencia continua de las soluciones respecto a condiciones iniciales. Revisemos este resultado. En la demostración será de uso esencial el lema de Gronwall.

Dependencia continua de la condición inicial

Demostración: Como $y(x)$ y $\hat{y}(x)$ son solución de sus respectivos PVI, entonces cada solución verifica una ecuación integral.

$$y(x) = y_{0} + \int_{x_{0}}^{x}f(t, y(t)) dt \hspace{1cm} y \hspace{1cm} \hat{y}(x) = \hat{y}_{0} + \int_{x_{0}}^{x}f(t, \hat{y}(t)) dt$$

Vemos que

\begin{align*}
|y(x) -\hat{y}(x)| &= \left| y_{0} -\hat{y}_{0} + \int_{x_{0}}^{x} f(t, y(t)) dt -\int_{x_{0}}^{x}f(t, \hat{y}(t)) dt \right| \\
&\leq |y_{0} -\hat{y}_{0}| + \left| \int_{x_{0}}^{x} f(t, y(t)) -f(t, \hat{y}(t)) dt \right | \\
&\leq |y_{0} -\hat{y}_{0}| + \int_{x_{0}}^{x}\left| f(t, y(t)) -f(t, \hat{y}(t)) \right| dt
\end{align*}

Sabemos que $f$ es una función lipschitziana respecto de la segunda variable en $R$ de manera que

$$|f(x, y(x)) -f(x, \hat{y}(x)) | \leq L | y(x) -\hat{y}(x)| \label{35} \tag{35}$$

con $L$ la constante de Lipschitz para $f$ en $R$. Entonces,

$$|y(x) -\hat{y}(x)| \leq |y_{0} -\hat{y}_{0} | + L \int_{x_{0}}^{x} |y(t) -\hat{y}(t)|dt \label{36} \tag{36}$$

Definamos

$$0 < g(x) = |y(x) -\hat{y}(x)|, \hspace{1cm} \alpha = |y_{0} -\hat{y}_{0}| \hspace{1cm} y \hspace{1cm} \beta = L$$

Con esto la desigualdad (\ref{36}) la podemos reescribir como

$$0 < g(x) \leq \alpha +\beta \int_{x_{0}}^{x}g(t) dt$$

Ahora podemos aplicar el lema de Gronwall.

$$g(x) \leq \alpha e^{\beta (x -x_{0})}$$

es decir,

$$|y(x) -\hat{y}(x)| \leq |y_{0} -\hat{y}_{0}| e^{L(x -x_{0})}$$

Que es lo que queríamos demostrar.

$\square$

De este resultado observamos que si

$$y_{0} \rightarrow \hat{y}_{0} \hspace{1cm} \Rightarrow \hspace{1cm} |y_{0} -\hat{y}_{0}| \rightarrow 0$$

Entonces las soluciones de los PVI serán funciones muy próximas

$$|y(x) -\hat{y}(x)| \rightarrow 0 \hspace{1cm} \Rightarrow \hspace{1cm} y(x) \rightarrow \hat{y}(x)$$

Para concluir la entrada hagamos un breve comentario sobre el resultado local del teorema de Picard y realicemos unos ejemplos al respecto.

Teorema de existencia y unicidad local

Recordemos que el resultado local del teorema de existencia y unicidad de Picard – Lindelöf establece lo siguiente.

La demostración a este teorema corresponde a una adaptación de la demostración vista para el caso global, teniendo en cuenta que las gráficas de las iterantes de Picard, así como la de cualquier posible solución, definidas en el intervalo $\delta = [x_{0} -h, x_{0} + h]$, están dentro del rectángulo $R$ donde la función $f$ es continua y lipschitziana respecto de la segunda variable. Los pasos claves a seguir y las técnicas son prácticamente una repetición de lo visto anteriormente cambiando la banda vertical $U = [a, b] \times \mathbb{R}$ por el rectángulo

$$R = \{(x, y) \in \mathbb{R} \mid |x -x_{0}| \leq a, |y -y_{0}| \leq b, \hspace{0.2cm} a, b \in \mathbb{R} \}$$

Para conocer sobre los detalles puedes revisar la demostración del teorema local en los videos de este mismo curso.

Finalmente, resolvamos algunos ejemplos.

Ejemplo: Mostrar que el problema de valor inicial

$$\dfrac{dy}{dx} = \sin^{2}{(x -y)}; \hspace{1cm} y(0) = 0$$

posee una única solución definida en $\mathbb{R}$.

Solución: En este caso tenemos la función $f: U = \mathbb{R} \times \mathbb{R} \rightarrow \mathbb{R}$ definida como

$$f(x, y) = \sin^{2}{(x -y)}$$

Es claro que $f$ es continua en la región $U = \mathbb{R} \times \mathbb{R}$. La función derivada parcial $\dfrac{\partial f}{\partial y}: U \rightarrow \mathbb{R}$ está dada como

$$\dfrac{\partial f}{\partial y} = -2 \sin{(x -y) \cos{(x -y)}}$$

Como

$$|\sin{(x -y)}| \leq 1 \hspace{1cm} y \hspace{1cm} |\cos{(x -y)}| \leq 1$$

para todo $(x, y) \in U$, entonces

$$\left| \dfrac{\partial f}{\partial y} (x, y) \right| \leq 2$$

para todo $(x, y) \in U$. En consecuencia $f$ es una función lipschitziana en $U$ respecto de la segunda variable. Con esto hemos probado que se satisfacen las hipótesis del teorema de existencia y unicidad global por lo que podemos asegurar que el PVI posee una única solución definida en $\mathbb{R}$.

$\square$

Calcular las iterantes no siempre será sencillo. En el ejemplo anterior las iterantes pueden no ser fácil de desarrollar, pero debido a que satisface el teorema de Picard – Lindelöf podemos asegurar que dichas iterantes van a converger a la solución del PVI.

Ejemplo: Mostrar que aplicando el resultado global del teorema de Picard – Lindelöf al problema de valor inicial

$$\dfrac{dy}{dx} = y^{2}; \hspace{1cm} y(0) = 1$$

no es posible asegurar la existencia y unicidad de la solución.

Solución: La función $f: U = \mathbb{R} \times \mathbb{R} \rightarrow \mathbb{R}$ definida como

$$f(x, y) = y^{2}$$

es continua en $U = \mathbb{R} \times \mathbb{R}$, sin embargo su derivada parcial

$$\dfrac{\partial f}{\partial y} = 2y$$

no está acotada en $U$ por lo que $f$ no es una función lipschitziana en $U$.

Una observación más es que la solución al PVI dada por

$$y(x) = \dfrac{1}{1 -x}$$

no está definida en $\mathbb{R}$ si no en el intervalo $(-\infty, 1)$.

En definitiva, como no se cumple la tercera condición del teorema global, entonces no podemos asegurar nada sobre la existencia y unicidad de la solución del PVI.

$\square$

Veamos ahora la importancia del resultado local del teorema de existencia y unicidad de Picard – Lindelöf . Resolvamos de nuevo el ejemplo anterior, pero ahora considerando una región $R$ alrededor del punto dado por la condición inicial.

Ejemplo: Mostrar que aplicando el resultado local del teorema de Picard – Lindelöf, el problema de valor inicial

$$\dfrac{dy}{dx} = y^{2}; \hspace{1cm} y(0) = 1$$

posee una única solución. Encontrar el intervalo de existencia y unicidad.

Solución: Es claro que la función

$$f(x, y) = y^{2}$$

es continua en $\mathbb{R}^{2}$ por lo que $f$ será una función lipschitziana en cualquier conjunto $R$ convexo y compacto. Consideremos el rectángulo centrado en el valor inicial $(0, 1)$ de dimensiones $a = 2$ y $b = 1$, es decir

$$R = \{(x, y) \in \mathbb{R} \mid |x| \leq 2, |y -1| \leq 1\} = [-2, 2] \times [0, 2]$$

En la región $R$ la función $f$ si es lipschitziana y continua por lo que se satisfacen las condiciones del teorema local de existencia y unicidad de Picard. Este teorema nos dice que existe una única solución definida en el intervalo $\delta = [x_{0} -h, x_{0} + h]$ donde

$$ h = \min \left\{a,\dfrac{b}{M} \right\} \hspace{1cm} y \hspace{1cm} M \geq \max_{(x, y) \in R}|f(x, y)|$$

En este caso, como el máximo valor que puede tomar $y$ en el rectángulo $R$ es $y = 2$, entonces

$$M = \max_{(x, y) \in R}|f(x, y)| = \max_{(x, y) \in R}|y^{2}| = 4$$

Usando este resultado, se tiene

$$h = \min \left\{a,\dfrac{b}{M} \right\} = \min \left\{2,\dfrac{1}{4} \right\} = \dfrac{1}{4}$$

Por lo tanto, podemos asegurar la existencia y unicidad de la solución del PVI en el intervalo

$$\delta = [x_{0} -h, x_{0} + h] = \left[ -\dfrac{1}{4}, \dfrac{1}{4} \right]$$

Además podemos asegurar que las iterantes de Picard convergen uniformemente en el intervalo $\delta$ hacia la solución única del PVI. A saber, convergen a

$$y(x) = \dfrac{1}{1 -x}$$

$\square$

Con esto concluimos la primera unidad del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Completar la demostración de la unicidad de la solución a un problema de valor inicial que cumple con las hipótesis del teorema global de existencia y unicidad. Recuerda que el objetivo es demostrar que $$\lim_{n \to \infty} |\hat{y}(x) -y_{n}(x)| = 0$$
  1. Comprobar que el problema de valor inicial $$\dfrac{dy}{dx} = \dfrac{y}{x}; \hspace{1cm} y(0) = 0$$ posse infinitas soluciones en cualquier intervalo $\delta$ en el que $0 \in \delta$.
    ¿Porqué no contradice esto al teorema de existencia y unicidad local?.
  1. Determinar, por el método de iterantes de Picard, la solución del siguiente problema de valor inicial: $$\dfrac{dy}{dx} = 2y(1 + x); \hspace{1cm} y(-1) = 1$$
  1. Comprobar que el mayor intervalo que proporciona el teorema local de existencia y unicidad de Picard para el problema de valor inicial $$\dfrac{dy}{dx} = 1 + x^{2}; \hspace{1cm} y(0) = 0$$ donde se asegura la existencia y unicidad de la solución, es $\delta = \left[-\dfrac{1}{2}, \dfrac{1}{2} \right]$.

Más adelante…

Con la demostración del teorema de existencia y unicidad de Picard – Lindelöf justificamos la teoría realizada a lo largo de esta primera unidad.

En la siguiente entrada comenzaremos la unidad 2 del curso. En dicha unidad estudiaremos las ecuaciones diferenciales de orden mayor a uno, en particular estudiaremos con mayor detalle las ecuaciones diferenciales de segundo orden.

Entradas relacionadas