Archivo de la etiqueta: Ecuaciones diferenciales lineales

Ecuaciones Diferenciales I: Ecuaciones diferenciales de orden superior

Por Omar González Franco

Las matemáticas expresan valores que reflejan el cosmos, incluyendo
el orden, equilibrio, armonía, lógica y belleza abstracta.
– Deepak Chopra

Introducción

¡Bienvenidos a la segunda unidad del curso de Ecuaciones Diferenciales I!.

En la primera unidad estudiamos las ecuaciones diferenciales lineales y no lineales de primer orden, en esta unidad estudiaremos las ecuaciones diferenciales de orden superior a uno, en particular las ecuaciones lineales de segundo orden.

Anteriormente vimos que las ecuaciones diferenciales se pueden clasificar por orden, el cual corresponde al orden de la derivada más alta presente en la ecuación diferencial. A las ecuaciones diferenciales de orden mayor a uno se le conocen como ecuaciones diferenciales de orden superior. Nuestro enfoque en esta unidad serán las ecuaciones diferenciales lineales de segundo orden, pero antes de desarrollar los distintos métodos de resolución es necesario establecer una serie de conceptos y teoremas que sustentarán a dichos métodos.

Si bien, la segunda unidad tratará sobre las ecuaciones diferenciales lineales de segundo orden, gran parte de esta teoría preliminar la desarrollaremos para el caso general en el que el orden de la ecuación es n, con n un número entero mayor a uno, así sólo será suficiente fijar n=2 para referirnos a las ecuaciones de segundo orden.

Ecuaciones Diferenciales lineales de orden superior

Recordemos que una ecuación diferencial de n-ésimo orden en su forma general es

(1)F(x,y,y,,y(n))=0

Donde F es una función con valores reales de n+2 variables. La ecuación (1) se puede escribir en su forma normal como

(2)dnydxn=f(x,y,y,,y(n1))

Con f una función continua con valores reales. Para el caso en el que la ecuación es lineal, una ecuación diferencial de n-ésimo orden se puede escribir como

(3)an(x)dnydxn+an1(x)dn1ydxn1++a1(x)dydx+a0(x)y=g(x)

Satisfaciendo las propiedades que ya conocemos. La ecuación (3) es una ecuación no homogénea, en el caso en el que g(x)=0, decimos que la ecuación es homogénea.

(4)an(x)dnydxn+an1(x)dn1ydxn1++a1(x)dydx+a0(x)y=0

Las ecuaciones (3) y (4) serán, entonces, el tipo de ecuaciones sobre la cual desarrollaremos esta teoría preliminar.

Para comenzar estudiemos los problemas con valores iniciales y problemas con valores en la frontera en el caso de las ecuaciones diferenciales lineales de orden superior.

Problema con valores iniciales para ecuaciones lineales

En la unidad anterior definimos lo que es un problema con valores iniciales, esta definición fue general, definamos ahora lo que es un problema con valores iniciales para el caso en el que la ecuación es lineal.

Para el caso de segundo orden ya hemos mencionado que geométricamente un PVI involucra obtener una curva solución que pase por el punto (x0,y0) y la pendiente en dicho punto sea m=y1.

Enunciaremos, sin demostrar, el teorema de existencia y unicidad que contiene las condiciones suficientes para la existencia y unicidad de una solución de un PVI de n-ésimo orden para el caso de las ecuaciones lineales.

Podemos enunciar el teorema de existencia y unicidad para el caso de las ecuaciones diferenciales lineales de segundo orden (n=2) de la siguiente manera.

No demostraremos este teorema, pero es importante notar que dentro del enunciado hemos escrito la definición de PVI para el caso n=2 (segundo orden). Veamos un ejemplo en donde apliquemos este último teorema.

Ejemplo: Probar que la función

y(x)=3e2x+e2x3x

es solución al PVI

d2ydx24y=12x;y(0)=4,y(0)=1

y además es única.

Solución: Primero probemos que es solución al PVI, para ello veamos que satisface la ecuación diferencial y además cumple con las condiciones iniciales.

La función dada es

y(x)=3e2x+e2x3x

La primera y segunda derivada de esta función son, respectivamente

dydx=y(x)=6e2x2e2x3yd2ydx2=y(x)=12e2x+4e2x

Notemos que

d2ydx24y=(12e2x+4e2x)4(3e2x+e2x3x)=12e2x+4e2x12e2x4e2x+12x=12x

Esto es,

d2ydx24y=12x

La función satisface la ecuación diferencial. Verifiquemos que satisface las condiciones iniciales.

En la solución evaluemos x=0.

y(0)=3e0+e00=3+1=4y(0)=4

Se cumple la primera condición inicial. Ahora, en la derivada de la función evaluemos en x=0.

y(0)=6e02e03=623=1y(0)=1

Se cumple la segunda condición inicial. Por lo tanto, la función dada es solución al PVI.

Es claro que el intervalo de solución es δ=(,) y que x0=0δ. Como a2(x)=10,a0(x)=4 y g(x)=12x son funciones continuas en δ, por el teorema de existencia y unicidad para ecuaciones diferenciales lineales de segundo orden concluimos que la función y(x)=3e2x+e2x3x es una solución única.

◻

Al haber aumentado el orden de las ecuaciones diferenciales aparece un nuevo problema que estudiaremos a continuación.

Problema con valores en la frontera

En el estudio de las ecuaciones diferenciales de orden superior existe otro problema similar al PVI conocido como problema con valores en la frontera (PVF) en el que se busca resolver una ecuación diferencial de orden dos o mayor, tal que la variable dependiente y/o sus derivadas se especifican en distintos puntos.

Para que quede claro este concepto definiremos un problema con valores en la frontera para el caso de una ecuación diferencial lineal de segundo orden y siguiendo esta misma idea es que se puede definir para una ecuación de orden superior a dos.

Así, resolver un PVF es hallar una función y(x) que satisfaga la ecuación diferencial en algún intervalo δ que contiene a a y b y que cuya curva solución pase por los puntos (a,y0) y (b,y1).

La razón por la que definimos un PVF para el caso de una ecuación diferencial de segundo orden es porque es posible hacer notar que otros pares de condiciones en la frontera pueden ser

y(a)=y0yy(b)=y1

y(a)=y0yy(b)=y1

y(a)=y0yy(b)=y1

Sin embargo, las condiciones en la frontera presentadas son sólo casos particulares de las condiciones en la frontera generales

α1y(a)+β1y(a)=γ1α2y(b)+β2y(b)=γ2

Es así que aumentando el orden de la ecuación, las combinaciones de pares de condiciones en la frontera aumentan.

A diferencia de un PVI en el que si existe una solución, entonces ésta es única, en un PVF pueden existir varias soluciones distintas que satisfacen las mismas condiciones en la frontera, o bien, puede sólo existir una solución única o no tener ninguna solución. Veamos un ejemplo que muestre este hecho.

Ejemplo: Probar que la función general

y(x)=c1x2+c2x4+3

es solución de la ecuación diferencial

x2d2ydx25xdydx+8y=24

y además, de acuerdo a las condiciones en la frontera dadas a continuación, se cumplen las siguientes propiedades:

  • y(1)=0,y(1)=4 No existe una solución.
  • y(0)=3,y(1)=0 Existen infinitas soluciones.
  • y(1)=3,y(2)=15 Existe una única solución.

Solución: De tarea moral verifica que la función dada es solución de la ecuación diferencial. Más adelante estudiaremos los métodos de resolución de este tipo de ecuaciones diferenciales, de manera que seremos capaces de obtener esta función y probar, de hecho, que es la solución general. Por ahora sólo verifica que es solución.

Una vez comprobado que y(x) es solución apliquemos las condiciones de frontera de cada caso y veamos que ocurre con la solución.

  • Caso 1: y(1)=0,y(1)=4

y(1)=c1(1)2+c2(1)4+3=c1+c2+3=0c1+c2=3

y(1)=c1(1)2+c2(1)4+3=c1+c2+3=4c1+c2=1

De ambas condiciones de la frontera obtenemos que c1+c2=3 y a la vez c1+c2=1 lo cual es imposible, por lo tanto en este caso NO existe una solución al PVF.

  • Caso 2: y(0)=3,y(1)=0

y(0)=c1(0)2+c2(0)4+3=3y(0)=3

y(1)=c1(1)2+c2(1)4+3=c1+c2+3=0c1+c2=3

Vemos que la primer condición de frontera se cumple y aplicando la segunda obtenemos que c1+c2=3 de donde c2=(c1+3), sustituyendo en la solución y(x) obtenemos la función

y(x)=c1x2(c1+3)x4+3

Donde c1 es un parámetro libre, lo que indica que en este caso existen infinitas soluciones, una por cada posible valor de c1.

  • Caso 3: y(1)=3,y(2)=15

y(1)=c1(1)2+c2(1)4+3=c1+c2+3=3c1+c2=0

y(2)=c1(2)2+c2(2)4+3=4c1+16c2+3=15c1+4c2=3

De ambas condiciones de frontera obtenemos el sistema de ecuaciones

c1+c2=0c1+4c2=3

De la primer ecuación obtenemos que c1=c2, sustituyendo en la segunda ecuación obtenemos

c2+4c2=3c2=3

de donde c2=1 y por tanto c1=1. Sustituyendo en la solución y(x) obtenemos la función

y(x)=x2+x4+3

Por lo tanto, al ser una función sin parámetros, la solución es única.

◻

A continuación estudiaremos algunos operadores importantes que nos ayudarán en las posteriores demostraciones de algunos teoremas importantes, además de que nos serán de utilidad en cuestiones de notación.

Operadores Diferenciales

Comencemos por definir el operador de derivada.

Con ayuda del operador diferencial podemos escribir la derivada de una función y(x) como

(7)Dy=dydx=y(x)

En el entendido que D opera sobre la variable independiente de y, en este caso de x.

Por ejemplo, ahora podemos escribir

D{2xsin(x)}=2sin(x)+2xcos(x)

Usando el operador diferencial, las expresiones de las derivadas de orden superior se pueden escribir como

(8)ddx(dydx)=d2ydx2=D(Dy)=D2y

Y de manera general

(9)dnydxn=Dny

Sabemos que la derivada es lineal (en el contexto del álgebra lineal), por tanto el operador diferencial también satisface las propiedades de linealidad:

  • D{f(x)+g(x)}=D{f(x)}+D{g(x)}
  • D{cf(x)}=cD{f(x)}

Por otro lado, una ecuación diferencial como

d2ydx22dydx+5y=0

se puede escribir en términos del operador diferencial como

D2y2Dy+5y=(D22D+5)y=0

Observamos que el lado izquierdo de ésta última expresión corresponde a una expresión polinomial en la que interviene el operador D, estas expresiones polinomiales son también un operador diferencial y tiene un nombre particular.

Debido a que el operador polinomial esta definido con operadores diferenciales D, las propiedades de linealidad de D le atribuyen a L linealidad. Más general, L operando sobre una combinación lineal de dos funciones derivables es lo mismo que la combinación lineal de L operando en cada una de las funciones, esto es

(11)L{αf(x)+βg(x)}=αL{f(x)}+βL{g(x)}

Una primera ventaja de usar el operador polinomial es que las ecuaciones (3) y (4) se pueden escribir como

L(y)=g(x)yL(y)=0

respectivamente.

A continuación el operador polinomial nos será de mucha utilidad.

Principio de superposición

Es posible obtener varias soluciones de una ecuación diferencial lineal homogénea (4) y si sumamos o superponemos todas estas soluciones veremos que dicha función es también solución de la ecuación diferencial. Este hecho se muestra en el siguiente resultado conocido como principio de superposición para ecuaciones homogéneas.

Demostración: Sea L el operador polinomial (10) de n-ésimo orden y sean y1,y2,,yk soluciones de la ecuación homogénea (4) en el intervalo δ. Definamos la combinación lineal

y(x)=c1y1(x)+c2y2(x)++ckyk(x)

con ci, i=1,2,,k constantes arbitrarias. Notemos que

L(y)=L{c1y1(x)+c2y2(x)++ckyk(x)}

Por la linealidad de L(y) (11), se tiene

L(y)=c1L{y1(x)}+c2L{y2(x)}++ckL{yk(x)}

Pero cada yi, i=1,2,,k es solución de (4), entonces

L(yi)=0

para todo i=1,2,,k, así la expresión anterior se reduce a lo siguiente.

L(y)=c10+c20++ck0=0

Por lo tanto

L(y)=0

es decir, la combinación lineal

y(x)=c1y1(x)+c2y2(x)++ckyk(x)

es también solución de la ecuación diferencial homogénea (4).

◻

Dos corolarios importantes del teorema anterior son los siguientes.

Demostración: Consideremos la función y=c1y1(x), aplicando el operador polinomial L, tenemos

L(y)=L{c1y1(x)}=c1L{y1(x)}=0

Ya que y1(x) es solución de la ecuación homogénea, es decir, L{y1}=0. Por lo tanto la función y(x)=c1y1(x) es también solución de la ecuación diferencial homogénea.

◻

Usando el teorema anterior y la definición de L es clara la demostración, inténtalo.

Realicemos un ejemplo sobre el principio de superposición.

Ejemplo: Mostrar que las funciones

y1(x)=x2yy2(x)=x2ln(x)

son soluciones de la ecuación diferencial lineal homogénea

x3d3ydx32xdydx+4y=0

en el intervalo δ=(0,). Y mostrar que la combinación lineal

y(x)=c1x2+c2x2ln(x)

es también solución de la ecuación diferencial en el mismo intervalo.

Solución: De tarea moral verifica que las funciones por separado

y1(x)=x2yy2(x)=x2ln(x)

son soluciones de la ecuación diferencial en el intervalo δ=(0,).

Una vez asegurado que ambas funciones son solución, de acuerdo al principio de superposición, la combinación lineal de ambas funciones

y(x)=c1x2+c2x2ln(x)

debe ser también solución de la ecuación diferencial, veamos que es así. Para ello calculemos la primera, segunda y tercera derivada. Para la primer derivada tenemos

dydx=2c1x+2c2xln(x)+c2x

La segunda derivada es

d2ydx2=2c1+2c2ln(x)+3c2

Finalmente, la tercer derivada es

d3ydx3=2c2x

Sustituyendo los valores correspondientes en la ecuación diferencial, tenemos

x3d3ydx32xdydx+4y=x3(2c2x)2x(2c1x+2c2xln(x)+c2x)+4(c1x2+c2x2ln(x))=2c2x24c1x24c2x2ln(x)2c2x2+4c1x2+4c2x2ln(x)=c1(4x24x2)+c2(2x22x2+4x2ln(x)4x2ln(x))=c1(0)+c2(0)=0

Hemos recuperado la ecuación diferencial

x3d3ydx32xdydx+4y=0

por lo tanto, la combinación lineal

y(x)=c1x2+c2x2ln(x)

es también solución de la ecuación diferencial verificando así el principio de superposición.

Es claro que la función ln(x) restringe los valores de x, de manera que el intervalo δ=(0,) es el intervalo en el que la función y(x) es continua.

◻

Dependencia e independencia lineal

El principio de superposición trae consigo el concepto de combinación lineal y, de álgebra lineal, sabemos que si un elemento de un espacio vectorial se puede escribir como combinación lineal de otros elementos del mismo espacio vectorial, decimos que dicho elemento es linealmente dependiente y si no es dependiente, entonces decimos que es linealmente independiente. Ahora es necesario definir estos conceptos en el contexto de las ecuaciones diferenciales lineales.

Podemos decir que un conjunto de funciones es linealmente independiente en un intervalo δ si las únicas constantes para las que

c1f1(x)+c2f2(x)++cnfn(x)=0,xδ

son c1=c2==cn=0.

Realicemos algunas observaciones para el caso n=2.

Dos funciones f1(x),f2(x) son linealmente dependientes en el intervalo δ, donde ambas están definidas, si en dicho intervalo son proporcionales, esto es, si

(14)f1(x)=c1f2(x)of2(x)=c2f1(x)

donde c1 y c2 son constantes distintas de cero, de esta manera, si f1(x) y f2(x) no son proporcionales en el intervalo δ, entonces ambas funciones son linealmente independientes en dicho intervalo.

De las relaciones de proporcionalidad (14) notamos que

(15)f1(x)f2(x)=c1yf2(x)f1(x)=c2

Con estas relaciones podemos establecer que f1(x) y f2(x) son linealmente dependientes en el intervalo δ si cada cociente es una constante a lo largo de todo el intervalo δ y, por otro lado, si los cocientes dependen de x en el intervalo δ, entonces las funciones f1(x) y f2(x) son linealmente independientes.

En definitiva, las funciones f1(x),f2(x),,fn(x) son linealmente dependientes en el intervalo δ si al menos una de ellas puede expresarse como combinación lineal de las otras. En caso contrario, las funciones son linealmente independientes.

Por ejemplo, dado el conjunto de funciones

f1(x)=4x3,f2(x)=2x2,f3(x)=8x3+12x2

es sencillo darse cuenta que

f3(x)=2f1(x)+6f2(x)

Por lo tanto, el conjunto de funciones es linealmente dependiente.

Ejemplo: Determinar si las funciones

y1(x)=c1exyy2(x)=c2xex

son linealmente dependientes o linealmente independientes. Probar además que dichas funciones por separado son solución de la ecuación diferencial

d2ydx2+2dydx+y=0

y verificar que la combinación lineal

y(x)=c1ex+c2xex

es también solución de la ecuación diferencial.

Solución: Como vimos, hay distintas formas de verificar si las funciones son linealmente dependientes o linealmente independientes, quizá la forma más práctica es observar si el cociente y1y2 o y2y1 es constante o dependiente de x en el intervalo δ en el que ambas están definidas.

Observamos primero que ambas funciones

y1(x)=c1exyy2(x)=c2xex

están definidas en todo R, por tanto

δ=(,)

Ahora bien, notamos que

y1y2=c1c2x

O bien,

y2y1=c2xc1

Como podemos ver, ambos cocientes son dependientes de la variable independiente x. Por lo tanto, las funciones son linealmente independientes.

Ahora verifiquemos que cada función y1(x) y y2(x) es solución de la ecuación diferencial dada.

Para la primer función tenemos

y1(x)=c1exdy1dx=c1exd2y1dx2=c1ex

Sustituimos en la ecuación diferencial.

d2ydx2+2dydx+y=c1ex+2(c1ex)+c1ex=2c1ex2c1ex=0

Esto es,

d2ydx2+2dydx+y=0

Por lo tanto, la función y1(x)=c1ex satisface la ecuación diferencial.

Para la segunda función tenemos

y2(x)=c2xexdy2dx=c2exc2xexd2y2dx2=2c2ex+c2xex

Sustituimos en la ecuación diferencial.

d2ydx2+2dydx+y=(2c2ex+c2xex)+2(c2exc2xex)+c2xex=2c2ex+c2xex+2c2ex2c2xex+c2xex=(2c2ex2c2ex)+(2c2xex2c2xex)=0

Nuevamente

d2ydx2+2dydx+y=0

Por lo tanto, la función y2(x)=c2xex es también solución de la ecuación diferencial.

Ahora que sabemos que ambas funciones son solución de la ecuación diferencial, podemos aplicar el principio de superposición y concluir que la combinación lineal

y(x)=c1ex+c2xex

es también solución de la ecuación diferencial. De tarea moral verifica que en efecto es solución.

◻

Para finalizar esta entrada definiremos un concepto sumamente importante y el cual estudiaremos con mayor detalle en la siguiente entrada.

En el ejemplo anterior mostramos que las funciones

y1(x)=c1exyy2(x)=c2xex

son linealmente independientes y ambas por separado son solución de la ecuación diferencial homogénea

d2ydx2+2dydx+y=0

En general, al conjunto de n soluciones linealmente independientes de una ecuación diferencial lineal homogénea de n-ésimo orden se le da el nombre de conjunto fundamental de soluciones.

Así, el conjunto {y1(x)=c1ex,y2(x)=c2xex} es un conjunto fundamental de soluciones de la ecuación diferencial homogénea

d2ydx2+2dydx+y=0

en el intervalo δ=(,).

En la siguiente entrada retomaremos este concepto.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Problemas con valores iniciales.
  • La solución general de la ecuación diferencial d2ydx2y=0 es y(x)=c1ex+c2ex definida en δ=(,). Determinar la solución particular que es solución al PVI dadas las condiciones iniciales y(0)=0,y(0)=1
  • Dado que x(t)=c1cos(ωt)+c2sin(ωt) es la solución general de x+ω2x=0 en el intervalo (,), demostrar que la solución que satisface las condiciones iniciales x(0)=x0 y x(0)=x1 esta dada por x(t)=x0cos(ωt)+x1ωsin(ωt)
  1. Problema con condiciones en la frontera.
  • La función y(x)=c1excos(x)+c2exsin(x) es una solución de la ecuación diferencial d2ydx22dydx+2y=0 en el intervalo (,). Determinar si se puede encontrar una solución que satisfaga las siguientes condiciones en la frontera.

a)y(0)=1,y(π)=0;b)y(0)=1,y(π)=1

c)y(0)=1,y(π2)=1;d)y(0)=0,y(π)=0

  1. Determinar si los siguientes conjuntos de funciones son linealmente independientes en el intervalo (,).
  • f1(x)=x,f2(x)=x2,f3(x)=4x3x2
  • f1(x)=1+x,f2(x)=x,f3(x)=x2
  • f1(x)=ex,f2(x)=ex,f3(x)=sinh(x)
  1. Comprobar que las funciones dadas forman un conjunto fundamental de soluciones de la ecuación diferencial en el intervalo que se indica y formar la solución general.
  • d2ydx2dydx12y=0;y1=e3x,y2=e4x;(,)
  • 4d2ydx24dydx+y=0;y1=ex/2,y2=xex/2;(,)
  • x2d2ydx26xdydx+12y=0;y1=x3,y2=x4;(0,)

Más adelante…

Hemos comenzado nuestro estudio sobre las ecuaciones diferenciales de orden superior, vimos que, además del problema con valores iniciales, ahora nos enfrentamos a un nuevo problema conocido como problema con valores en la frontera. Definimos algunos operadores de interés y demostramos el principio de superposición. Finalmente, vimos que si las soluciones son funciones linealmente independientes, entonces forman un conjunto fundamental de soluciones de la ecuación diferencial.

En la siguiente entrada estudiaremos algunas propiedades de las soluciones retomando el concepto de conjunto fundamental de soluciones. Veremos cuál es la forma de la solución general, la importancia de que las soluciones sean linealmente independientes y definiremos el concepto de Wronskiano, el cual será una herramienta muy importante para determinar la dependencia o independencia lineal de las soluciones.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Demostración del Teorema de Existencia y Unicidad de Picard – Lindelöf

Por Omar González Franco

Si la gente no cree que las matemáticas son simples, es solo
porque no se dan cuenta de lo complicado que es la vida.
– John Louis von Neumann

Introducción

¡Hemos llegado al final de la primera unidad de este curso!.

Concluiremos con la demostración de uno de los teoremas más importantes dentro del campo de las ecuaciones diferenciales; el teorema de existencia y unicidad de Picard – Lindelöf. Pero antes, un poco de contexto histórico.

Este resultado fue estudiado y desarrollado entre los años 1820 y 1900 por Cauchy, Liouville, Lipschitz, Picard y Lindelöf. Entre 1820 y 1830 Cauchy probó que si f=f(x,y) es una función continua y existe su derivada parcial dfdy continua en cierta región UR2 que contiene el punto (x0,y0), entonces existe un intervalo δ en el que un problema de valor inicial posee una única solución definida en δ.

En 1838, Liouville simplificó la prueba de Cauchy introduciendo el método de las aproximaciones sucesivas, que más tarde continuarían siendo desarrolladas por Picard y que se conocerían como iterantes de Picard.

En 1876, Lipschitz mejoraría el resultado de Cauchy, sustituyendo la condición de que exista la derivada continua de f por una menos fuerte, conocida como condición de Lipschitz.

Posteriormente, todo lo anterior fue ligeramente mejorado y generalizado por Picard (1890) y Lindelöf (1893), siguiendo las mismas ideas dadas por Liouville y Lipschitz.

Actualmente el método y los resultados se les atribuyen a Picard conociéndose como método de las iterantes de Picard y teorema de Picard (o más generalmente, teorema de Picard – Lindelöf).

En las dos últimas entradas hemos presentado una teoría preliminar con todas las herramientas necesarias para demostrar el teorema de Picard – Lindelöf, sin más, demostremos el teorema.

Teorema de existencia y unicidad de Picard – Lindelöf

El resultado global del teorema de existencia y unicidad de Picard – Lindelöf es el siguiente.

Demostración del teorema de Picard – Lindelöf

Sea δ=[a,b]. Como cualquier función y:δR tiene su gráfica en U y por hipótesis f es continua en U, tenemos, como consecuencia del teorema sobre la ecuación integral, que y:δR es solución del PVI si y solo si y(x) es una función continua en δ y para cada xδ verifica la ecuación integral

Label '2' multiply defined

Necesitamos probar que esta ecuación integral sólo posee una solución continua. Para ello, al ser U una banda vertical, podemos definir sin problema alguno las iterantes de Picard yn:δR, las cuales son funciones continuas que verifican yn(x0)=y0.

La demostración la dividiremos en tres secciones:

  • Primero probaremos que la sucesión de iterantes {yn} converge uniformemente en el intervalo δ hacia una función continua y:δR.
  • Posteriormente comprobaremos que esta función y:δR verifica la ecuación integral (2) y, por tanto, es solución del PVI.
  • Finalmente probaremos que el PVI no posee otra solución distinta de y:δR.

Con los primeros dos puntos estaremos demostrando la existencia de una solución al problema de valor inicial y con el tercer punto estaremos demostrando la unicidad. Es importante mencionar que en cada uno de los tres puntos anteriores, aparte de la continuidad de f, haremos uso de manera esencial de la condición de Lipschitz de f respecto de la segunda variable.

Label '3' multiply defined

para cada par de puntos (x,y1),(x,y2)U. Con L la constante de Lipschitz para f en U.

Así mismo, en el primer punto utilizaremos de forma esencial que la convergencia de las iterantes es uniforme, pues no basta con la convergencia puntual.

Demostremos el primer punto.

  • Convergencia uniforme de las iterantes de Picard.

Para probar que la sucesión de iterantes {yn} converge uniformemente en el intervalo δ es conveniente expresarlas de la siguiente forma.

Label '4' multiply defined

Desglosa la serie anterior para que verifiques la equivalencia.

Fijado xδ es evidente que la sucesión numérica {yn(x)} es convergente en R si y sólo si la serie numérica m=1(ym(x)ym1(x)) es convergente, para lo cual es suficiente con la convergencia absoluta de la serie para cada xδ, es decir

Label '5' multiply defined

Si la serie (5) fuese convergente para cada xδ, entonces se tendría que la sucesión de iterantes converge puntualmente en δ, sin embargo no es suficiente con la convergencia puntual; necesitamos algo más fuerte, como lo es la convergencia uniforme.

Para probar que la serie funcional m=1(ym(x)ym1(x)) converge uniformemente en δ y, por tanto, la sucesión de iterantes, vamos a usar el criterio mayorante de Weierstrass para lo cual necesitamos probar que existen unas constantes MmR+, tales que

Label '6' multiply defined

para cada xδ, cada m=1,2,3, y m=1Mm<.

Vamos a comenzar con los casos m=1 y m=2, es decir, vamos a hallar las constantes M1 y M2, tales que

|y1(x)y0(x)|M1y|y2(x)y1(x)|M2

y con estos resultados intentaremos encontrar una relación de recurrencia para las constantes Mm para luego corroborar que m=1Mm< y de esta manera probar la convergencia (5).

Partiendo de la ecuación de las iterantes de Picard

Label '7' multiply defined

las primeras iterantes son

y1(x)=y0(x)+x0xf(t,y0(t))dtyy2(x)=y0(x)+x0xf(t,y1(t))dt

de donde,

|y1(x)y0(x)|=|x0xf(t,y0)dt|

y

|y2(x)y1(x)|=|x0xf(t,y1(t))f(t,y0(t))dt|

Al momento de estimar |y1(x)y0(x)| necesitamos hacer la siguiente consideración. La función f es continua en U y, por tanto, la función

g:δR;xg(x)=f(x,y0(x))

es continua en δ. Como δ es compacto, la función g(x) está acotada en δ, es decir, existe una constante H>0, tal que

|g(x)|=|f(x,y0(x))|H

para cada xδ y, por tanto, se verifica lo siguiente.

|y1(x)y0(x)|=|x0xf(t,y0(t))dt|x0x|f(t,y0(t))|dtx0xHdt=H|xx0|

esto es,

Label '8' multiply defined

Si consideramos todo el intervalo δ=[a,b] podríamos obtener finalmente la estimación

Label '9' multiply defined

Para poder estimar adecuadamente |y2(x)y1(x)| consideremos el resultado (8), además de las siguientes dos desigualdades.

Label '10' multiply defined

y la condición de Lipschitz

Label '11' multiply defined

Supongamos que x>x0. Usando (10) y (11), además del resultado (8), se tiene

|y2(x)y1(x)|x0x|f(t,y1(t))f(t,y0(t))|dtx0xL|y1(t)y0(t)|dtLHx0x|tx0|dt=LHx0x(tx0)dt=LH(xx0)22


Por otro lado, para x<x0, se tiene

|y2(x)y1(x)|xx0|f(t,y1(t))f(t,y0(t))|dtLxx0|y1(t)y0(t)|dtLHxx0|tx0|dt=LHxx0(x0t)dt=LH(x0x)22

De ambos resultados, podemos afirmar que para cada xδ

Label '12' multiply defined

La desigualdad (8) la podemos escribir de forma similar a (12) de la siguiente forma.

|y1(x)y0(x)|HL0|xx0|11!

De estas dos relaciones establecemos una relación de recurrencia que vamos a probar por inducción sobre m. Proponemos que para cada m=1,2,3,, y para cada xδ, se cumple

Label '13' multiply defined

La desigualdad ha sido probada anteriormente para m=1 y m=2. Supongamos que es cierta para m y vamos a probar que es válida para m+1 siguiendo el mismo razonamiento que en la obtención del caso m=2. Vamos a mostrar el caso x>x0, pero la prueba es similar para el caso x<x0.

Si x>x0, se tiene

|ym+1(x)ym(x)|x0x|f(t,ym(t))f(t,ym1(t))|dtLx0x|ym(t)ym1(t)|dtHLmm!x0x(tx0)mdt=HLm(xx0)m+1(m+1)!

De forma similar, si x<x0, se tiene

|ym+1(x)ym(x)|HLm(x0x)m+1(m+1)!

De ambos resultados concluimos que

|ym+1(x)ym(x)|HLm|xx0|m+1(m+1)!

Es Importante hacer énfasis que en este desarrollo ha sido fundamental que las iterantes {yn} tengan sus gráficas en una región U donde f es lipschitziana.

De lo obtenido anteriormente, y considerando el intervalo completo δ=[a,b], obtenemos finalmente la siguiente desigualdad.

Label '14' multiply defined

para cada xδ y cada m=1,2,3,. Como el intervalo δ es acotado, entonces MmR+ y sabemos que

Label '15' multiply defined

En definitiva,

m=1Mm<

es decir la serie es convergente. Con esto queda probada la condición (5) y debido a que la prueba se hizo utilizando el criterio mayorante de Weierstrass concluimos que se trata de una convergencia uniforme de las iterantes de Picard en el intervalo δ hacia una función y:δR.

Es bien conocido que si una sucesión yn:δR, n=1,2,3,, de funciones continuas sobre δ que convergen uniformemente en δ hacia una función y:δR, la función límite uniforme y también es continua en δ.

Queda así demostrado el primer punto de la prueba. Ahora verifiquemos que la función límite uniforme y:δR verifica la ecuación integral (2) siendo la solución al problema de valor inicial.

  • La existencia de la solución.

Sea y:δR la función obtenida anteriormente como límite uniforme de las iterantes de Picard {yn}. La convergencia uniforme de {yn} hacia y(x) en el intervalo δ significa que dado cualquier ε^>0 existe un natural N=N(ε^), tal que para cada n>N y cada xδ

(16)|yn(x)y(x)|<ε^

Sabemos que la convergencia uniforme implica la convergencia puntual (pero no al revés), de manera que para cada xδ se cumple que

(17)limnyn(x)=y(x)

Fijemos un xδ. De acuerdo a (17) y usando (7), se tiene

y(x)=limnyn+1(x)=y0+limnx0xf(t,yn(t))dt

Por otro lado, sabemos que la función solución que satisface el PVI satisface también la ecuación integral (2),

y(x)=y0+x0xf(t,y(t))dt

Nuestro objetivo es probar que

(18)limnx0xf(t,yn(t))dt=x0xf(t,y(t))dt

Pues de esta forma la función límite uniforme y verificaría la ecuación integral y, por tanto sería solución del PVI en el intervalo δ, quedando así probada la existencia de la solución.

Demostrar la relación (18) es equivalente a probar que ε>0 existe N=N(ε)N, tal que para cada n>N y cada xδ

(19)|x0xf(t,yn(t))dtx0xf(t,y(t))dt|<ε

Para probar la relación (19) de nuevo haremos uso de la condición de Lipschitz (3) y de la convergencia uniforme de las iterantes hacia y en δ (16).

|x0xf(t,yn(t))dtx0xf(t,y(t))dt|x0x|f(t,yn(t))f(t,y(t))|dtab|f(t,yn(t))f(t,y(t))|dtLab|yn(t)y(t)|dt

Dado ε>0, definimos

(20)ε^=εL(ba)

Con esto, la desigualdad (16) se puede escribir como

(21)|yn(t)y(t)|<εL(ba)

Usando esta desigualdad notamos que, para cada n>N y cada xδ

|x0xf(t,yn(t))dtx0xf(t,y(t))dt|Lab|yn(t)y(t)|dtLL(ba)abεdt=LL(ba)ε(ba)=ε

Por lo tanto, ε>0 existe N=N(ε)N, tal que para cada n>N y cada xδ

|x0xf(t,yn(t))dtx0xf(t,y(t))dt|<ε

lo que confirma la relación (18) que es lo que queríamos demostrar. De esta forma queda demostrada la existencia de la solución y:δR para el problema de valor inicial. Finalmente demostremos la unicidad de esta solución.

  • Demostración de la unicidad.

Con los dos puntos anteriores estamos convencidos de la existencia de una solución y:δR que satisface el problema de valor inicial (1), así como la ecuación integral (2). La prueba de la unicidad se basa en la suposición de la existencia de otra solución y^:δR que igualmente cumple con los dos puntos anteriores y el objetivo será demostrar que y^(x)=y(x).

De tarea moral demostrarás que la solución y^(x) es también una función límite uniforme de las mismas iterantes de Picard para cada xδ, esto es

(22)limnyn(x)=y^(x)

o, lo que es equivalente, mostrar que

(23)limn|y^(x)yn(x)|=0

y por la ecuación (17) concluir que y^(x)=y(x).

En esta situación se procede de manera muy similar a la prueba del primer punto en el que debemos encontrar una relación de recurrencia que acote a la cantidad |y^(x)yn(x)| para cada xδ de la siguiente manera

(24)0|y^(x)yn(x)|Bn

y si se prueba que

limnBn=0

entonces quedará probada la relación (23).

A continuación te damos algunos hints y resultados que deberás obtener a lo largo de tu demostración.

Estudia lo que sucede con n=1 y n=2 y con los resultados encuentra la relación de recurrencia general para cada nN, para ello considera la máxima distancia entre y^ y y0, esto es

A=maxxδ|y^y0|

El máximo AR+ esta asegurado gracias a la continuidad de la función y^ en el intervalo compacto δ. Como la gráfica de la función y^(x) está contenida en U y f=f(x,y^) es una función lipschitziana, demuestra que para cada xδ

(25)|y^(x)y1(x)|Lx0x|y^(t)y0(t)|dtAL|xx0|

Usando este resultado demuestra que

(26)|y^(x)y2(x)|AL2x0x|tx0|dtAL2|xx0|22!

Demuestra por inducción que en general, para cada n=1,2,3,, y xδ

(27)|y^(x)yn(x)|ALn|xx0|n!

Este resultado te permite concluir que para cada xδ=[a,b]

(28)|y^(x)yn(x)|A(L(ba))nn!=Bn

Prueba que

(29)limnBn=limn(L(ba))nn!=0

Así finalmente queda demostrada la relación (23) y por lo tanto y^(x)=y(x) para cada xδ.

Realizar este ejercicio te servirá para consolidar mucho mejor lo que hemos realizado a lo largo de la demostración. Sin embargo, la demostración de la unicidad puede ser mucho más simple si aplicamos el lema de Gronwall. Demostremos la unicidad por esta opción.

Sean y:δR y y^:δR soluciones al PVI (1) y la ecuación integral (2).

y(x)=y0+x0xf(t,y(t))dtyy^(x)=y0+x0xf(t,y^(t))dt

Restemos las dos ecuaciones anteriores y consideramos su valor absoluto.

|y(x)y^(x)|=|x0xf(t,y(t))dtx0xf(t,y^(t))dt|=|x0xf(t,y(t))f(t,y^(t))dt|x0x|f(t,y(t))f(t,y^(t))|dt

Como f es una función lipschitziana respecto de la segunda variable, entonces

x0x|f(t,y(t))f(t,y^(t))|dtx0xL|y(t)y^(t)|dt=Lx0x|y(t)y^(t)|dt

es decir,

(30)|y(x)y^(x)|Lx0x|y(t)y^(t)|dt

Para que este resultado nos sea más familiar definamos lo siguiente.

h(x)=|y(x)y^(x)|yα=0,β=L

Usando esto reescribimos a la ecuación (30) como

(31)0h(x)α+βx0xh(t)dt

Estamos en las condiciones del lema de Gronwall, pero en el caso especial en el que α=0, así que aplicando el corolario del lema de Gronwall podemos concluir que para cada xδ

h(x)=|y(x)y^(x)|=0

lo que significa que xδ, y(x)=y^(x), es decir, la solución al problema de valor inicial es única.

Con esto quedan demostrados los tres puntos de la prueba, por lo tanto concluimos que el problema de valor inicial (1) posee una única solución en δ=[a,b] y además, las iterantes de Picard asociadas al PVI convergen uniformemente en δ hacia la solución y:δR del PVI.

◻

¡Listo!. Hemos demostrado el teorema de existencia y unicidad de Picard – Lindelöf.

Apliquemos este resultado al caso de las ecuaciones diferenciales lineales.

Existencia y unicidad en ecuaciones lineales

Apliquemos el teorema de Picard – Lindelöf al caso de las ecuaciones diferenciales lineales de primer orden.

(32)dydx=P(x)y+Q(x);y(x0)=y0

Donde las funciones P(x) y Q(x) son continuas en un intervalo compacto δ=[a,b], x0δ y y0R.

En este caso U=δ×R y

f(x,y)=P(x)y+Q(x)

Notemos que se verifica lo siguiente:

  • U es una banda vertical de base compacta, pues δ es un intervalo compacto.
  • Como P(x) y Q(x) son continuas en δ, entonces f es continua en U.
  • Como P(x) es continua en el intervalo δ y éste es compacto, entonces la función P(x) es acotada, así que podemos fijar L>0, tal que |P(x)|<L para todo xδ. Considerando esto tenemos que

|f(x,y1)f(x,y2)|=|(P(x)y1+Q(x))(P(x)y2+Q(x))|=|P(x)y1P(x)y2|=|P(x)||y1y2|L|y1y2|

esto es

(33)|f(x,y1)f(x,y2)|L|y1y2|

para cada par de puntos (x,y1),(x,y2)U es decir, f es una función lipschitziana.

Por tanto, se cumplen las condiciones del teorema de existencia y unicidad global. En consecuencia ratificamos el resultado visto anteriormente en el que se asegura que cualquier problema de valor inicial asociado a una ecuación lineal posee solución única en el intervalo δ. Además, ahora podemos afirmar que las iterantes de Picard asociadas convergen uniformemente hacia la solución del PVI.

◻

Un resultado importante que debemos revisar es que si dos problemas de valor inicial tienen valores iniciales muy cercanos entre sí, entonces las soluciones a cada PVI serán funciones muy próximas. A esto le llamamos dependencia continua de las soluciones respecto a condiciones iniciales. Revisemos este resultado. En la demostración será de uso esencial el lema de Gronwall.

Dependencia continua de la condición inicial

Demostración: Como y(x) y y^(x) son solución de sus respectivos PVI, entonces cada solución verifica una ecuación integral.

y(x)=y0+x0xf(t,y(t))dtyy^(x)=y^0+x0xf(t,y^(t))dt

Vemos que

|y(x)y^(x)|=|y0y^0+x0xf(t,y(t))dtx0xf(t,y^(t))dt||y0y^0|+|x0xf(t,y(t))f(t,y^(t))dt||y0y^0|+x0x|f(t,y(t))f(t,y^(t))|dt

Sabemos que f es una función lipschitziana respecto de la segunda variable en R de manera que

(35)|f(x,y(x))f(x,y^(x))|L|y(x)y^(x)|

con L la constante de Lipschitz para f en R. Entonces,

(36)|y(x)y^(x)||y0y^0|+Lx0x|y(t)y^(t)|dt

Definamos

0<g(x)=|y(x)y^(x)|,α=|y0y^0|yβ=L

Con esto la desigualdad (36) la podemos reescribir como

0<g(x)α+βx0xg(t)dt

Ahora podemos aplicar el lema de Gronwall.

g(x)αeβ(xx0)

es decir,

|y(x)y^(x)||y0y^0|eL(xx0)

Que es lo que queríamos demostrar.

◻

De este resultado observamos que si

y0y^0|y0y^0|0

Entonces las soluciones de los PVI serán funciones muy próximas

|y(x)y^(x)|0y(x)y^(x)

Para concluir la entrada hagamos un breve comentario sobre el resultado local del teorema de Picard y realicemos unos ejemplos al respecto.

Teorema de existencia y unicidad local

Recordemos que el resultado local del teorema de existencia y unicidad de Picard – Lindelöf establece lo siguiente.

La demostración a este teorema corresponde a una adaptación de la demostración vista para el caso global, teniendo en cuenta que las gráficas de las iterantes de Picard, así como la de cualquier posible solución, definidas en el intervalo δ=[x0h,x0+h], están dentro del rectángulo R donde la función f es continua y lipschitziana respecto de la segunda variable. Los pasos claves a seguir y las técnicas son prácticamente una repetición de lo visto anteriormente cambiando la banda vertical U=[a,b]×R por el rectángulo

R={(x,y)R|xx0|a,|yy0|b,a,bR}

Para conocer sobre los detalles puedes revisar la demostración del teorema local en los videos de este mismo curso.

Finalmente, resolvamos algunos ejemplos.

Ejemplo: Mostrar que el problema de valor inicial

dydx=sin2(xy);y(0)=0

posee una única solución definida en R.

Solución: En este caso tenemos la función f:U=R×RR definida como

f(x,y)=sin2(xy)

Es claro que f es continua en la región U=R×R. La función derivada parcial fy:UR está dada como

fy=2sin(xy)cos(xy)

Como

|sin(xy)|1y|cos(xy)|1

para todo (x,y)U, entonces

|fy(x,y)|2

para todo (x,y)U. En consecuencia f es una función lipschitziana en U respecto de la segunda variable. Con esto hemos probado que se satisfacen las hipótesis del teorema de existencia y unicidad global por lo que podemos asegurar que el PVI posee una única solución definida en R.

◻

Calcular las iterantes no siempre será sencillo. En el ejemplo anterior las iterantes pueden no ser fácil de desarrollar, pero debido a que satisface el teorema de Picard – Lindelöf podemos asegurar que dichas iterantes van a converger a la solución del PVI.

Ejemplo: Mostrar que aplicando el resultado global del teorema de Picard – Lindelöf al problema de valor inicial

dydx=y2;y(0)=1

no es posible asegurar la existencia y unicidad de la solución.

Solución: La función f:U=R×RR definida como

f(x,y)=y2

es continua en U=R×R, sin embargo su derivada parcial

fy=2y

no está acotada en U por lo que f no es una función lipschitziana en U.

Una observación más es que la solución al PVI dada por

y(x)=11x

no está definida en R si no en el intervalo (,1).

En definitiva, como no se cumple la tercera condición del teorema global, entonces no podemos asegurar nada sobre la existencia y unicidad de la solución del PVI.

◻

Veamos ahora la importancia del resultado local del teorema de existencia y unicidad de Picard – Lindelöf . Resolvamos de nuevo el ejemplo anterior, pero ahora considerando una región R alrededor del punto dado por la condición inicial.

Ejemplo: Mostrar que aplicando el resultado local del teorema de Picard – Lindelöf, el problema de valor inicial

dydx=y2;y(0)=1

posee una única solución. Encontrar el intervalo de existencia y unicidad.

Solución: Es claro que la función

f(x,y)=y2

es continua en R2 por lo que f será una función lipschitziana en cualquier conjunto R convexo y compacto. Consideremos el rectángulo centrado en el valor inicial (0,1) de dimensiones a=2 y b=1, es decir

R={(x,y)R|x|2,|y1|1}=[2,2]×[0,2]

En la región R la función f si es lipschitziana y continua por lo que se satisfacen las condiciones del teorema local de existencia y unicidad de Picard. Este teorema nos dice que existe una única solución definida en el intervalo δ=[x0h,x0+h] donde

h=min{a,bM}yMmax(x,y)R|f(x,y)|

En este caso, como el máximo valor que puede tomar y en el rectángulo R es y=2, entonces

M=max(x,y)R|f(x,y)|=max(x,y)R|y2|=4

Usando este resultado, se tiene

h=min{a,bM}=min{2,14}=14

Por lo tanto, podemos asegurar la existencia y unicidad de la solución del PVI en el intervalo

δ=[x0h,x0+h]=[14,14]

Además podemos asegurar que las iterantes de Picard convergen uniformemente en el intervalo δ hacia la solución única del PVI. A saber, convergen a

y(x)=11x

◻

Con esto concluimos la primera unidad del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Completar la demostración de la unicidad de la solución a un problema de valor inicial que cumple con las hipótesis del teorema global de existencia y unicidad. Recuerda que el objetivo es demostrar que limn|y^(x)yn(x)|=0
  1. Comprobar que el problema de valor inicial dydx=yx;y(0)=0 posee infinitas soluciones en cualquier intervalo δ en el que 0δ.
    ¿Porqué no contradice esto al teorema de existencia y unicidad local?.
  1. Determinar, por el método de iterantes de Picard, la solución del siguiente problema de valor inicial: dydx=2y(1+x);y(1)=1
  1. Comprobar que el mayor intervalo que proporciona el teorema local de existencia y unicidad de Picard para el problema de valor inicial dydx=1+x2;y(0)=0 donde se asegura la existencia y unicidad de la solución, es δ=[12,12].

Más adelante…

Con la demostración del teorema de existencia y unicidad de Picard – Lindelöf justificamos la teoría realizada a lo largo de esta primera unidad.

En la siguiente entrada comenzaremos la unidad 2 del curso. En dicha unidad estudiaremos las ecuaciones diferenciales de orden mayor a uno, en particular estudiaremos con mayor detalle las ecuaciones diferenciales de segundo orden.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»