Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Ecuaciones Diferenciales I: Exponencial de una matriz y matriz fundamental de soluciones

Por Omar González Franco

Las matemáticas son el arte de dar el mismo nombre a diferentes cosas.
– Henri Poincare

Introducción

Ya conocemos las propiedades de los sistemas de ecuaciones diferenciales lineales de primer orden, así como las de sus soluciones. Mucho de lo que vimos en las dos entradas anteriores es bastante similar a lo que desarrollamos en las dos primeras entradas de la unidad 2, sin embargo en esta entrada aprenderemos algo completamente nuevo, definiremos una herramienta matemática que nos será de bastante utilidad. ¡Se trata de la exponencial de una matriz!.

En esta entrada definiremos lo que significa eAt, donde A es una matriz de n×n con componentes reales constantes.

(1)A=(a11a12a1na21a22a2nan1an2ann)

Así mismo, estudiaremos algunas de sus propiedades y su utilidad en la resolución de sistemas lineales.

Operaciones sobre componentes de matrices

Muchas de las operaciones que se pueden hacer hacía una matriz son aplicables sobre cada una de las componentes que conforman a dicha matriz. Para comprender este hecho es conveniente definir lo que significa la derivada e integral de una matriz, esto nos permitirá ganar intuición.

Consideremos por un momento una matriz de n×n compuesta de funciones.

(2)A(t)=(a11(t)a12(t)a1n(t)a21(t)a22(t)a2n(t)an1(t)an2(t)ann(t))

donde ai,j(t), i,j{1,2,3,,n} son funciones sobre algún intervalo común δ. Comencemos por definir la derivada de una matriz.

Algunas reglas de derivación se enuncian a continuación.

De manera equivalente se puede definir la integral de una matriz.

Ejemplo: Calcular la derivada de la matriz

A(t)=(cos(t)sin(t)sin2(t)cos2(t))

Solución: Aplicamos la derivada sobre cada componente de la matriz.

ddtA(t)=(ddtcos(t)ddtsin(t)ddtsin2(t)ddtcos2(t))=(sin(t)cos(t)2sin(t)cos(t)2cos(t)sin(t))

◻

De manera similar se puede hacer la integral de una matriz.

Definamos lo que es una serie de matrices. En este caso consideremos matrices constantes.

Si tenemos series de matrices es claro que algunas pueden o no converger. A continuación definimos la convergencia en matrices.

Con esto en mente puede resultar más comprensible la definición de la exponencial de una matriz.

Exponencial de una matriz

Recordemos que la función escalar de la exponencial se define como

(9)eαt=1+αt+α2t22!++αktkk!=k=0αktkk!

Con las definiciones anteriores podemos extender la serie de la exponencial anterior a una serie de matrices.

Se puede demostrar que la serie (10) converge, sin embargo se requiere de un poco más de teoría que queda fuera de nuestro interés.

Veamos un ejemplo en el que determinemos la exponencial de una matriz.

Ejemplo: Determinar la matriz eA, en donde

A=(1111)

Solución: Para determinar la matriz eA usemos directamente la definición (10). Sabemos que

A0=(1001)=IyA1=(1111)=(20202020)

Ahora bien,

A2=AA=(1111)(1111)=(2222)=(21212121)

A3=AA2=(1111)(2222)=(4444)=(22222222)

A4=AA3=(1111)(4444)=(8888)=(23232323)

Ak=AAk1=(2k12k12k12k1)

Ak+1=AAk=(2k2k2k2k)

Sustituimos en (10).

e(1111)=10!A0+11!A1+12!A2+13!A3+14!A4++1k!Ak+=10!(1001)+11!(20202020)+12!(21212121)+13!(22222222)+14!(23232323)++1k!(2k12k12k12k1)=(10!(1)10!(0)10!(0)10!(1))+(11!(20)11!(20)11!(20)11!(20))+(12!(21)12!(21)12!(21)12!(21))+(13!(22)13!(22)13!(22)13!(22))++(1k!(2k1)1k!(2k1)1k!(2k1)1k!(2k1))=(10!(1)+11!(20)+12!(21)+13!(22)++1k!(2k1)10!(0)+11!(20)+12!(21)+13!(22)++1k!(2k1)10!(0)+11!(20)+12!(21)+13!(22)++1k!(2k1)10!(1)+11!(20)+12!(21)+13!(22)++1k!(2k1))=12(10!(2)+11!(21)+12!(22)+13!(23)++1k!(2k)10!(0)+11!(21)+12!(22)+13!(23)++1k!(2k)10!(0)+11!(21)+12!(22)+13!(23)++1k!(2k)10!(2)+11!(21)+12!(22)+13!(23)++1k!(2k))

¡Uff!. En la última igualdad lo que hicimos fue multiplicar por un uno en la forma 1=22, esto nos permitió hacer que la potencia de los 2 sea la misma que en el factorial.

Escribamos la última matriz como series infinitas.

e(1111)=12(10!(2)+k=12kk!10!(0)+k=12kk!10!(0)+k=12kk!10!(2)+k=12kk!)

Nos gustaría hacer que las series comiencen en k=0. Notemos que, de acuerdo a la forma de la serie, el termino k=0 daría como resultado un 1, considerando esto la expresión anterior la podemos escribir como

e(1111)=12(1+k=02kk!k=12kk!k=12kk!1+k=02kk!)

Para las componentes de la matriz en las que la serie aún no comienza en k=0 sumamos y restamos un 1, así el +1 puede ser incluido en la serie.

e(1111)=12(1+k=02kk!1+k=02kk!1+k=02kk!1+k=02kk!)

Ahora todas las series comienzan en k=0. Sabemos que la serie converge a un número.

k=02kk!=e2

Por definición de convergencia en matrices, se tiene

e(1111)=12(1+e21+e21+e21+e2)

Por lo tanto, la matriz que buscamos es

e(1111)=(e2+12e212e212e2+12)

◻

Como se puede notar, calcular la exponencial de una matriz usando la definición puede ser una tarea bastante tediosa. Por su puesto existen métodos que nos permiten calcular este tipo de matrices de forma más sencilla, más adelante revisaremos uno de ellos.

Algunas propiedades de la exponencial de una matriz se enuncian a continuación.

No demostraremos este teorema ya que nuestro principal interés está en conocer como estos conceptos y propiedades se pueden aplicar en nuestro estudio sobre sistemas lineales.

A continuación mostraremos un resultado importante e interesante y es que la función (11) ¡es solución del sistema lineal homogéneo Y=AY!.

La exponencial de una matriz y los sistemas lineales

Demostración: Consideremos la función Y(t)=eAt. Apliquemos la derivada término a término de la definición (11).

ddteAt=ddt[I+At+A2t22!++Aktkk!+]=ddtI+ddt(At)+ddt(A2t22!)++ddt(Aktkk!)+

Como las matrices I y A son constantes, entonces se tiene lo siguiente.

ddteAt=0+A+A2t+12!A3t2++Aktk1(k1)!+Ak+1tkk!+=A[I+At+A2t22!++Aktkk!+]=AeAt

Con esto hemos mostrado que

(12)ddteAt=AeAt

Es decir,

Y=AY

◻

La ecuación (12) no sólo prueba que es solución del sistema lineal, sino que además muestra cuál es la derivada de la matriz eAt.

Veamos un problema de valores iniciales.

Demostración: Consideremos la función

Y(t)=eAtY0

con Y0 un vector constante, si la derivamos obtenemos lo siguiente.

Y=ddt(eAtY0)=(AeAt)Y0=A(eAtY0)=AY

En donde se ha hecho uso del resultado (12). Esto muestra que la función Y(t)=eAtY0 es solución del sistema Y=AY.

Si tomamos t=0 y considerando que eA0=e0=I, se tiene

Y(0)=eA0Y0=IY0=Y0

Es decir, se satisface la condición inicial Y(0)=Y0.

◻

Nota: Es claro que la matriz eAt es una matriz de n×n, mientras que el vector constante Y0 es un vector de n×1, así que es importante el orden de las matrices, la función del teorema anterior es Y(t)=eAtY0 la cual esta bien definida y el resultado es una matriz de n×n, mientras que la operación Y0eAt no está definida de acuerdo al algoritmo de multiplicación de matrices. Cuidado con ello.

Para concluir esta entrada retomaremos el concepto de matriz fundamental de soluciones visto en la entrada anterior.

Matriz fundamental de soluciones

Retomemos la definición de matriz fundamental de soluciones.

En esta sección denotaremos por Y^(t) a una matriz fundamental de soluciones.

El objetivo de esta sección es mostrar que se puede determinar directamente la matriz eAt a partir de cualquier matriz fundamental de soluciones. Antes de llegar a este resultado veamos unos resultados previos.

Demostración:

) Por demostrar: Y^(t) satisface al sistema y se cumple que W(0)0.

Supongamos que Y^(t) es una matriz fundamental de soluciones del sistema Y=AY conformada por los vectores solución Y1,Y2,,Yn, es decir,

Y^(t)=(Y1Y2Yn)=(y11(t)y12(t)y1n(t)y21(t)y22(t)y2n(t)yn1(t)yn2(t)ynn(t))

Si A es la matriz de coeficientes (1), entonces

(15)AY^=(a11a12a1na21a22a2nan1an2ann)(y11(t)y12(t)y1n(t)y21(t)y22(t)y2n(t)yn1(t)yn2(t)ynn(t))

La i-ésima columna del resultado de multiplicar estas matrices es

(16)AYi=(a11y1i(t)+a12y2i(t)++a1nyni(t)a21y1i(t)+a22y2i(t)++a2nyni(t)an1y1i(t)+an2y2i(t)++annyni(t))

Identificamos que esta matriz corresponde a la derivada Yi ya que cada Yi es solución del sistema, es decir,

(17)Yi=AYi,i=1,2,,n

Entonces AY^(t) tiene por columnas a los vectores Y1,Y2,,Yn. Por lo tanto

Y^=AY^

es decir, la matriz fundamental Y^(t) satisface al sistema.

Como Y^(t) es una matriz fundamental de soluciones, entonces los vectores que la componen Y1,Y2,,Yn son linealmente independientes, de manera que tR el Wronskiano es distinto de cero.

(18)W(Y1,Y2,,Yn)(t)0

en particular se cumple para t=0, es decir,

W(Y1,Y2,,Yn)(0)0

Demostremos el regreso.

) Por demostrar: Y^(t) es una matriz fundamental de soluciones.

Sea Y^(t) una matriz compuesta por los vectores Y1(t),Y2(t),,Yn(t) y cuya derivada es

Y^=AY^

entonces las columnas satisfacen

AYi=Yi

así Yi(t) es solución del sistema

Y=AY

para i=1,2,,n.

Por otro lado, por hipótesis

W(Y1,Y2,,Yn)(0)0

Como es distinto de cero en un punto, entonces lo debe ser en todo el dominio, es decir, tR se cumple que

W(Y1,Y2,,Yn)(t)0

lo que significa que Y1,Y2,,Yn son linealmente independientes.

De ambos resultados concluimos que la matriz Y^(t) es una matriz fundamental de soluciones.

◻

Veamos un resultado interesante. Ya vimos que la matriz eAt es solución del sistema Y=AY, pero no solo resulta ser solución, sino que además ¡es una matriz fundamental de soluciones!.

Demostración: Anteriormente mostramos que

ddteAt=AeAt

lo que prueba que Y(t)=eAt es solución del sistema Y=AY.

Supongamos que eAt está compuesta por la matriz de vectores Y1,Y2,,Yn. Si t=0, se tiene que

eA0=e0=I

y además el determinante es distinto de cero.

(19)|eA0|=|I|=10

o bien,

(20)|eA0|=W(Y1,Y2,,Yn)(0)0

Por el teorema anterior concluimos que Y(t)=eAt es una matriz fundamental de soluciones del sistema lineal.

◻

Veamos un resultado más antes de llegar a nuestro objetivo.

Demostración: Sean Y^(t) y Z^(t) matrices fundamentales del sistema Y=AY. Supongamos que

(22)Y^(t)=(Y1Y2Yn)

y

(23)Z^(t)=(Z1Z2Zn)

Donde la i-ésima columna de las matrices anteriores son

(24)Yi=(y1iy2iyni)yZi=(z1iz2izni)

Como ambas matrices son matrices fundamentales de soluciones, entonces cada Yi y cada Zi i=1,2,3,,n son linealmente independientes. Esto nos permite escribir cualquier columna de Y^(t) como combinación lineal de las columnas de Z^(t), es decir, existen constantes c1i,c2i,,cni, tales que

(25)Yi(t)=c1iZ1(t)+c2iZ2(t)++cniZn(t)

Donde el índice i de las constantes indica el número de columna de la matriz Y^(t), es decir, si definimos el vector

(26)ci=(c1ic2icni)

podemos escribir la combinación lineal (25) como

(27)Yi(t)=(Z1Z2Zn)(c1ic2icni)=(c1iz11+c2iz12++cniz1nc1iz21+c2iz22++cniz2nc1izn1+c2izn2++cniznn)

Definamos la matriz constante C como

(28)C=(c1c2cn)=(c11c12c1nc21c22c2ncn1cn2cnn)

En forma matricial la operación Z^(t)C corresponde al producto de las siguientes matrices de n×n.

(29)Z^(t)C=(z11z12z1nz21z22z2nzn1zn2znn)(c11c12c1nc21c22c2ncn1cn2cnn)

Observemos con cuidado que el resultado (27) corresponde a la i-ésima columna de hacer el producto Z^(t)C. Por lo tanto, las n ecuaciones (25) son equivalentes al sistema

Y^(t)=Z^(t)C

◻

Hemos llegado al resultado final. Dicho resultado involucra el concepto de matriz inversa, recordemos este concepto de álgebra lineal.

La ecuación anterior queda como

(31)AA1=A1A=I

Demostremos el resultado que nos muestra cómo obtener la matriz eAt a partir de una matriz fundamental de soluciones.

Demostración: Sabemos que eAt y Y^(t) son matrices fundamentales de soluciones de Y=AY, de acuerdo al teorema anterior ambas funciones se relacionan de la siguiente forma.

(33)eAt=Y^(t)C

para alguna matriz constante C.

Tomemos t=0, por un lado

eA0=e0=I

Por otro lado, de (33)

eA0=Y^(0)C

De ambas ecuaciones tenemos que

(34)Y^(0)C=I

Esta ecuación obliga que

(35)C=Y^1(0)

Sustituyendo en (33) concluimos que

eAt=Y^(t)Y^1(0)

◻

Finalicemos con un ejemplo.

Ejemplo: Determinar la matriz eAt, donde

A=(110110003)

Solución: Imagina lo complicado que sería este problema si lo intentáramos resolver usando la definición (11).

En la entrada anterior vimos que una matriz fundamental de soluciones del sistema lineal

Y=(110110003)Y

es

Y^(t)=(1e2t01e2t000e3t)

Determinemos la matriz eAt usando la expresión (32).

Calcular la matriz inversa puede ser una tarea larga y debido a que no es el objetivo llevar a cabo estas operaciones se puede comprobar que la matriz inversa de Y^(t) es

Y^1(t)=(1212012e2t12e2t0001e3t)

Basta probar que Y^(t)Y^1(t)=I. Para calcular la inversa se puede hacer uso de algún programa computacional. Si en la matriz inversa evaluamos en t=0, se tiene

Y^1(0)=(1212012120001)

Por lo tanto,

eAt=Y^(t)Y^1(0)=(1e2t01e2t000e3t)(1212012120001)

Haciendo la multiplicación de matrices correspondiente obtenemos finalmente que

eAt=(e2t+12e2t120e2t12e2t+12000e3t)

◻

Existen otras formas de calcular la exponencial de una matriz, una de ellas es usando la transformada de Laplace y otra puede ser diagonalizando matrices. Si lo deseas puedes investigar sobre estos métodos en la literatura, por nuestra parte serán temas que no revisaremos ya que, más que obtener exponenciales de matrices, estamos interesados en obtener soluciones de sistemas de ecuaciones diferenciales, aunque como vimos, están estrechamente relacionados.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Sea

    A(t)=(sin(2t)e3t8t1)
  • Demostrar que la derivada de la matriz A es

    ddtA(t)=(2cos(2t)3e3t8)
  • Demostrar que la integral de 0 a t de la matriz A es

    0tA(s)ds=(12cos(2t)+1213e3t134t2t)
  1. Demostrar que

    (100010001)ds=tI+C

    Donde,

    I=(100010001)yC=(0ccc0ccc0)

    con c una constante.
  1. Obtener la matriz eAt para los siguientes casos:
  • A=(1221)
  • A=(2112)
  • A=(1224)
  1. Sea Y^(t) una matriz fundamental de soluciones del sistema Y=AY. Demostrar que eA(tt0)=Y^(t)Y^1(t0)
  1. Una matriz fundamental del sistema

    Y=(1113)Y=AY

    es

    Y^(t)=(e2tte2te2t(1+t)e2t)
  • Demostrar que la matriz anterior en efecto es una matriz fundamental de soluciones del sistema.
  • Demostrar que la matriz eAt está dada por

    eAt=((1t)e2tte2tte2t(1+t)e2t)

Más adelante…

En estas tres primeras entradas de la unidad 3 establecimos la teoría básica que debemos conocer sobre los sistemas lineales de primer orden compuestos por n ecuaciones diferenciales lineales de primer orden. En particular, esta entrada es de interés, pues más adelante la exponencial de una matriz volverá a aparecer cuando estudiemos métodos de resolución y cuando justifiquemos los teoremas de existencia y unicidad.

En las siguientes entradas comenzaremos a desarrollar los distintos métodos de resolución de estos sistemas lineales. En particular, en la siguiente entrada desarrollaremos el método de eliminación de variables, éste método en realidad es muy sencillo, útil y práctico en muchas ocasiones, aunque también es un método muy limitado.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Método de eliminación de variables

Por Omar González Franco

En las matemáticas no entiendes las cosas. Te acostumbras a ellas.
– John Von Neumann

Introducción

Estamos listos para comenzar a desarrollar los distintos métodos de resolución de sistemas lineales de primer orden.

En esta entrada desarrollaremos un método relativamente sencillo, pero muy limitado, ya que en general se utiliza cuando sólo tenemos un sistema lineal de dos ecuaciones diferenciales. Este método se conoce como método de eliminación de variables y, como su nombre lo indica, lo que se intenta hacer es eliminar las variables dependientes de t hasta quedarnos con sólo una, esto produce que el resultado sea una sola ecuación diferencial de orden superior (la ecuación correspondiente a la única variable dependiente que nos queda), la cual es posible resolver aplicando alguno de los métodos vistos en la unidad anterior, la solución de dicha ecuación diferencial servirá para obtener el resto de funciones solución del sistema lineal.

Es importante mencionar que para que este método sea práctico y sencillo se requiere que los coeficientes de las ecuaciones que conforman al sistema lineal sean constantes y como el problema se reduce a resolver una ecuación de orden superior es conveniente usar este método sólo cuando tenemos dos ecuaciones diferenciales en el sistema, ya que esto involucrará resolver una ecuación diferencial de segundo orden con coeficientes constantes.

Desarrollemos el método de manera general.

Método de eliminación de variables

Los sistemas de ecuaciones diferenciales que estamos estudiando son de la forma

Label '1' multiply defined

Este método lo desarrollaremos para un sistema lineal de dos ecuaciones diferenciales lineales de primer orden tanto homogéneas como no homogéneas. De manera general desarrollemos el caso no homogéneo, el caso homogéneo será un caso particular.

Consideremos el siguiente sistema de ecuaciones diferenciales en su forma normal.

Label '2' multiply defined

Debido a que se trata de un sistema pequeño regresemos a nuestra notación usual de derivada y sean x y y las variables dependientes de la variable independiente t. Así mismo, usemos una distinta notación para los coeficientes ai,j, i,j{1,2}, de tal manera que el sistema lineal (2) lo podamos escribir de la siguiente forma.

Label '3' multiply defined

Con a, b, c y d constantes. El método que desarrollaremos es para sistema de la forma (3).

De la primer ecuación del sistema despejamos a la variable y.

Label '4' multiply defined

Sustituyamos en la segunda ecuación.

ddt[1b(dxdtaxg1)]=cx+d[1b(dxdtaxg1)]+g2

Derivemos en el lado izquierdo y operemos en el lado derecho de la ecuación.

1b[d2xdt2adxdtdg1dt]=cx+1b(ddxdtadxdg1)+g2d2xdt2adxdtdg1dt=bcx+ddxdtadxdg1+bg2

Reordenando los términos se tiene lo siguiente.

Label '5' multiply defined

Si definimos

p=(a+d),q=(adbc)yg(t)=dg1dtdg1+bg2

entonces el resultado (5) se puede escribir como

Label '6' multiply defined

Con p y q constantes. En esta forma es claro que tenemos una ecuación diferencial lineal de segundo orden con coeficientes constantes, basta resolver la ecuación usando los métodos desarrollados en la unidad anterior para obtener la función x(t). Una vez obtenida la solución de (6) sustituimos en el despeje inicial que hicimos para y(t) (4) y resolvemos, con ello estaremos obteniendo la solución del sistema lineal (3).

Caso homogéneo

El caso homogéneo es un caso particular del desarrollo anterior, pues el sistema a resolver es

Label '7' multiply defined

El desarrollo es exactamente el mismo considerando que g1(t)=0 y g2(t)=0.

Despejando a y de la primer ecuación, obtenemos

Label '8' multiply defined

Sustituyendo en la segunda ecuación y siguiendo el mismo procedimiento obtendremos que la ecuación diferencial de segundo orden homogénea para x es

Label '9' multiply defined

Si nuevamente definimos

p=(a+d),yq=(adbc)

entonces podemos escribir

Label '10' multiply defined

Resolvamos un par de ejemplos, comencemos con un sistema lineal homogéneo.

Ejemplo: Resolver el siguiente sistema lineal homogéneo.

dxdt=2xydydt=5x2y

Solución: Comencemos por despejar a la variable y de la primer ecuación.

y=2xdxdt

Sustituimos en la segunda ecuación.

ddt(2xdxdt)=5x2(2xdxdt)

Operando, se tiene

2dxdtd2xdt2=5x4x+2dxdtd2xdt2=x

La ecuación de segundo orden a resolver es

d2xdt2+x=0

Por supuesto esta ecuación se puede obtener sustituyendo los coeficientes directamente en la ecuación (9).

Resolvamos la ecuación. La ecuación auxiliar es

k2+1=0

cuyas raíces son k1=i y k2=i.

Recordemos que la forma de la solución para raíces complejas k1=α+iβ y k2=αiβ es

Label '11' multiply defined

En nuestro caso α=0 y β=1, entonces la solución es

x(t)=c1cos(t)+c2sin(t)

Vemos que

dxdt=c1sin(t)+c2cos(t)

Sustituimos en el despeje de y.

y(x)=2(c1cos(t)+c2sin(t))(c1sin(t)+c2cos(t))=2c1cos(t)+2c2sin(t)+c1sin(t)c2cos(t)

Esta solución la podemos escribir de dos formas.

y(x)=c1(2cos(t)+sin(t))+c2(2sin(t)cos(t))

o bien,

y(x)=(2c1c2)cos(t)+(c1+2c2)sin(t)

Por lo tanto, la solución general del sistema homogéneo es

(xy)=c1(cos(t)2cos(t)+sin(t))+c2(sin(t)2sin(t)cos(t))

o bien,

(xy)=(c12c1c2)cos(t)+(c2c1+2c2)sin(t)

◻

Ahora resolvamos un sistema no homogéneo como ejemplo.

Ejemplo: Resolver el siguiente sistema lineal no homogéneo.

dxdt=4xy+t+1dydt=2x+y+t+1

Solución: En este caso no homogéneo se tiene que

g1(t)=t+1=g2(t)

De la primer ecuación despejamos a y.

y=4x+t+1dxdt

Sustituimos en la segunda ecuación.

ddt(4x+t+1dxdt)=2x+(4x+t+1dxdt)+t+1

En el lado izquierdo aplicamos la derivada y en el lado izquierdo operamos.

4dxdt+ddt(t+1)d2xdt2=6xdxdt+2t+24dxdt+1d2xdt2=6xdxdt+2t+2

Reordenando los términos, se tiene

5dxdtd2xdt2=6x+2t+1d2xdt2+5dxdt6x=2t+1

La ecuación diferencial de segundo orden no homogénea a resolver es

d2xdt25dxdt+6x=2t1

Para obtener la función x(t) primero resolveremos el caso homogéneo y posteriormente aplicaremos el método de coeficientes indeterminados para resolver el caso no homogéneo. Recordemos que la solución general será la superposición de ambos resultados.

Label '12' multiply defined

Para el caso homogéneo la ecuación a resolver es

d2xdt25dxdt+6x=0

La ecuación auxiliar es

k25k+6=0

Resolviendo para k se obtiene que k1=2 y k2=3. Como las raíces son reales y distintas, la forma de la solución es

Label '13' multiply defined

Por lo tanto, la solución complementaria es

xc(t)=c1e2t+c2e3t

Ahora resolvamos la ecuación no homogénea.

d2xdt25dxdt+6x=2t1

En este caso la función g es

g(x)=2t1

la cual corresponde a un polinomio de grado 1, entonces proponemos que la solución particular tiene, de igual manera, la forma de un polinomio de grado 1, esto es

xp(t)=At+B

Con A y B constantes por determinar. La primera y segunda derivada están dadas como

dxpdt=Ayd2xdt2=0

Sustituimos en la ecuación diferencial.

05A+6(At+B)=2t1

Reordenando, se tiene

6At+6B5A=2t1

Para que se cumpla la igualdad es necesario que ocurra lo siguiente.

6A=26B5A=1

De la primer igualdad se obtiene que

A=13

Sustituyendo este resultado en la segunda igualdad se obtiene que

B=19

Por lo tanto, la solución particular es

xp(t)=13t+19

Entonces concluimos que la solución general de la ecuación diferencial de segundo orden para x es

x(t)=c1e2t+c2e3t13t+19

Sustituimos este resultado en la ecuación de y.

y=4(c1e2t+c2e3t13t+19)+t+1ddt(c1e2t+c2e3t13t+19)

Operando, se tiene

y=4c1e2t+4c2e3t43t+49+t+12c1e2t3c2e3t+13

De donde se obtiene finalmente que la solución y(t) es

y(x)=2c1e2t+c2e3t13t+169

Por lo tanto, la solución general del sistema lineal no homogéneo es

(xy)=c1(12)e2t+c2(11)e3t(1313)t+(19169)

◻

Hemos concluido con esta entrada. Este método resulta sencillo y práctico para resolver sistemas lineales de este tipo, sin embargo está limitado a sistemas pequeños y realmente estamos interesados en resolver sistemas mucho más complejos.

En las siguientes entradas desarrollaremos otros métodos más generales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • dxdt=x+2ydydt=4x+3y
  • dxdt=2xydydt=3x2y
  • dxdt=x4ydydt=x+2y
  • dxdt=2x3ydydt=3x+2y
  1. Resolver los siguientes sistemas lineales no homogéneos.
  • dxdt=2xy+3tdydt=3x2y+2t+4
  • dxdt=x+2y+etdydt=3x2y+3e2t+2

Más adelante…

En esta entrada presentamos un método sencillo para resolver sistemas lineales compuestos por dos ecuaciones diferenciales lineales de primer orden con coeficientes constantes tanto homogéneas como no homogéneas.

En la siguiente entrada comenzaremos a desarrollar otros métodos de resolución a sistemas lineales, sin embargo estos métodos suelen ser tratados desde una perspectiva del álgebra lineal, así que será importante hacer una pequeño repaso de algunos conceptos y teoremas de álgebra lineal. Unos de los conceptos más importantes que utilizaremos es el de valores y vectores propios.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Calculo Diferencial e Integral II: Series de Taylor y de Maclaurin

Por Miguel Ángel Rodríguez García

Introducción

En la sección anterior vimos las series de potencias, en esta sección veremos las series de Taylor y de Maclaurin que tienen como base las series de potencias.

Series de Taylor y Maclaurin

Definición. Sea f una función tal que f1(a)f(k)(a) existen, es decir, la k-esima derivada de la función f existe. Si p(x)=a0+a1(xa)+a2(xa)2++an(xa)n entonces decimos que p(x) es el polinomio de Taylor de grado n alrededor de a para f, denotado como:

Pn,a(k)=n=0f(k)(a)n!(xa)n

En el caso cuando a=0 la serie es conocida como serie de Maclaurin:

Pn(k)=n=0f(k)(0)n!(x)n

Vemos que estas series aproximan una función f(x) por medio de polinomios, es decir, para x=a los polinomios de Taylor o series de Taylor por medio de polinomios proporcionan un ajuste a f(x).

Veamos unos ejemplos.

Ejemplos

  • Calcule el polinomio de Taylor de grado 2n+1 alrededor de 0 para la función sin(x).

Calculando las derivadas, se tiene que:

sin(x)=cos(x),sin(x)=sin(x),sin(x)=cos(x),sin(x)=sin(x).

Observación: Vemos que las derivadas de orden impar involucra el término de coseno y las de orden par a los términos de seno, por lo que sin2n+1(0)=(1)n

Asi tenemos que:

p2n+1,0 sin(x)=sin(0)(x0)0!+sin(0)(x0)1!+sin(0)(x0)22!+sin(0)(x0)33!+

+sin2n+1(0)(x0)2n+1(2n+1)!=xx33+x55+.+(1)nx2n+1(2n+1)!

  • Calcule el polinomio de Taylor de grado 2n+1 alrededor de 0 para cos(x)

Tenemos que cos(x)=sin(x),cos(x)=cos(x),cosx)=sin(x),cos(x)=cos(x)

Observación: Vemos que las derivadas de orden impar involucra el término de seno y las de orden par al coseno, por lo que cos2n(0)=(1)n.

Así tenemos que:

p2n,0 cos(x)=cos(0)(x0)0!+cos(0)(x0)1!+cos(0)(x0)22!+cos(0)(x0)33!+

+cos2n(0)(x0)2n(2n)!=1x22+x44+.+(1)nx2n(2n)!

Observamos que los polinomios de Taylor se aproxima a una función f(x) mediante sus derivadas hasta el orden enésimo. Veamos el siguiente teorema.

Residuo

Teorema de Taylor:

Supongamos que f(x),f(x),.,fn+1(x) existen, es decir, la n+1 derivadas existen, definimos en el intervalo cerrado [a,x] al residuo o el resto Rn,a,f(x) que está definida por f(x)=f(a)+f(a)(xa)+.+f(n)(a)n!+Rn,a(x) entonces el residuo se puede definir de 3 maneras distintas:

  • Forma de cauchy:

Rn,a,f(x)=f(n+1)(t)n!(xt)n(xa)

Para algún t en [a,x].

  • Forma de Lagrange:

Rn,a,f(x)=f(n+1)(t)(n+1)!(xa)n+1

Para algún t en [a,x] y fn+1 es integrable en [a,x].

  • Forma integral:

Rn,a,f(x)=axf(n+1)(t)n!(t)(xt)ndt

Demostración:

Demostremos la forma de Cauchy, sea S:[a,x]R definida como:

(3)S(t)=f(x)(f(t)+f(t)(xt)+.+fn(t)(xt)n!)

La función S es continua en [a,x] y diferenciable en (a,x), por el teorema del valor medio  tϵ (a,x) tal que:

(1)S(x)S(a)xa=S(t)

Sea S(x) definida anteriormente como:

S(x)=f(x)(f(x)+f(x)(xx)+.+fn(x)(xx)nn!)=0

y S(a):

S(a)=f(x)(f(a)+f(a)(xa)+.+fn(a)(xa)nn!=f(x)pn,a,f(x))=Rn,a,f(x)

Entonces por (1):

S(t)=0Rn,a,f(x)xa

Con tϵ(a,x), por otro lado, derivamos la relación (3) con respecto a t como:

S(t)=0(f(t)+f(t)(1)+f(t)(xt)+f(t)22!(xt)(1))+f(t)22!(xt)2.)

(2)=f(n+1)(t)(xt)nn!  t ϵ(0,x)

S(t)=0Rn,a,f(x)xa=S(a)xa

Pero:

S(t)=f(n+1)(t)(xt)nn!

S(a)=f(n+1)(t)(xt)nn!(xa)

Rn,a,f(x)=f(n+1)(t)(xt)nn!(xa)

◻

Ahora demostremos la forma de Lagrange.

Apliquemos el teorema de valor medio de Cauchy a las funciones S:[a,x]R y g(x)=(xt)n+1, observemos que g es continua en el intervalo [a,x] y diferenciable en (a,x),  t ϵ (a,b) tal que:

S(t)g(x)=S(x)S(a)(g(x)g(a))

(g(x)g(a))S(t)=(S(x)S(a))g(x)

(g(x)g(a))S(t)=(S(x)S(a))(n+1)(xt)n

Donde:

g(x)=(xx)n+1=0

(0g(a))S(t)=(0S(a))(n+1)(xt)n

Utilizando la relación (2), la evaluación correspondiente de g(a) y S(a), se tiene que:

(xa)n+1f(n+1)(t)(xt)nn!=Rn,a,f(x)(n+1)(xt)n(1)

Rn,a,f(x)=f(n+1)(t)(xa)n+1(n+1)!

◻

Demostremos la última forma que es la forma de la integral. Tenemos que:

axS(t)dt=S(x)S(a)=0Rn,a,f(x)

Donde s(x)=0 y nuevamente utilizamos la relación (2), por tanto:

Rn,a,f(x)=xafn+1(x)n!(xt)ndt

◻

Una de las aplicaciones de las series de Taylor y Maclaurin es en la resolución de la ecuación diferencial para un péndulo no lineal, que viene dada como:

θ¨=glsin(θ)

Esta ecuación diferencial no se resuelve tan fácil y no hay solución que se pueda escribir en términos de funciones elementales, se puede solucionar esta ecuación para valores pequeños de θ con θ<<1, aproximamos la función sin(θ) en términos de una serie de Taylor:

sin(θ)θθ33+θ55+.+(1)nθ2n+1(2n+1)!

Como queremos solamente valores pequeños de θ, entonces:

sin(θ)θ

Así la ecuación diferencial se reescribe como:

θ¨=glθ

Y la solución a esta ecuación diferencial está dada como:

θ(t)=θ0cos(glt)

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

Aproxime las siguientes funciones con serie de Taylor.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. f(x)=ex al grado n y alrededor de 0.
  2. f(x)=log(x) al grado n y alrededor de 1.
  3. Escriba la serie de Maclaurin de la función f(x)=log(x+1) hasta grado n.
  4. f(x)=x5 al grado n alrededor de 1 y calcule su residuo.
  5. f(x)=x al grado n=3 alrededor de 0 y calcule su residuo.

Más adelante…

En esta sección vimos la definición de las series de Taylor y las series de Maclaurin que es un caso particular de las series de Taylor, también vimos los residuos en el caso de las series de Taylor. Con esta entrada acabamos con la unidad 7, en la siguiente entrada veremos las series de Fourier con el cual comenzaremos la unidad 8.

Entradas relacionadas

Cálculo Diferencial e Integral II: Series de potencia

Por Miguel Ángel Rodríguez García

Introducción

En la sección anterior vimos el criterio de la convergencia absoluta para las series alternantes, en esta sección veremos las series de potencia, que, como bien dice el nombre, son series polinómicas, veamos la siguiente definición.

Series de potencia

Definición. Una serie de potencia es la serie de la siguiente forma:

n=0cnxn=c0+c1x+c2x2+..

A la serie anterior, se le dice que es una serie de potencias alrededor de x=0, mientras que, la series de potencias alrededor de x=a se le conoce como series de potencias centradas en a, y es de la siguiente forma:

n=0cn(xa)n=c0+c1(xa)+c2(xa)2+..

Donde cn son coeficientes en ambos casos.

Un ejemplo de estas series son las series geométricas que ya hemos visto, al hacer los n-coeficientes cn igual a 1:

n=0xn=1+x+x2+x3..

Veamos el siguiente teorema de convergencia llamado el teorema de Abel para las series de potencias.

Teorema de Abel:

Sea la siguiente serie: n=0cn(xa)n, entonces se cumple una y solo una de las siguientes afirmaciones:

a) La serie converge solo cuando x=a.

b) Existe un número positivo R tal que la serie converge |xa|<R y diverge si |xa|>R.

c) La serie converge para toda x.

La demostración de este teorema es extensa, por lo que sería más conveniente analizarla que demostrarla.

Al número R se le llama el radio de convergencia de la serie, notemos que la serie converge en el intervalo (aR, a+R), si R=0 tenemos el primer caso a), es decir, el intervalo consta de un solo punto x=a, si R entonces tenemos el caso c), es decir, el intervalo de convergencia en este caso es (,), en el intervalo b) se tiene 4 casos posibles:

(aR, a+R)

[aR, a+R]

(aR, a+R]

[aR, a+R)

Es decir, la serie puede diverger en ambos extremos o solo un extremo, al igual que la convergencia de la serie.

El teorema de Cauchy-Hadamard nos permite conocer la convergencia de la serie de potencias:

Teorema de Cauchy-Hadamard:

Consideremos la serie de potencias n=0cn(xa)n y consideremos a A como:

A=limn|cn|n

Entonces la serie de potencias converge si el radio de convergencia R se define como:

R=1A

De este teorema podemos concluir lo siguiente, dependiendo del valor de A podemos decir que si:

  • A=0R
  • AR=0
  • 0<A<R=1A

Demostración:

Sin perdida de generalidad podemos suponer que a=0. Supongamos que |x|<R, entonces:

(1)|cnxn||cn|Rn

Ahora, como:

limn|cn|n=A=1R

Para casi todos los índices de n, ya que:

|cn|n1R|cn|Rn

Por lo que en (1):

|cnxn||cn|RnRnRn=1

Lo cual vemos que es una serie absolutamente convergente, por el criterio de la absoluta convergencia:

n=0cn(xa)n converge

Para el caso cuando |x|>R, de la misma manera anterior obtendremos que:

|cnxn|1

Lo que significa que no puede convergir a cero, lo que significa que la serie diverge.

n=0cn(xa)n diverge

◻

El teorema nos dice que podemos usar el criterio de la raíz, también podemos usar el criterio de la razón.

Veamos unos ejemplos.

Ejemplos

  • n=0(n!)xn

En esta serie notamos que cn=n!, entonces calculamos al valor A como sigue:

A=limn|an+1||an|=limn|(n+1)!||n!|=limn(n+1)R=0

Por lo que el radio de convergencia es R=0 y la serie solo converge cuando x=0 según el teorema de Abel.

  • n=0n2n+12n2+1xn

Vemos en este caso que cn=n2n+12n2+1, utilizamos el criterio de la raíz como sigue:

A=limn|cn|n=limnn2n+12n2+1n=limnn2+1/n2n+1/n=0R

Por lo que el intervalo de convergencia es: R ϵ (,) y la serie es convergente para cualquier valor de x.

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

Diga si la siguientes series convergen o diverge.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. n=0n34nxn
  2. n=1xnn
  3. n=1(2x)nn2
  4. n=1(1)n1xnn
  5. n=1(3)nxnn+1

Más adelante…

En esta sección vimos las series de potencias y dos teoremas importantes para la convergencia de estas series que son el teorema de Abel y el teorema de Cauchy-Hadamard, en la siguiente sección veremos los polinomios de Taylor y de Mclaurin que están relacionados con estas series de potencias.

Entradas relacionadas

Cálculo Diferencial e Integral II: Criterio de la convergencia absoluta

Por Miguel Ángel Rodríguez García

Introducción

En la sección anterior vimos las series alternantes y el criterio de Leibniz que es un teorema de convergencia para estas series alternantes, en esta sección veremos el criterio de la convergencia absoluta, para esto definiremos lo que es una serie absolutamente convergente en la siguiente definición.

Definición. La serie n=1an es absolutamente convergente si n=1|an| es convergente.

Veamos un ejemplo.

Ejemplo

  • n=1(1)n5

Sea la sucesión: an=(1)nn5, tomando el valor absoluto de la sucesión obtenemos que:

n=1|an|=n=1|(1)nn5|=n=11n5

Sabemos que la sucesión bn=1n5 es positiva, decreciente y continua en el intervalo [1,], por lo que por el criterio de la integral:

11x5dx=14x4|1=0+14=14

Como la integral converge, entonces:

n=11n5 converge

n=1(1)nn5 La serie es absolutamente convergente.

Ahora veamos cuando una serie se dice que se define como condicionalmente convergente.

Definición: La serie n=1an se llama condicionalmente convergente si es convergente, pero no es absolutamente convergente.

Esto sucede cuando n=1|an| es divergente.

Veamos un ejemplo.

Ejemplo

  • n=1(1)n1n

Sabemos que la serie por bn=1n es monótonamente decreciente y que:

limn1n=0

Por el criterio de Leibniz:

n=1(1)n1n converge.

Por otro lado, tomando el valor absoluto de la serie:

n=1|(1)n1n|=n=11n

Por P-series como p=1 entonces:

n=11n diverge

n=1(1)n1n es condicionalmente convergente

Veamos el criterio de la absoluta convergencia.

Criterio de la absoluta convergencia

Teorema. (Criterio de la absoluta convergencia)

Si n=1an es absolutamente convergente n=1an es convergente.

Demostración:

Por hipótesis tenemos que n=1an es absolutamente convergente n=1|an| converge.

Sea ϵ>0, como n=1|an| converge  k ε N, tal que:

 n ϵ N ||ak+1|+|ak+2|++|ak+m||<ϵ

Por la desigualdad del triángulo, se tiene que:

|ak+1+ak+2++ak+m|||ak+1|+|ak+2|++|ak+m||

|ak+1+ak+2++ak+n|<ϵ

Por el teorema de Cauchy se tiene que:

n=1an converge

◻

Otra manera de ver este teorema es el siguiente:

Si n=1|an| es convergente, entonces n=1an también es convergente.

Ejemplos

  • n=1cos(n)n2

Si aplicamos el valor absoluto, tenemos que:

n=1|cos(n)n2|=n=1|cos(n)|n2

Puesto que |cos(n)|1 para toda n, entonces tenemos que:

cos(n)n21n2

Sabemos que 1n2 es convergente, ya que es una p-serie, por el criterio de comparación:

n=1|cos(n)n2| converge

Por tanto:

n=1cos(n)n2

Es absolutamente convergente, por el teorema visto anteriormente:

n=1cos(n)n2 converge

  • n=1(1)n1n2

Tomando el valor absoluto tenemos que:

n=1(1)n1n2=n=1|(1)n1n2|=n=11n2

Sabemos que la serie n=11n2 converge por p-series y, por tanto:

n=1(1)n1n2 es absolutamente convergente, por lo que:

n=1(1)n1n2 converge

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

Diga si la siguientes series convergen o divergen.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. n=1sin(n)n2
  2. n=1(1)nn33n
  3. n=1(1)narctan(n)n2
  4. n=1(1)n(2n)!2nn!n
  5. n=1(1)n1np

Más adelante…

En esta sección vimos la definición de cuando serie es absolutamente convergente y condicionalmente en el cual |an| converge o no, además, vimos el criterio de convergencia absoluta que nos dice que si una serie es absolutamente convergente entonces la serie converge, en la siguiente sección veremos otro tipo de series que son las series de potencias.

Entradas relacionadas