Archivo de la etiqueta: matriz inversa

Cálculo Diferencial e Integral III: Introducción al teorema de la función inversa

Por Alejandro Antonio Estrada Franco

Introducción

Estamos a punto de entrar a discutir dos de los resultados principales de nuestro curso: el teorema de la función inversa y el teorema de la función implícita. Repasemos un poco qué hemos hecho hasta ahora. En las dos entradas anteriores introdujimos la noción de diferenciabilidad, la cual cuando sucede para una función f:RnRm, nos dice que f se parece mucho a una función lineal en un punto dado. Vimos que esta noción implica continuidad y que tiene una regla de la cadena relacionada con el producto de matrices. También, hemos discutido cómo esta noción se relaciona con la existencia de espacios tangentes a gráficas multidimensionales.

Ahora queremos entender todavía mejor a las funciones diferenciables. Hay dos teoremas que nos permiten hacer eso. Uno es el teorema de la función inversa y el otro es el teorema de la función implícita. En esta entrada hablaremos del primero, y en un par de entradas más introduciremos el segundo resultado. El propósito del teorema de la función inversa es dar una condición bajo la cual una función es invertible, por lo menos localmente. De hecho, la mayoría de las veces sólo se puede garantizar la invertibilidad localmente, pues las funciones usualmente no son inyectivas y esto da comportamientos globales más difíciles de manejar.

Enunciar el teorema y entenderlo requiere de cierto esfuerzo. Y demostrarlo todavía más. Por esta razón, en esta entrada nos enfocaremos sólo en dar el teorema y presentar herramientas preliminares que necesitaremos para hacer su demostración.

Enunciado del teorema de la función inversa

Supongamos que tenemos f:RnRn y que es diferenciable en el punto a¯. Entonces, f se parece mucho a una función lineal en a¯, más o menos f(x¯)f(a¯)+Ta¯(x¯a¯). Así, si Ta¯ es invertible, suena a que «cerquita de a¯» la función f(x¯) debe de ser invertible. El teorema de la función inversa pone estas ideas de manera formal.

Teorema (de la función inversa). Sea f:SRnRn de clase C1 en el abierto S. Si la matriz Df(a¯) es invertible, entonces, existe δ>0 tal que:

  1. Bδ(a¯)S y f es inyectiva en Bδ(a¯).
  2. f1:f(Bδ(a¯))RnRn es continua en f(Bδ(a¯)).
  3. f(Bδ(a¯))Rn es un conjunto abierto.
  4. f1 es de clase C1 en f(Bδ(a¯)) y además, si x¯=f(v¯)f(Bδ(a¯)), entonces, Df1(x¯)=Df1(f(v¯))=(Df(v¯))1.

Veamos qué nos dice de manera intuitiva cada una de las conclusiones del teorema.

  1. Tendremos una bola Bδ(a¯) dentro de la cual f será inyectiva, y por lo tanto será biyectiva hacia su imagen. Así, f restringida a esta bola será invertible. Es importante que sea una bola abierta, porque entonces sí tenemos toda una región «gordita» en donde pasa la invertibilidad (piensa que si fuera un cerrado, a lo mejor sólo es el punto a¯ y esto no tiene chiste).
  2. La inversa f1 que existirá para f será continua. Esto es lo mínimo que podríamos esperar, aunque de hecho el punto 4 garantiza algo mucho mejor.
  3. La imagen de f en la bola Bδ(a¯) será un conjunto abierto.
  4. Más aún, se tendrá que f1 será de clase C1 y se podrá dar de manera explícita a su derivada en términos de la derivada de f con una regla muy sencilla: simplemente la matriz que funciona para derivar f le sacamos su inversa como matriz y esa funciona al evaluarla en el punto apropiado.

El teorema de la función inversa es profundo pues tanto su enunciado como su demostración combina ideas de topología, álgebra y cálculo. Por esta razón, para su demostración necesitaremos recopilar varias de las herramientas de álgebra lineal que hemos repasado en la Unidad 2 y la Unidad 5. Así mismo, necesitaremos ideas topológicas de las que hemos visto en la Unidad 3. Con ellas desarrollaremos algunos resultados auxiliares que en la siguiente entrada nos permitirán concluir la demostración.

Un criterio para campos vectoriales C1

El teorema de la función inversa es para funciones de clase C1. Nos conviene entender esta noción mejor. Cuando una función f es de clase C1, entonces es diferenciable. Pero el regreso no es cierto y hay contraejemplos. ¿Qué le falta a una función diferenciable para ser de clase C1? A grandes rasgos, que las funciones derivadas Ta¯ y Tb¯ hagan casi lo mismo cuando a¯ y b¯ son cercanos. En términos de matrices, necesitaremos que la expresión ||(Df(a¯)Df(b¯))(x¯)|| sea pequeña cuando a¯ y b¯ son cercanos entre sí.

El siguiente teorema será importante en nuestro camino hacia el teorema de la función inversa. Intuitivamente, para lo que lo usaremos es para aproximar una función f localmente, con «cuadritos» que corresponden a los planos tangentes, porque «muy cerquita» estos planos varían muy poco si pedimos que f sea de clase C1. Es decir si a¯ y b¯ son dos puntos en el dominio de una función diferenciable, y estos están muy cerca uno del otro, sus planos tangentes serán casi el mismo. Esto nos invita a cambiar localmente a una superficie por cuadritos como más adelante se explicará con detalle.

Figura 1. En azul y en rojo dos planos que corresponden a las derivadas Ta¯ y Tb¯. Este cambio calculado es distintos puntos cercanos es «suave», esto se expresará con la ecuación ||Df(b¯)(x¯)Df(a¯)(x¯)||ϵ||x¯|| ya con las diferenciales para todo x¯.

El teorema concreto que nos interesa demostrar es la siguiente equivalencia para que una función sea de clase C1.

Teorema. Sea f:SRnRm una función diferenciable en S. Se tiene que f es de clase C1 en S si y sólo si para todo a¯S y para cada ε>0 existe δ>0 tal que Bδ(a¯)S, y si b¯Bδ(a¯) se tiene ||(Df(b¯)Df(a¯))(x¯)||ε||x¯|| para todo x¯Rn.

Demostración. ). Supongamos que f es de clase C1 en S, es decir, todas sus funciones componentes tienen derivadas parciales en S y son continuas. Sea ε>0. Veremos que se puede encontrar una δ como en el enunciado.

Tomemos a¯ y b¯ en S. Expresamos a (Df(b¯)Df(a¯))(x¯) como

(f1x1(b¯)f1x1(a¯)f1xn(b¯)f1xn(a¯)fmx1(b¯)fmx1(a¯)fmxn(b¯)fmxn(a¯))(x1xn)

o equivalentemente como

((f1(b¯)f1(a¯))x¯(fm(b¯)fm(a¯))x¯).

De tal manera que por Cauchy-Schwarz:

||(Df(b¯)Df(a¯))(x¯)||2=i=1m((fi(b¯)fi(a¯))x¯)2i=1m||fi(b¯)fi(a¯)||2||x¯||2=||x¯||2i=1m||fi(b¯)fi(a¯)||2=||x¯||2i=1mj=1n(fixj(b¯)fixj(a¯))2

En este punto se ve la importancia de que las parciales sean continuas. Podemos encontrar una δ que nos garantice que BδS y que si ||b¯a¯||<δ, entonces |fixj(b¯)fixj(a¯)|<εmn. En esta situación, podemos seguir acotando ||(Df(b¯)Df(a¯))(x¯)||2 como sigue:
||x¯||i=1mj=1nε2mn=ε2||x¯||2.

Al sacar raiz cuadrada, obtenemos la desigualdad ||(Df(b¯)Df(a¯))(x)||ε||x¯|| buscada.

). Supongamos ahora que para cada ε existe una δ como en el enunciado del teorema. Debemos ver que todas las derivadas parciales de todas las componentes son continuas. Podemos aplicar la desigualdad ||(Df(b¯)Df(a¯))(x¯)||||x¯||ε tomando como x¯ cada vector e^i de la base canónica. Esto nos dice que

||Df(b¯)(e^i)Df(a¯)(e^i)||<ε||e^i||=ε.

Por nuestro desarrollo anterior, para cada i tenemos

ε>||Df(b¯)(e^i)Df(a¯)(e^i)||=||(f1(b¯)e^if1(a¯)e^i,,fm(b¯)e^ifm(a¯)e^i)||=||(f1xi(b¯)f1xi(a¯),,fmxi(b¯)fmxi(a¯))||=j=1m(fjxi(b¯)fjxi(a¯))2.

Elevando al cuadrado,

j=1m(fjxi(b)fjxi(a))2<ε2.

Como todos los términos son no negativos, cada uno es menor a ϵ2. Así, para cada i,j tenemos

|fjxi(b¯)fjxi(a¯)|<ε.

Esto es precisamente lo que estábamos buscando: si b¯ está lo suficientemente cerca de a¯, cada derivada parcial en b¯ está cerca de su correspondiente en a¯.

◻

Invertibilidad de Df(a¯) en todo un abierto

En esta sección demostraremos lo siguiente. Si f:RnRn es un campo vectorial diferenciable en a¯ y Df(a¯) es invertible, entonces Df(x¯) será invertible para cualquier x¯ alrededor de cierta bola abierta alrededor de a¯. Los argumentos en esta ocasión están un poco más relacionados con el álgebra lineal.

Será útil que recuerdes que una transformación lineal T:RnRn es invertible si el único x¯Rn tal que T(x¯)=0¯ es x¯=0¯. El siguiente criterio es otra caracterización de invertibilidad en términos de lo que le hace T a la norma de los vectores.

Teorema. Sea T:RnRn una transformación lineal. La transformación T es invertible si y sólo si existe ε>0 tal que ||T(x¯)||ε||x¯|| para todo x¯Rn.

Demostración. ) Como T es invertible, para todo x¯0¯ sucede que T(x¯)0¯. En particular, esto sucede para todos los vectores en Sn1 (recuerda que es la esfera de radio 1 y dimensión n1 centrada en 0¯). Esta esfera es compacta y consiste exactamente de los x¯Rn de norma 1.

Sabemos que las transformaciones lineales y la función norma son continuas. Por la compacidad de Sn1, la expresión ||T(x¯)|| tiene un mínimo digamos ε, que alcanza en Sn1. Por el argumento del párrafo anterior, ε>0.

Tomemos ahora cualquier vector x¯Rn. Si x¯=0¯, entonces ||T(0¯)||=||0¯||=0ε||0¯||. Si x¯0¯, el vector x¯||x¯|| está en Sn1, de modo que ||T(x¯||x¯||)||ε. Usando linealidad para sacar el factor ||x¯|| y despejando obtenemos ||T(x¯)||ε||x¯||, como estábamos buscando.

) Este lado es más sencillo. Si existe dicha ε>0, entonces sucede que para x¯ en Rn, con x¯0¯ tenemos ||T(x¯)||ε||x¯||>0. Por lo tanto, T(x¯)0¯ y así T es invertible.

◻

Obtengamos una consecuencia del teorema de clasificación de la sección anterior que está muy relacionada con este resultado que acabamos de demostrar.

Teorema. Sea f:SRnRn de clase C1 en el conjunto abierto S y a¯S. Si Df(a¯) es invertible, entonces existen δ>0 y m>0 tales que Bδ(a¯)S y ||Df(b¯)(x¯)||m||x¯||, para todo b¯Bδ(a¯) y para todo x¯Rn.

Demostración. Como Df(a¯) es invertible, por el teorema que acabamos de demostrar existe ε>0 tal que ||Df(a¯)(x¯)||ε||x¯|| para todo x¯Rn.

Por nuestra caracterización de funciones C1, Ahora como fC1 en S (abierto) para ε=ε2>0, existe δ>0 tal que Bδ(a¯)S, y ||Df(b¯)(x¯)Df(a¯)(x¯)||ε2||x¯|| para todo b¯Bδ(a¯) y para todo x¯Rn.

Por la desigualdad del triángulo, ||Df(a¯)(x¯)Df(b¯)(x¯)||+||Df(b¯)(x¯)||||Df(a¯)(x¯)||,

de donde

||Df(b¯)(x¯)||||Df(a¯)(x¯)||||Df(b¯)(x¯)Df(a¯)(x¯)||ε||x¯||ε2||x¯||=ε2||x¯||.

De esta manera, el resultado es cierto para la δ que dimos y para m=ε2.

◻

El siguiente corolario es consecuencia inmediata de lo discutido en esta sección y está escrito de acuerdo a la aplicación que haremos más adelante en la demostración del teorema de la función inversa.

Corolario. Sea f:SRnRn una función de clase C1 en S y a¯S. Si Df(a¯) es invertible, entonces, existe δ>0 tal que Bδ(a¯)S y Df(b¯) es invertible para todo b¯Bδ(a¯).

Queda como tarea moral responder por qué este corolario es consecuencia inmediata del teorema anterior.

Un poco de intuición geométrica

Dejamos esta entrada hasta aquí, la naturaleza densamente teórica de lo que estamos haciendo puede hacer pesadas las exposiciones. Lo que hasta aquí demostramos es que para un campo vectorial C1 si su derivada en a¯ es invertible, entonces lo es en toda una vecindad que tiene a a¯. Imaginemos al pedacito de superficie f(Bδ(a¯)) cubierto con pequeños rectángulos. En cada punto, las imágenes de estos rectángulos están muy cerquita, casi pegados a la superficie. Esto nos garantizaría la invertibilidad de f en esta vecindad.

Figura 2

En la Figura 2 vemos ilustrado esto. El círculo inferior corresponde a la vecindad Bδ(a¯) en el dominio de f. La función f levanta una porción del plano en la sabana delineada con negro arriba del círculo. En el círculo tenemos al punto a¯ en verde agua. Sobre la sábana de arriba tenemos con el mismo color a f(a¯). Los puntos negros pequeños dentro de la vecindad alrededor de a¯ son alzados por f a puntos negros sobre la sabana. Sobre de cada punto negro en la sabana tenemos un cuadrito rojo que representa al cachito de plano tangente cerca de la imagen de cada punto. La imagen esta llena de estos pequeños cuadritos, todos ellos representan diferenciales invertibles, esto nos permitirá asegurar la invertibilidad de f en al menos una vecindad.

Más adelante…

En la siguiente entrada demostraremos el teorema de la función inversa, inciso por inciso. Es importante que estes familiarizado con los resultados de esta entrada, pues serán parte importante de la demostración.

Tarea moral

  1. ¿Qué diría el teorema de la función inversa para campos vectoriales f:R2R2? ¿Se puede usar para f(r,θ)=(rcos(θ),rsin(θ))? Si es así, ¿para qué valores de r y θ? ¿Qué diría en este caso explícitamente?
  2. Explica por qué el corolario que enunciamos en efecto se deduce de manera inmediata de lo discutido en la sección correspondiente.
  3. Revisa todas las desigualdades que usamos en esta entrada. ¿Qué resultado estamos usando? ¿Cuándo se darían estas igualdades?
  4. Demuestra que el determinante de una matriz es una función continua en términos de las entradas de la matriz. Usa esto para demostrar que si AMn(R) es una matriz y B es una matriz muy cercana a A, entonces B también es invertible.
  5. Demuestra que si una transformación T es diagonalizable, entonces en el teorema de caracterización de invertibilidad se puede usar como ϵ al mínimo de la expresión |λ| variando sobre todos los eigenvalores λ de T.

Entradas relacionadas

Ecuaciones Diferenciales I: Exponencial de una matriz y matriz fundamental de soluciones

Por Omar González Franco

Las matemáticas son el arte de dar el mismo nombre a diferentes cosas.
– Henri Poincare

Introducción

Ya conocemos las propiedades de los sistemas de ecuaciones diferenciales lineales de primer orden, así como las de sus soluciones. Mucho de lo que vimos en las dos entradas anteriores es bastante similar a lo que desarrollamos en las dos primeras entradas de la unidad 2, sin embargo en esta entrada aprenderemos algo completamente nuevo, definiremos una herramienta matemática que nos será de bastante utilidad. ¡Se trata de la exponencial de una matriz!.

En esta entrada definiremos lo que significa eAt, donde A es una matriz de n×n con componentes reales constantes.

(1)A=(a11a12a1na21a22a2nan1an2ann)

Así mismo, estudiaremos algunas de sus propiedades y su utilidad en la resolución de sistemas lineales.

Operaciones sobre componentes de matrices

Muchas de las operaciones que se pueden hacer hacía una matriz son aplicables sobre cada una de las componentes que conforman a dicha matriz. Para comprender este hecho es conveniente definir lo que significa la derivada e integral de una matriz, esto nos permitirá ganar intuición.

Consideremos por un momento una matriz de n×n compuesta de funciones.

(2)A(t)=(a11(t)a12(t)a1n(t)a21(t)a22(t)a2n(t)an1(t)an2(t)ann(t))

donde ai,j(t), i,j{1,2,3,,n} son funciones sobre algún intervalo común δ. Comencemos por definir la derivada de una matriz.

Algunas reglas de derivación se enuncian a continuación.

De manera equivalente se puede definir la integral de una matriz.

Ejemplo: Calcular la derivada de la matriz

A(t)=(cos(t)sin(t)sin2(t)cos2(t))

Solución: Aplicamos la derivada sobre cada componente de la matriz.

ddtA(t)=(ddtcos(t)ddtsin(t)ddtsin2(t)ddtcos2(t))=(sin(t)cos(t)2sin(t)cos(t)2cos(t)sin(t))

◻

De manera similar se puede hacer la integral de una matriz.

Definamos lo que es una serie de matrices. En este caso consideremos matrices constantes.

Si tenemos series de matrices es claro que algunas pueden o no converger. A continuación definimos la convergencia en matrices.

Con esto en mente puede resultar más comprensible la definición de la exponencial de una matriz.

Exponencial de una matriz

Recordemos que la función escalar de la exponencial se define como

(9)eαt=1+αt+α2t22!++αktkk!=k=0αktkk!

Con las definiciones anteriores podemos extender la serie de la exponencial anterior a una serie de matrices.

Se puede demostrar que la serie (10) converge, sin embargo se requiere de un poco más de teoría que queda fuera de nuestro interés.

Veamos un ejemplo en el que determinemos la exponencial de una matriz.

Ejemplo: Determinar la matriz eA, en donde

A=(1111)

Solución: Para determinar la matriz eA usemos directamente la definición (10). Sabemos que

A0=(1001)=IyA1=(1111)=(20202020)

Ahora bien,

A2=AA=(1111)(1111)=(2222)=(21212121)

A3=AA2=(1111)(2222)=(4444)=(22222222)

A4=AA3=(1111)(4444)=(8888)=(23232323)

Ak=AAk1=(2k12k12k12k1)

Ak+1=AAk=(2k2k2k2k)

Sustituimos en (10).

e(1111)=10!A0+11!A1+12!A2+13!A3+14!A4++1k!Ak+=10!(1001)+11!(20202020)+12!(21212121)+13!(22222222)+14!(23232323)++1k!(2k12k12k12k1)=(10!(1)10!(0)10!(0)10!(1))+(11!(20)11!(20)11!(20)11!(20))+(12!(21)12!(21)12!(21)12!(21))+(13!(22)13!(22)13!(22)13!(22))++(1k!(2k1)1k!(2k1)1k!(2k1)1k!(2k1))=(10!(1)+11!(20)+12!(21)+13!(22)++1k!(2k1)10!(0)+11!(20)+12!(21)+13!(22)++1k!(2k1)10!(0)+11!(20)+12!(21)+13!(22)++1k!(2k1)10!(1)+11!(20)+12!(21)+13!(22)++1k!(2k1))=12(10!(2)+11!(21)+12!(22)+13!(23)++1k!(2k)10!(0)+11!(21)+12!(22)+13!(23)++1k!(2k)10!(0)+11!(21)+12!(22)+13!(23)++1k!(2k)10!(2)+11!(21)+12!(22)+13!(23)++1k!(2k))

¡Uff!. En la última igualdad lo que hicimos fue multiplicar por un uno en la forma 1=22, esto nos permitió hacer que la potencia de los 2 sea la misma que en el factorial.

Escribamos la última matriz como series infinitas.

e(1111)=12(10!(2)+k=12kk!10!(0)+k=12kk!10!(0)+k=12kk!10!(2)+k=12kk!)

Nos gustaría hacer que las series comiencen en k=0. Notemos que, de acuerdo a la forma de la serie, el termino k=0 daría como resultado un 1, considerando esto la expresión anterior la podemos escribir como

e(1111)=12(1+k=02kk!k=12kk!k=12kk!1+k=02kk!)

Para las componentes de la matriz en las que la serie aún no comienza en k=0 sumamos y restamos un 1, así el +1 puede ser incluido en la serie.

e(1111)=12(1+k=02kk!1+k=02kk!1+k=02kk!1+k=02kk!)

Ahora todas las series comienzan en k=0. Sabemos que la serie converge a un número.

k=02kk!=e2

Por definición de convergencia en matrices, se tiene

e(1111)=12(1+e21+e21+e21+e2)

Por lo tanto, la matriz que buscamos es

e(1111)=(e2+12e212e212e2+12)

◻

Como se puede notar, calcular la exponencial de una matriz usando la definición puede ser una tarea bastante tediosa. Por su puesto existen métodos que nos permiten calcular este tipo de matrices de forma más sencilla, más adelante revisaremos uno de ellos.

Algunas propiedades de la exponencial de una matriz se enuncian a continuación.

No demostraremos este teorema ya que nuestro principal interés está en conocer como estos conceptos y propiedades se pueden aplicar en nuestro estudio sobre sistemas lineales.

A continuación mostraremos un resultado importante e interesante y es que la función (11) ¡es solución del sistema lineal homogéneo Y=AY!.

La exponencial de una matriz y los sistemas lineales

Demostración: Consideremos la función Y(t)=eAt. Apliquemos la derivada término a término de la definición (11).

ddteAt=ddt[I+At+A2t22!++Aktkk!+]=ddtI+ddt(At)+ddt(A2t22!)++ddt(Aktkk!)+

Como las matrices I y A son constantes, entonces se tiene lo siguiente.

ddteAt=0+A+A2t+12!A3t2++Aktk1(k1)!+Ak+1tkk!+=A[I+At+A2t22!++Aktkk!+]=AeAt

Con esto hemos mostrado que

(12)ddteAt=AeAt

Es decir,

Y=AY

◻

La ecuación (12) no sólo prueba que es solución del sistema lineal, sino que además muestra cuál es la derivada de la matriz eAt.

Veamos un problema de valores iniciales.

Demostración: Consideremos la función

Y(t)=eAtY0

con Y0 un vector constante, si la derivamos obtenemos lo siguiente.

Y=ddt(eAtY0)=(AeAt)Y0=A(eAtY0)=AY

En donde se ha hecho uso del resultado (12). Esto muestra que la función Y(t)=eAtY0 es solución del sistema Y=AY.

Si tomamos t=0 y considerando que eA0=e0=I, se tiene

Y(0)=eA0Y0=IY0=Y0

Es decir, se satisface la condición inicial Y(0)=Y0.

◻

Nota: Es claro que la matriz eAt es una matriz de n×n, mientras que el vector constante Y0 es un vector de n×1, así que es importante el orden de las matrices, la función del teorema anterior es Y(t)=eAtY0 la cual esta bien definida y el resultado es una matriz de n×n, mientras que la operación Y0eAt no está definida de acuerdo al algoritmo de multiplicación de matrices. Cuidado con ello.

Para concluir esta entrada retomaremos el concepto de matriz fundamental de soluciones visto en la entrada anterior.

Matriz fundamental de soluciones

Retomemos la definición de matriz fundamental de soluciones.

En esta sección denotaremos por Y^(t) a una matriz fundamental de soluciones.

El objetivo de esta sección es mostrar que se puede determinar directamente la matriz eAt a partir de cualquier matriz fundamental de soluciones. Antes de llegar a este resultado veamos unos resultados previos.

Demostración:

) Por demostrar: Y^(t) satisface al sistema y se cumple que W(0)0.

Supongamos que Y^(t) es una matriz fundamental de soluciones del sistema Y=AY conformada por los vectores solución Y1,Y2,,Yn, es decir,

Y^(t)=(Y1Y2Yn)=(y11(t)y12(t)y1n(t)y21(t)y22(t)y2n(t)yn1(t)yn2(t)ynn(t))

Si A es la matriz de coeficientes (1), entonces

(15)AY^=(a11a12a1na21a22a2nan1an2ann)(y11(t)y12(t)y1n(t)y21(t)y22(t)y2n(t)yn1(t)yn2(t)ynn(t))

La i-ésima columna del resultado de multiplicar estas matrices es

(16)AYi=(a11y1i(t)+a12y2i(t)++a1nyni(t)a21y1i(t)+a22y2i(t)++a2nyni(t)an1y1i(t)+an2y2i(t)++annyni(t))

Identificamos que esta matriz corresponde a la derivada Yi ya que cada Yi es solución del sistema, es decir,

(17)Yi=AYi,i=1,2,,n

Entonces AY^(t) tiene por columnas a los vectores Y1,Y2,,Yn. Por lo tanto

Y^=AY^

es decir, la matriz fundamental Y^(t) satisface al sistema.

Como Y^(t) es una matriz fundamental de soluciones, entonces los vectores que la componen Y1,Y2,,Yn son linealmente independientes, de manera que tR el Wronskiano es distinto de cero.

(18)W(Y1,Y2,,Yn)(t)0

en particular se cumple para t=0, es decir,

W(Y1,Y2,,Yn)(0)0

Demostremos el regreso.

) Por demostrar: Y^(t) es una matriz fundamental de soluciones.

Sea Y^(t) una matriz compuesta por los vectores Y1(t),Y2(t),,Yn(t) y cuya derivada es

Y^=AY^

entonces las columnas satisfacen

AYi=Yi

así Yi(t) es solución del sistema

Y=AY

para i=1,2,,n.

Por otro lado, por hipótesis

W(Y1,Y2,,Yn)(0)0

Como es distinto de cero en un punto, entonces lo debe ser en todo el dominio, es decir, tR se cumple que

W(Y1,Y2,,Yn)(t)0

lo que significa que Y1,Y2,,Yn son linealmente independientes.

De ambos resultados concluimos que la matriz Y^(t) es una matriz fundamental de soluciones.

◻

Veamos un resultado interesante. Ya vimos que la matriz eAt es solución del sistema Y=AY, pero no solo resulta ser solución, sino que además ¡es una matriz fundamental de soluciones!.

Demostración: Anteriormente mostramos que

ddteAt=AeAt

lo que prueba que Y(t)=eAt es solución del sistema Y=AY.

Supongamos que eAt está compuesta por la matriz de vectores Y1,Y2,,Yn. Si t=0, se tiene que

eA0=e0=I

y además el determinante es distinto de cero.

(19)|eA0|=|I|=10

o bien,

(20)|eA0|=W(Y1,Y2,,Yn)(0)0

Por el teorema anterior concluimos que Y(t)=eAt es una matriz fundamental de soluciones del sistema lineal.

◻

Veamos un resultado más antes de llegar a nuestro objetivo.

Demostración: Sean Y^(t) y Z^(t) matrices fundamentales del sistema Y=AY. Supongamos que

(22)Y^(t)=(Y1Y2Yn)

y

(23)Z^(t)=(Z1Z2Zn)

Donde la i-ésima columna de las matrices anteriores son

(24)Yi=(y1iy2iyni)yZi=(z1iz2izni)

Como ambas matrices son matrices fundamentales de soluciones, entonces cada Yi y cada Zi i=1,2,3,,n son linealmente independientes. Esto nos permite escribir cualquier columna de Y^(t) como combinación lineal de las columnas de Z^(t), es decir, existen constantes c1i,c2i,,cni, tales que

(25)Yi(t)=c1iZ1(t)+c2iZ2(t)++cniZn(t)

Donde el índice i de las constantes indica el número de columna de la matriz Y^(t), es decir, si definimos el vector

(26)ci=(c1ic2icni)

podemos escribir la combinación lineal (25) como

(27)Yi(t)=(Z1Z2Zn)(c1ic2icni)=(c1iz11+c2iz12++cniz1nc1iz21+c2iz22++cniz2nc1izn1+c2izn2++cniznn)

Definamos la matriz constante C como

(28)C=(c1c2cn)=(c11c12c1nc21c22c2ncn1cn2cnn)

En forma matricial la operación Z^(t)C corresponde al producto de las siguientes matrices de n×n.

(29)Z^(t)C=(z11z12z1nz21z22z2nzn1zn2znn)(c11c12c1nc21c22c2ncn1cn2cnn)

Observemos con cuidado que el resultado (27) corresponde a la i-ésima columna de hacer el producto Z^(t)C. Por lo tanto, las n ecuaciones (25) son equivalentes al sistema

Y^(t)=Z^(t)C

◻

Hemos llegado al resultado final. Dicho resultado involucra el concepto de matriz inversa, recordemos este concepto de álgebra lineal.

La ecuación anterior queda como

(31)AA1=A1A=I

Demostremos el resultado que nos muestra cómo obtener la matriz eAt a partir de una matriz fundamental de soluciones.

Demostración: Sabemos que eAt y Y^(t) son matrices fundamentales de soluciones de Y=AY, de acuerdo al teorema anterior ambas funciones se relacionan de la siguiente forma.

(33)eAt=Y^(t)C

para alguna matriz constante C.

Tomemos t=0, por un lado

eA0=e0=I

Por otro lado, de (33)

eA0=Y^(0)C

De ambas ecuaciones tenemos que

(34)Y^(0)C=I

Esta ecuación obliga que

(35)C=Y^1(0)

Sustituyendo en (33) concluimos que

eAt=Y^(t)Y^1(0)

◻

Finalicemos con un ejemplo.

Ejemplo: Determinar la matriz eAt, donde

A=(110110003)

Solución: Imagina lo complicado que sería este problema si lo intentáramos resolver usando la definición (11).

En la entrada anterior vimos que una matriz fundamental de soluciones del sistema lineal

Y=(110110003)Y

es

Y^(t)=(1e2t01e2t000e3t)

Determinemos la matriz eAt usando la expresión (32).

Calcular la matriz inversa puede ser una tarea larga y debido a que no es el objetivo llevar a cabo estas operaciones se puede comprobar que la matriz inversa de Y^(t) es

Y^1(t)=(1212012e2t12e2t0001e3t)

Basta probar que Y^(t)Y^1(t)=I. Para calcular la inversa se puede hacer uso de algún programa computacional. Si en la matriz inversa evaluamos en t=0, se tiene

Y^1(0)=(1212012120001)

Por lo tanto,

eAt=Y^(t)Y^1(0)=(1e2t01e2t000e3t)(1212012120001)

Haciendo la multiplicación de matrices correspondiente obtenemos finalmente que

eAt=(e2t+12e2t120e2t12e2t+12000e3t)

◻

Existen otras formas de calcular la exponencial de una matriz, una de ellas es usando la transformada de Laplace y otra puede ser diagonalizando matrices. Si lo deseas puedes investigar sobre estos métodos en la literatura, por nuestra parte serán temas que no revisaremos ya que, más que obtener exponenciales de matrices, estamos interesados en obtener soluciones de sistemas de ecuaciones diferenciales, aunque como vimos, están estrechamente relacionados.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Sea

    A(t)=(sin(2t)e3t8t1)
  • Demostrar que la derivada de la matriz A es

    ddtA(t)=(2cos(2t)3e3t8)
  • Demostrar que la integral de 0 a t de la matriz A es

    0tA(s)ds=(12cos(2t)+1213e3t134t2t)
  1. Demostrar que

    (100010001)ds=tI+C

    Donde,

    I=(100010001)yC=(0ccc0ccc0)

    con c una constante.
  1. Obtener la matriz eAt para los siguientes casos:
  • A=(1221)
  • A=(2112)
  • A=(1224)
  1. Sea Y^(t) una matriz fundamental de soluciones del sistema Y=AY. Demostrar que eA(tt0)=Y^(t)Y^1(t0)
  1. Una matriz fundamental del sistema

    Y=(1113)Y=AY

    es

    Y^(t)=(e2tte2te2t(1+t)e2t)
  • Demostrar que la matriz anterior en efecto es una matriz fundamental de soluciones del sistema.
  • Demostrar que la matriz eAt está dada por

    eAt=((1t)e2tte2tte2t(1+t)e2t)

Más adelante…

En estas tres primeras entradas de la unidad 3 establecimos la teoría básica que debemos conocer sobre los sistemas lineales de primer orden compuestos por n ecuaciones diferenciales lineales de primer orden. En particular, esta entrada es de interés, pues más adelante la exponencial de una matriz volverá a aparecer cuando estudiemos métodos de resolución y cuando justifiquemos los teoremas de existencia y unicidad.

En las siguientes entradas comenzaremos a desarrollar los distintos métodos de resolución de estos sistemas lineales. En particular, en la siguiente entrada desarrollaremos el método de eliminación de variables, éste método en realidad es muy sencillo, útil y práctico en muchas ocasiones, aunque también es un método muy limitado.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»