Archivo de la etiqueta: vectores propios

Cálculo Diferencial e Integral III: Representaciones matriciales, eigenvalores y eigenvectores

Por Alejandro Antonio Estrada Franco

Introducción

Como se ha mencionado anteriormente el objetivo de introducir ideas de álgebra lineal en cálculo diferencial es poder establecer una transformación lineal que sea la mejor aproximación lineal en un punto a una función dada. Esto nos ayudará a entender a la función dada en el punto en términos de otra función «más simple». Pero así mismo, las transformaciones lineales pueden ellas mismas pensarse en términos de transformaciones más sencillas. En esta entrada revisaremos esta idea y la conectaremos con la noción de eigenvectores.

Por un lado, recordaremos cómo es que una transformación lineal puede ser representada mediante una matriz una vez que se ha elegido una base del espacio vectorial. Luego, hablaremos de cómo elegir, de entre todas las bases, aquella que nos de una representación matricial lo más sencilla posible.

Representación matricial de las transformaciones lineales

Comencemos esta entrada repasando la importante relación entre transformaciones lineales y matrices. Denotaremos como L(Rn,Rm) al espacio vectorial de transformaciones lineales de Rn a Rm.

Si tomamos cualquier transformación lineal TL(Rn,Rm), entonces los valores de T en cualquier vector de Rn quedan totalmente determinados por los valores de T en los elementos de alguna base β para Rn. Tomemos γ={w¯1,,w¯m} una base ordenada para Rm, y β={e¯1,,e¯n} una base ordenada para Rn. Para cada e¯k tenemos:

(1)T(e¯k)=i=1mtikw¯i,

para algunos escalares t1k,,tmk que justo son las componentes de T(e¯k) en la base γ. Con estos escalares, podemos considerar la matriz: Matγ,β(T)=(t11t1ntm1tmn)

Esta es llamada la representación matricial de la transformación T con respecto a las bases β y γ. Esta matriz ayuda a calcular T en cualquier vector de Rn como explicamos a continuación.

Para cada v¯Rn, podemos expresarlo como combinación lineal de elementos de la base β digamos que v¯=i=1nvie¯i. Mediante estos coeficientes, podemos entonces asociar a v¯ al siguiente vector columna de Rn [v¯]β=(v1vn),

al que llamamos el vector de coordenadas de v¯ con respecto a la base β.

Realicemos por un lado el siguiente cálculo:

Matγ,β(T)[v¯]β=(t11t1ntm1tmn)(v1vn)=(k=1nt1kvkk=1ntmkvk.)

Por otro lado tenemos lo siguiente:

T(v¯)=T(k=1nvke¯k)=k=1nvkT(e¯k)=k=1nvkT(i=1mtikw¯i)=i=1m(k=1nvktik)w¯i.

Juntando ambos cálculos: [T(v¯)]γ=(k=1nvkt1kk=1nvktmk)=Matγ,β(T)[v¯]β.

En otras palabras, aplicar T a un vector v¯ equivale a multiplicar Matγ,β por el vector columna asociado a v¯ en la base β, en el sentido de que tras hacer este producto recuperamos el vector de coordenadas para T(v¯) en la base γ.

Isomorfismo entre transformaciones lineales y matrices

Con las operaciones de suma y multiplicación por escalar que vimos en la entrada de Matrices, se tiene que Mm,n(R) es un espacio vectorial sobre R. De igual manera L(Rn,Rm) es un espacio vectorial sobre R con las siguientes operaciones:

  • Si T y U son dos transformaciones, la transformación T+U es aquella que envía a todo vector v¯Rn al vector T(v¯)+U(v¯).
  • Si rR la transformación rT es la que a todo v¯Rn lo envía al vector rT(v¯).

Queda como ejercicio que verifiques que esto dota efectivamente a L(Rn,Rm) de la estructura de espacio vectorial.

A continuación veremos que estos dos espacios vectoriales son, prácticamente, el mismo. Lo que haremos es construir una función Φ:Mm,n(R)L(Rn,Rm) que sea biyectiva y que preserve las operaciones de suma y de producto escalar.

Para ello, tomemos una base β={e¯1,,e¯n} de Rn y una base γ={u¯1,,u¯m} de Rm. Tomemos una matriz AMm,n(R). Explicaremos a continuación cómo construir la transformación Φ(A), para lo cual diremos qué hace con cada elemento de la base β. Tomaremos aquella transformación lineal TAL(Rn,Rm) tal que

TA(e¯j)=i=1naiju¯i.

Tomamos entonces Φ(A)=TA. Veamos que Φ tiene todas las propiedades que queremos.

  • Φ es suprayectiva. Si tenemos una transformación T:RnRm, entonces por la construcción anterior se tiene que su forma matricial A:=Matγ,β(T) justo cumple TA=T, de modo que Φ(A)=T.
  • Φ es inyectiva. Si A y B son matrices distintas, entonces difieren en alguna entrada, digamos (i,j). Pero entonces TA y TB difieren ya que TA(e¯j)TB(e¯j) ya que en las combinaciones lineales creadas hay un coeficiente distinto. Así, Φ(A)Φ(B).
  • Φ es lineal. Para rR, A y B matrices con entradas aij y bij, respectivamente, se cumple que Φ(rA+B)=T(rA+B) y entonces se satisface para cada j=1,,n lo siguiente:
    (rA+B)[e¯j]β=rA[e¯j]β+B[e¯j]β=r[TA(e¯i)]γ+[TB(e¯i)]γ.
    Por tanto para cada e¯i tenemos que T(rA+B)(e¯i)=rTA(e¯i)+TB(e¯i) y en consecuencia T(rA+B)=rTA+TB. Así Φ(rA+B)=rΦ(A)+Φ(B).

Todo lo anterior implica que Mm,n(R)L(Rn,Rm), es decir, que ambos espacios vectoriales son isomorfos.

En búsqueda de una matriz sencilla

Por lo que hemos platicado hasta ahora, a cada transformación lineal le corresponde una matriz, y viceversa. De hecho, esta asociación respeta operaciones como la suma y el producto por escalar. Esta equivalencia está dada a partir de la función Φ encontrada en la sección anterior.

Si Φ es biyectiva, ¿por qué hablamos entonces de encontrar una representación matricial simple para una transformación lineal T? Esto parecería no tener sentido, pues a cada transformación le corresponde una y sólo una matriz. Sin embargo, esto es cierto únicamente tras haber fijado las bases β y γ para Rn y Rm, respectivamente. Así, dependiendo de la elección de las bases las representaciones matriciales cambian y si tenemos una transformación lineal T, es posible que querramos encontrar bases β y γ en donde la representación matricial sea sencilla.

Nos enfocaremos únicamente en transformaciones lineales que van de un espacio vectorial a sí mismo. Tomemos entonces T:RnRn y una base β de Rn. Por simplicidad, escribiremos Matβ,β(T) simplemente como Matβ(T). Hay propiedades de T que podemos leer en su matriz Matβ(T) y que no dependen de la base β que hayamos elegido. Si con una base β especial resulta que Matβ(T) es muy sencilla, entonces podremos leer estas propiedades de T muy fácilmente. Un ejemplo es la siguiente proposición, la cual queda como tarea moral.

Proposición. La transformación lineal T:RnRn es invertible si y sólo si Matβ(T) es invertible.

Si A=Matβ(T) fuera muy muy sencilla, por ejemplo, si fuera una matriz diagonal, entonces podríamos saber la invertibilidad de T sabiendo la invertibilidad de A, y la de A sería muy fácil de ver pues por ser matriz diagonal bastaría hacer el producto de las entradas de su diagonal para obtener su determinante y estudiar si es distinto de cero.

Motivados por el ejemplo anterior, estudiemos la siguiente pregunta: ¿toda transformación lineal se puede representar con una matriz diagonal? Si una transformación lineal se puede representar de esta manera, diremos que es diagonalizable.

Eigenvalores, eigenvectores y eigenespacios

En lo que sigue repasaremos el aparato conceptual que nos permitirá dar una respuesta parcial de cuándo una matriz es diagonalizable. Un tratamiento mucho más detallado se puede encontrar aquí en el blog, en el curso de Álgebra Lineal II, comenzando con la entrada Eigenvectores y eigenvalores.

Para nuestro repaso, debemos introducir algunos conceptos y estudiarlos.

Definición. Sea T:RnRn una transformación lineal. Diremos que un escalar rR es un eigenvalor de T si existe v¯Rn{0¯} tal que T(v¯)=rv¯. A dicho vector v¯ le llamaremos un eigenvector de T con eigenvalor asociado r.

Dado un eigenvector v¯Rn, sólo hay un eigenvalor correspondiente a éste. Si T(v¯)=rv¯ y T(v¯)=tv¯, entonces rv¯=tv¯ de donde (rt)v¯=0¯. Como v¯0¯, se sigue que r=t.

Por otro lado, para un eigenvalor r puede haber más de un eigenvector con eigenvalor asociado r. Consideremos para un eigenvalor r el conjunto E(r)={v¯V|T(v¯)=rv¯}. Notemos que 0¯E(r) y también todos los eigenvectores de r están en E(r). Además, E(r) es un subespacio de Rn, pues si u¯,v¯E(r), y aR, tenemos

T(au¯+v¯)=aT(u¯)+T(v¯)=a(ru¯)+(rv¯)=r(au¯+v¯),

lo cual implica que au¯+v¯E(r).

Definición. Para una transformación lineal T:RnRn y un eigenvalor r de T llamaremos a

E(r)={v¯V|T(v¯)=rv¯}

el eigenespacio de T correspondiente a r.

Cuando tenemos eigenvectores correspondientes a eigenvalores distintos, cumplen algo especial.

Proposición. Si v¯1,,v¯l son eigenvectores de una transformación lineal T:RnRn con eigenvalores correspondientes r1,,rl distintos entonces v¯1,,v¯l son linealmente independientes.

Demostración. La ruta para establecer la demostración de este teorema será por inducción sobre l. Para un conjunto con sólo un eigenvector el resultado es evidente (¿por qué?). Supongamos cierto para cualquier subconjunto de l1 eigenvectores que pertenecen a eigenespacios distintos. Sean v¯1,,v¯l eigenvectores en distintos eigenespacios y consideremos α1,,αl escalares tales que:

(2)k=1lαkv¯k=0¯.

Aplicamos T a la igualdad anterior. Usando que cada v¯k es eigenvector correspondiente al eigenvalor rk obtenemos:

0¯=T(0¯)=T(k=1lαkv¯k)=k=1lαkT(v¯k)=k=1lαkrkv¯k.

Es decir,

(3)0=k=1lαkrkv¯k

Multipliquemos (2) por rl y restemos el resultado de (3) para obtener que

0¯=0¯0¯=k=1lαkrkv¯krlk=1lαkv¯k=k=1l1αk(rkrl)v¯k.

Tenemos entonces:

k=1l1αk(rkrl)v¯k=0¯.

Ya que por hipótesis de inducción v¯1,,v¯l1 son linealmente independientes entonces αk(rkrl)=0 para todo k, pero los eigenvalores son todos distintos entre sí por lo tanto para todo k de 1 a l1 se tiene rkrl0 y así αk=0. Finalmente, usando (2) obtenemos αl=0. Por lo tanto v¯1,,v¯l son linealmente independientes.

◻

Eigenvectores y transformaciones diagonalizables

Recuerda que dijimos que una transformación lineal T:RnRn es diagonalizable si existe una base β de Rn tal que Matβ(T) es una matriz diagonal. El siguiente resultado conecta las dos ideas que hemos estado explorando: los eigenvectores y la representabilidad sencilla de T.

Teorema. Sea T:RnRn transformación lineal. Una matriz T es diagonalizable si y sólo si existe una base de Rn conformada por eigenvectores de T.

En realidad la demostración consiste únicamente en entender correctamente cómo se construyen las matrices para una base dada.

Demostración. ) Supongamos que T tiene una representación matricial que es una matriz diagonal A:=Matβ(T)=diag(r1,,rn) con respecto a la base β={v¯1,,v¯n}. Afirmamos que para cada j=1,,n se tiene v¯j es eigevector de eigenvalor rj. En efecto, la forma en la que se construyó la matriz A nos dice que

T(e¯j)=i=1naije¯i=ajje¯j=rje¯j,

en donde estamos usando que las entradas aij de la matriz son cero si ij (por ser diagonal), y son rj si i=j. Por supuesto, como e¯j forma parte de una base, tampoco es el vector cero. Así, e¯j es eigenvector de eigenvalor e¯j.

) Supongamos ahora que v¯1,,v¯n son una base β de Rn conformada por eigenvectores de T con eigenvalores asociados, digamos, r1,,rn. Aquí se puede mostrar que Matβ(T) es diagonal. Queda como tarea moral hacer las cuentas.

◻

Hay una situación particular en la que podemos aprovechar el teorema anterior de manera inmediata: cuando la transformación tiene n eigenvalores distintos. Esta consecuencia queda establecida en el siguiente resultado.

Corolario. Toda transformación lineal T:RnRn tiene a lo más n eigenvalores distintos. Si T tiene exactamente n eigenvalores distintos, entonces los eigenvectores correspondientes forman una base para Rn y la matriz de T relativa a esa base es una matriz diagonal con los eigenvalores como elementos diagonales.

Demostración. Queda como tarea moral. Como sugerencia, recuerda que mostramos arriba que los eigenvectores de eigenvalores distintos son linealmente independientes.

◻

Al parecer los eigenvalores, eigenvectores y eigenespacios de una transformación lineal son cruciales para poder expresarla de manera sencilla. ¿Cómo los encontramos? Esto lo veremos en la siguiente entrada.

Antes de concluir, mencionamos que hay otro teorema crucial sobre diagonalización de matrices. Diremos que una matriz PMn(R) es ortogonal si PtP=I.

Teorema (el teorema espectral). Sea AMn(R) una matriz simétrica. Entonces, existe una matriz ortogonal P tal que PAPt es una matriz diagonal.

El teorema anterior nos dice no únicamente que la matriz A es diagonalizable, sino que además es diagonalizable mediante un tipo muy especial de matrices. Un estudio y demostración de este teorema queda fuera de los alcances de nuestro curso, pero puedes revisar, por ejemplo la entrada teorema espectral del curso de Álgebra Lineal I que tenemos en el blog.

Más adelante

Lo que haremos en la siguiente entrada es desarrollar un método para conocer los eigenvalores de una matriz. A partir de ellos podremos encontrar sus eigenvectores. Y en ciertos casos especiales, esto nos permitirá mostrar que la transformación es diagonalizable y, de hecho, nos dará la base para la cual la matriz asociada es diagonal.

Tarea moral

  1. Considera la transformación lineal de R3 en R2, dada como T(x,y,z)=(x+y,z+y). Encuentra su representación matricial con las bases canónicas de R3 y R2. Luego, encuentra su representación matricial con las bases {(1,2,3),(1,0,1),(0,1,0)} de R3 y {(1,1),(1,1)} de R2.
  2. Considera la siguiente matriz: (10230102) Da una transformación lineal T:R4R2 y ciertas bases β de R4 y γ de R2 para las cuales esta matriz sea la representación matricial de T en las bases β y γ.
  3. Fija bases β, γ y δ para Rn, Rm y Rl. Considera dos transformaciones lineales T:RnRm y S:RmRl. Demuestra que:
    Matδ,β(ST)=Matδ,γ(S)Matγ,β(T).
    En otras palabras que la «composición de transformaciones corresponde al producto de sus matrices».
  4. Sea T:RnRn una transformación lineal y β una base de Rn. Demuestra que T es biyectiva si y sólo si Matβ(T) es invertible.
  5. Verifica que los vectores v¯1,,v¯n dados en el último teorema en efecto ayudan a dar una representación matricial diagonal para T.
  6. La demostración del último corolario es un conjunto de sencillas consecuencias de las definiciones y teoremas desarrollados en esta entrada con respecto a los eigenvalores y eigenvectores. Realiza esta demostración.

Entradas relacionadas

Ecuaciones Diferenciales I: Teoría cualitativa de los sistemas lineales homogéneos – Valores propios nulos

Por Omar González Franco

Un matemático es un hombre ciego en un cuarto oscuro
tratando de buscar a un gato negro que no está allí.
– Charles Darwin

Introducción

En esta entrada concluiremos con el estudio cualitativo de los sistemas lineales homogéneos compuestos por dos ecuaciones diferenciales.

Hasta ahora somos capaces de clasificar y esbozar el comportamiento de las soluciones para los casos en los que los valores propios son reales, complejos y repetidos. Es momento de estudiar el último caso en donde uno o ambos de los valores propios son cero. Este caso es importante ya que divide los sistemas lineales con valores propios estrictamente positivos (repulsores) y valores propios estrictamente negativos (atractores) de aquellos que poseen un valor propio positivo y uno negativo (puntos silla).

Los casos posibles son

  • λ1=0 y λ2<0.
  • λ1=0 y λ2>0.
  • λ1=λ2=0.

Recordemos que el sistema que estamos estudiando es de la forma

x=ax+by(1)y=cx+dy

Este sistema lo podemos escribir como

(2)Y=AY

en donde,

Y=(xy),Y=(xy)yA=(abcd)

Sean λ1 y λ2 los valores propios de A y sean K1 y K2 los vectores propios de A asociados a cada valor propio, respectivamente.

Comencemos por revisar el caso en el que un valor propio es nulo y el otro negativo.

Un valor propio nulo y otro negativo

Caso 1: λ1=0 y λ2<0.

Supongamos que λ1=0 y λ2<0 son los valores propios de A. Debido a que λ1=0 y λ20, es decir, los valores propios son reales y distintos, entonces la solución general de (1) debe ser de la forma

(3)Y(t)=c1eλ1tK1+c2eλ2tK2

Pero λ1=0, por consiguiente la solución general es

(4)Y(t)=c1K1+c2eλ2tK2

Observemos que esta solución depende de t sólo a través del segundo término, de manera que si c2=0, entonces la solución será el vector constante

(5)Y(t)=c1K1

En este caso, todos los puntos c1K1, para cualquier c1, son puntos de equilibrio y todo aquel que esté situado en la línea de vectores propios para el valor propio λ1=0 es un punto de equilibrio.

Si λ2<0, entonces el segundo término en la solución general (4) tiende a cero cuando t crece, por lo que dicha solución tiende al punto de equilibrio c1K1 a lo largo de una línea paralela a K2.

El plano fase indicando estas características es el siguiente.

Plano fase para un valor propio nulo y otro negativo.

Veamos que ocurre si λ2>0.

Un valor propio nulo y otro positivo

Caso 2: λ1=0 y λ2>0.

La solución general del sistema (1) sigue siendo

Y(t)=c1K1+c2eλ2tK2

Pero en este caso λ2>0, lo que implica que la solución se aleja de la línea de puntos de equilibrio cuando t crece.

El plano fase es el siguiente.

Plano fase para un valor propio nulo y otro positivo.

Finalmente veamos que ocurre si λ1=λ2=0.

Ambos valores propios nulos

Caso 3: λ1=λ2=0.

En este caso ambos valores propios son repetidos, lo que significa que podemos aplicar la teoría vista en la entrada anterior. Sea K1 el único vector propio de la matriz A y sea K2 un vector propio generalizado de A. Sabemos que la solución general del sistema (1) en el caso de valores propios repetidos es

(6)Y(t)=c1eλtK1+c2eλt[K2+t(AλI)K2]

Sin embargo λ=0, entonces la solución anterior se reduce a

(7)Y(t)=c1K1+c2[K2+tAK2]

El hecho de que los valores propios sean nulos un vector propio podrá ser algún vector canónico

K=(10)oK=(01)

Las consecuencias de esto es que terminaremos con una solución en la que sólo una función x(t) o y(t) dependerá de t, mientras que la otra será una constante.

Supongamos que sólo x depende de t, es decir, x=x(t) y y(t)=c, con c una constante, entonces para todo t la función y(t) tendrá el mismo valor, mientras que x(t) dependerá de t linealmente, esto en el plano fase se traduce en rectas paralelas al eje X (ya que y no cambia). La dirección de las trayectorias dependerá del signo de la constante que acompaña a la función y(x).

El plano fase para el caso en el x depende de t es

Plano fase para ambos valores propios nulos.

Si se presenta el caso en el que x(t) es una constante y y(t) depende de t, entonces las trayectorias serán rectas verticales paralelas al eje Y.

En este caso los puntos de equilibrio del sistema serán el eje X o el eje Y dependiendo de que función sea la que dependa de t.

Concluyamos esta entrada con un ejemplo por cada caso visto.

Caso 1: λ1=0 y λ2<0.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

Y=(3131)Y

Solución: Determinemos los valores propios.

|3λ131λ|=λ(λ4)=0

Las raíces son λ1=0 y λ2=4. El vector propio asociado a λ1=0 lo obtenemos del siguiente sistema.

(A0I)K=AK=(3131)(k1k2)=(00)

Vemos que 3k1=k2. Elegimos k1=1, tal que k2=3. El primer vector propio es

K1=(13)

Determinemos el segundo vector propio asociado a λ2=4.

(A+4I)K=(1133)(k1k2)=(00)

En este caso k1=k2. Sea k1=3, tal que k2=3. El segundo vector propio es

K2=(33)

Por lo tanto, la solución general del sistema es

Y(t)=c1(13)+c2e4t(33)

O bien,

x(t)=c13c2e4ty(t)=3c1+3c2e4t

De acuerdo a la teoría vista, los puntos de equilibrio corresponden a la recta situada a lo largo del vector propio K1. Para encontrar esta recta consideremos que c2=0, de manera que la solución es

x(t)=c1y(t)=3c1

De donde y(x)=3x, por lo tanto, toda la recta y=3x contiene puntos de equilibrio.

Otra forma de verlo es a través de la definición. La función vectorial F(x,y) en este caso es

F(x,y)=(3x+y,3xy)

Los puntos de equilibrio son aquellos en los que F(x,y)=(0,0), es decir,

3x+y=03xy=0

De este sistema obtenemos que los puntos de equilibrio son aquellos en los que 3x=y, es decir, la recta definida por la función y(x)=3x.

Por otro lado, considerando nuevamente la solución general, es claro que

limtx(t)=c1ylimty(t)=3c1

por lo que todas las trayectorias tienden a los puntos de equilibrio c1K1 por cada valor de c1 y lo hacen de forma paralela al vector propio K2.

El plano fase indicando las características anteriores es el siguiente.

Plano fase del sistema.

Ya vimos que la función vectorial es

F(x,y)=(3x+y,3xy)

El campo vectorial definido por esta función, y algunas trayectorias correspondientes a soluciones del sistema, se muestran en la siguiente figura.

Trayectorias y campo vectorial.

◻

Caso 2: λ1=0 y λ2>0.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

Y=(4221)Y

Solución: Comencemos por determinar los valores propios.

|4λ221λ|=λ(λ5)=0

Las raíces son λ1=0 y λ2=5. Determinemos primero el vector propio asociado al valor propio λ1=0.

(A0I)K=AK=(4221)(k1k2)=(00)

De este sistema obtenemos que 2k1=k2. Sea k1=1, entonces k2=2. Por lo tanto, el primer vector propio es

K1=(12)

Determinemos el segundo vector propio asociado a λ2=5.

(A5I)K=(1224)(k1k2)=(00)

Vemos que 2k2=k1. Sea k2=2, entonces k1=4. Por lo tanto, el segundo vector propio es

K2=(42)

Por lo tanto, la solución general del sistema es

Y(t)=c1(12)+c2e5t(42)

O bien,

x(t)=c1+4c2e5ty(t)=2c1+2c2e5t

La recta que contiene a los puntos de equilibrio es aquella línea definida por el vector propio K1, es decir, si en la solución general hacemos c2=0, entonces obtenemos la solución

x(t)=c1y(t)=2c1

De donde obtenemos la función y(x)=2x, todos los puntos de esta recta son puntos de equilibrio.

La función vectorial F(x,y) en este caso es

F(x,y)=(4x+2y,2x+y)

Prueba que efectivamente si y=2x, entonces F(x,y)=(0,0).

Por otro lado, de la solución general vemos que

limtx(t)=c1ylimty(t)=2c1

Y x(t) y y(t) divergen si t, esto nos indica que las trayectorias se alejan de los puntos de equilibrio c1K1 por cada valor de c1 y lo hacen de forma paralela al vector propio K2.

El plano fase del sistema es el siguiente.

Plano fase del sistema.

La función vectorial que define al campo vectorial asociado es

F(x,y)=(4x+2y,2x+y)

El campo vectorial y algunas trayectorias se muestran en la siguiente figura.

Trayectorias y campo vectorial.

◻

Concluyamos con el caso especial en el que ambos valores propios son cero.

Caso 3: λ1=λ2=0.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

Y=(0200)Y

Solución: Antes de comenzar a desarrollar el método notemos que se trata de un sistema muy sencillo, la ecuación de y es

dydt=0

Es claro que la solución es cualquier constante C1, es decir y(t)=C1, si sustituimos en la ecuación para x, tenemos

dxdt=2C1

Resolviendo esta ecuación obtenemos la función

x(t)=2C1t+C2

Por tanto, la solución general del sistema es

x(t)=2C1t+C2y(t)=C1

Vemos que sólo la función x(t) depende de t, mientras que y(t) es una constante.

Esto lo hacemos debido a que el sistema es bastante sencillo. Sin embargo, a continuación haremos el desarrollo hecho en la entrada anterior ya que, como veremos, los valores propios serán repetidos y nulos. Dichos valores propios los obtenemos de la siguiente ecuación característica.

|0λ200λ|=λ2=0

La única raíz es λ=0, es decir, cero es el único valor propio con multiplicidad 2.

Para determinar el vector propio resolvemos el siguiente sistema.

AK=(0200)(k1k2)

Este sistema nos indica que 2k2=0, es decir, k2=0 y que k1 puede tomar cualquier valor en R. Tomemos k1=1, tal que el primer vector propio sea

K1=(10)

Buscamos ahora un vector propio generalizado.

(AλI)2K=(0200)(0200)(k1k2)=(0000)(k1k2)=(00)

Debido a que cualquier vector K, tal que

AK0

es un vector propio generalizado, elegimos el vector ortogonal

K2=(01)

Por lo tanto, la solución general es

Y(t)=c1(10)+c2[(10)+t(0200)(01)]=c1(10)+c2[(01)+t(20)]=c1(10)+c2[(01)+2t(10)]

Solución que podemos escribir como

x(t)=c1+2c2ty(t)=c2

Esta solución es la misma que encontramos antes. Debido a que x(t) depende de t linealmente, entonces por cada valor de y(t), es decir de c2, x(t) tomará todos los valores en R. Esto significa que en el plano fase las trayectorias serán rectas paralelas al eje X.

Verifica que los puntos de equilibrio del sistema corresponden al eje X del plano fase.

Notemos que si y(x)>0, o bien, c2>0, entonces

limtx(t)=

y si y(x)<0, o bien, c2<0, entonces

limtx(t)=

De manera que para y>0 las trayectorias se moverán hacía la derecha y lo harán en sentido opuesto si y<0. El plano fase es el siguiente.

Plano fase del sistema.

La función que define al campo vectorial es

F(x,y)=(2y,0)

En la siguiente figura se muestra el campo vectorial asociado y algunas trayectorias.

Trayectorias y campo vectorial.

◻

Hemos concluido con el estudio de los sistemas lineales.

Más adelante comenzaremos a estudiar sistemas no lineales, al menos desde una perspectiva cualitativa, y veremos que mucho de los que vimos en los casos lineales nos será de ayuda ya que los planos fase de los sistemas no lineales en la vecindad de un punto de equilibrio son, con frecuencia, muy similares a los planos fase de sistemas lineales, así que veremos esta conexión entre ambos sistemas.

Pero antes de estudiar a los sistemas no lineales dedicaremos la siguiente entrada en hacer un repaso de lo visto en las últimas 4 entradas y resumirlo en lo que se conoce como el plano traza – determinante, ya que seguramente en este punto podría parecernos que hay muchas posibilidades diferentes para los sistemas lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales y hacer un análisis cualitativo de las soluciones.
  • Y=(2436)Y
  • Y=(3131)Y
  • Y=(0300)Y
  • Y=(3612)Y
  • Y=(141/22)Y
  • Y=(0050)Y

Más adelante…

Hemos concluido con el análisis analítico y cualitativo de los sistemas lineales homogéneos compuestos por dos ecuaciones diferenciales del primer orden. Para tener todo en perspectiva, en la siguiente entrada haremos un breve repaso de todo lo visto con respecto a estos sistemas y resumiremos todo en un plano especial conocido como el plano traza – determinante.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Teoría cualitativa de los sistemas lineales homogéneos – Valores propios reales y distintos

Por Omar González Franco

Las matemáticas son el juez supremo;
de sus decisiones no hay apelación.
– Tobias Dantzig

Introducción

Ahora que conocemos algunas de las propiedades cualitativas más importantes a analizar de los sistemas autónomos compuestos por dos ecuaciones diferenciales, dedicaremos las siguientes entradas a estudiar exclusivamente los sistemas lineales homogéneos, logrando hacer una conexión entre la unidad 3 y la unidad 4 del curso.

Esta y las siguientes entradas serán el complemento cualitativo del método de valores y vectores propios para resolver sistemas lineales homogéneos, con la restricción de que los sistemas que estudiaremos estarán compuestos por dos ecuaciones diferenciales ya que son el tipo de sistemas en los que conjuntamente podemos hacer una descripción geométrica en R2, concretamente en el plano fase o plano XY.

En la primera entrada de esta unidad mostramos los casos posibles de acuerdo al valor que pueden tomar los valores propios, dichos casos pueden ser

Valores propios reales y distintos:

  • λ1<λ2<0.
  • λ1>λ2>0.
  • λ1<0 y λ2>0.

Valores propios complejos:

  • λ1=α+iβ y λ2=αiβ con α<0.
  • λ1=α+iβ y λ2=αiβ con α=0.
  • λ1=α+iβ y λ2=αiβ con α>0.

Valores propios repetidos:

  • λ1=λ2<0.
  • λ1=λ2>0.

Valores propios nulos:

  • λ1=0 y λ2<0.
  • λ1=0 y λ2>0.
  • λ1=λ2=0.

Dedicaremos esta entrada al caso exclusivo en el que los valores propios son reales y distintos.

Sistemas lineales

El sistema lineal autónomo que estudiaremos es

Label '1' multiply defined

Si se definen las matrices

Y=(xy),Y=(xy)yA=(abcd)

entonces el sistema se puede escribir como

Label '2' multiply defined

Por otro lado, si consideramos la función vectorial

Label '3' multiply defined

en donde,

Label '4' multiply defined

entonces el sistema autónomo (1) se puede escribir, alternativamente, como

Label '5' multiply defined

Veremos que el plano fase del sistema depende casi por completo de los valores propios de la matriz A y habrá diferencias notables si los valores propios de A cambian de signo o se vuelven imaginarios.

Sean λ1 y λ2 los dos valores propios reales de A, tal que λ1λ2, recordemos que la solución general para este caso es de la forma

Label '6' multiply defined

En donde K1 y K2 son los vectores propios de A y c1 y c2 son constantes arbitrarias que se determinan a partir de las condiciones iniciales del problema.

Comencemos por estudiar el caso en el que los valores propios son negativos.

Valores propios negativos

Caso 1: λ1<λ2<0.

Sean K1 y K2 los vectores propios de A con valores propios λ1 y λ2, respectivamente. La solución general está dada por (6), sin embargo es conveniente hacer un análisis por separado de las soluciones linealmente independientes

Y1(t)=c1eλ1tK1yY2(t)=c2eλ2tK2

Comencemos por trazar en el plano XY, o plano fase, cuatro semirrectas, dos de ellas l1 y l2 siendo paralelas a K1 y K2, respectivamente, mientras que las semirrectas l1 y l2 paralelas a K1 y K2, respectivamente.

Consideremos primero la solución

Label '7' multiply defined

Esta solución es siempre proporcional a K1 y la constante de proporcionalidad c1eλ1t varía de ± a cero, dependiendo de si c1 es positiva o negativa. Por lo tanto, la trayectoria de esta solución es la semirrecta l1 para c1>0, y la semirrecta l1 para c1<0. Análogamente, la trayectoria de la solución

(8)Y2(t)=c2eλ2tK2

es la semirrecta l2 para c2>0 y la semirrecta l2 para c2<0.

Consideremos ahora la solución general (6).

Y(t)=c1eλ1tK1+c2eλ2tK2

Notemos que toda solución Y(t) tiende al punto (0,0) cuando t. Por lo tanto, toda trayectoria de (1) tiende al origen cuando t tiende a infinito.

Observemos que eλ2tK2 es muy pequeño comparado con eλ1tK1 cuando t es grande (recordemos que λ1<λ2<0). Por lo tanto, para c10, Y(t) se aproxima cada vez más a c1eλ1tK1 conforme t, esto implica que la tangente a la trayectoria de Y(t) tiende a l1 si c1 es positiva y a l1, si c1 es negativa.

Con todas estas características el plano fase de (1), para el caso en el que los valores propios son negativos, tiene la forma que se presenta en la siguiente figura.

Plano fase para valores propios negativos.

Observamos que todas las trayectorias, con excepción de una sola recta, tienden al origen. En este caso se dice que el punto de equilibrio Y0=(0,0) de (1) es un nodo atractor y su estabilidad es asintóticamente estable.

Una última observación es que la trayectoria de toda solución Y(t) de (1) tiende al origen cuando t tiende a infinito, sin embargo ese punto no pertenece a la trayectoria de ninguna solución no trivial Y(t).

Veamos ahora que ocurre cuando los valores propios son positivos.

Valores propios positivos

Caso 2: 0<λ1<λ2.

Para este caso se hace análogamente el mismo análisis que en el caso anterior, de modo que el plano fase es exactamente el mismo, excepto que el sentido de las trayectorias es el opuesto. El plano fase se muestra a continuación.

Plano fase para valores propios positivos.

Como las soluciones se alejan del punto de equilibrio Y0=(0,0) de (1), se dice que dicho punto es un nodo repulsor e inestable.

Antes de realizar algunos ejemplos concluyamos con el caso en el que un valor propio es negativo, mientras que el otro es positivo.

Valores propios con signos opuestos

Caso 3: λ1<0<λ2.

Sean nuevamente K1 y K2 los vectores propios de A con valores propios λ1 y λ2, respectivamente.

De forma similar que en los casos anteriores, comencemos por trazar en el plano XY cuatro semirrectas, dos de ellas l1 y l2 siendo paralelas a K1 y K2, respectivamente, mientras que las semirrectas l1 y l2 paralelas a K1 y K2, respectivamente.

Consideremos nuevamente las soluciones linealmente independientes por separado.

Y1(t)=c1eλ1tK1yY2(t)=c2eλ2tK2

En el caso de la solución

Y1(t)=c1eλ1tK1

la trayectoria es l1 para c1>0 y l1 para c1<0, mientras que la trayectoria de la solución

Y2(t)=c2eλ2tK2

es l2 para c2>0 y l2 para c2<0.

Notemos que la solución c1eλ1tK1 tiende al origen (0,0) cuando t, mientras que la solución c2eλ2tK2 con c20 es no acotada conforme t.

Por otro lado, observemos que eλ1tK1 es muy pequeño comparado con eλ2tK2 cuando t crece mucho. Por lo tanto, toda solución Y(t) de (1) con c20 es no acotada cuando t tiende a infinito y su trayectoria tiende a l2 o a l2. De forma similar notamos que eλ2tK2 es muy pequeño comparado con eλ1tK1 cuando t crece mucho con signo negativo. Por lo tanto, la trayectoria de cualquier solución Y(t) de (1) con c10 tiende a l1 o a l1 cuando t tiende a menos infinito.

Por lo tanto, en el caso en el que los valores propios tienen signos opuestos, el plano fase, con las características mencionadas, tiene la siguiente forma.

Plano fase para valores propios con signos opuestos.

Es posible observar que el plano fase se asemeja a una silla de montar cerca del origen, por esta razón se dice que el punto de equilibrio Y0=(0,0) de (1) es un punto silla y es inestable.

Para concluir con la entrada realicemos un ejemplo por cada caso analizado. En los ejemplos de esta y las próximas entradas estaremos usando las herramientas antes proporcionadas para visualizar el plano fase y el campo vectorial asociado. Puedes usarlas tu mismo para comprobar los resultados o visualizar otros sistemas.

Caso 1: λ1<λ2<0.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

Y=(5115)Y

Solución: Primero resolvamos el sistema analíticamente. Determinemos los valores propios.

|5λ115λ|=(5λ)21=λ2+10λ+24=(λ+6)(λ+4)=0

Las raíces son λ1=6 y λ2=4. Determinemos los vectores propios. La primer ecuación a resolver es

(A+6I)K=0

o bien,

(1111)(k1k2)=(00)

Inmediatamente vemos que k1=k2. Sea k2=1, entonces k1=1, así el primer vector propio es

K1=(11)

Para el segundo vector propio resolvemos la ecuación

(A+4I)K=0

o bien,

(1111)(k1k2)=(00)

En este caso k1=k2. Sea k1=1=k2, entonces el segundo vector propio es

K2=(11)

Por lo tanto, la solución general del sistema es

Y(t)=c1e6t(11)+c2e4t(11)

Separemos la soluciones en las funciones x(t) y y(t).

x(t)=c1e6t+c2e4ty(t)=c1e6t+c2e4t

Analicemos las soluciones cualitativamente.

Lo primero que sabemos es que el punto de equilibrio Y0=(0,0) es un nodo atractor estable lo que implica que todas las soluciones tienden al origen, pero nunca llegan a él ya que dicho punto no pertenece a ninguna solución.

Las rectas paralelas a los vectores propios K1 y K2 están definidas por las funciones y(x)=x y y(x)=x, respectivamente. La forma de comprobarlo es considerando las soluciones linealmente independientes por separado.

Y1(t)=c1e6t(11)

y

Y2(t)=c2e4t(11)

En el caso de la solución Y1(t) las soluciones son

x(t)=c1e6ty(t)=c1e6t

De donde es claro que y=x=c1e6t. De forma similar, de la segunda solución Y2(t) se obtienen las soluciones

x(t)=c2e4ty(t)=c2e4t

De donde y=x=c2e4t.

Todas las trayectorias se trazarán de acuerdo a la función paramétrica

f(t)=(c1e6t+c2e4t,c1e6t+c2e4t)

Tracemos como ejemplo 4 trayectorias correspondientes a los siguientes casos:

  • c1=1, c2=1f(t)=(e6t+e4t,e6t+e4t)
  • c1=1, c2=1f(t)=(e6te4t,e6te4t)
  • c1=1, c2=1f(t)=(e6t+e4t,e6t+e4t)
  • c1=1, c2=1f(t)=(e6te4t,e6te4t)

La gráfica en el plano XY de las cuatro trayectorias anteriores, cerca del origen, se muestra a continuación.

4 trayectorias particulares del sistema.

Por supuesto hay infinitas trayectorias, una para cada posible par de valores c1 y c2.

En la parte izquierda de la siguiente figura se encuentra el plano fase del sistema con algunas trayectorias, los vectores propios de A y las rectas paralelas a dichos vectores. En el lado derecho se encuentra el sistema que estamos analizando y el valor de los eigenvalores y eigenvectores.

Plano fase del sistema.

En la figura anterior también se encuentran los datos Δ=24 y τ=10, estos valores corresponden al valor del determinante y la traza de A, respectivamente. Por el momento no tenemos que preocuparnos por estos valores, sin embargo más adelante veremos que nos serán de mucha utilidad cuando estudiemos el llamado plano traza – determinante.

Para concluir con el ejemplo determinemos el campo vectorial asociado. La función F(x,y) en este caso es

F(x,y)=(5x+y,x5y)

El campo vectorial asociado junto con algunas trayectorias se muestra a continuación.

Trayectorias y campo vectorial.

◻

Caso 2: 0<λ1<λ2.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

Y=(4125)Y

Solución: Determinemos los valores propios.

|4λ125λ|=(4λ)(5λ)2=λ29λ+18=(λ3)(λ6)=0

Las raíces son λ1=3 y λ2=6. Determinemos los vectores propios. La primer ecuación a resolver es

(A3I)K=0

o bien,

(1122)(k1k2)=(00)

Resolviendo el sistema se obtiene que k1=k2, elegimos convenientemente k1=2=k2, tal que el primer vector propio es

K1=(22)

Para obtener el segundo vector propio resolvemos la ecuación

(A6I)K=0

o bien,

(2121)(k1k2)=(00)

En este caso se obtiene que 2k1=k2. Elegimos k1=1, entonces k2=2 y así el segundo vector propio es

K2=(12)

Por lo tanto, la solución general es

Y(t)=c1e3t(22)+c2e6t(12)

Escribamos la solución en términos de las funciones x(t) y y(t).

x(t)=2c1e3t+c2e6ty(t)=2c1e3t2c2e6t

Comencemos por determinar las funciones que definen las rectas paralelas a los vectores propios, para ello consideremos por separado las soluciones linealmente independientes

Y1(t)=c1e3t(22)

y

Y2(t)=c2e6t(12)

De la solución Y1(t) tenemos las soluciones

x(t)=2c1e3ty(t)=2c1e3t

De donde vemos que y=x=2c1e3t, por tanto la recta paralela a K1 se define por la función y(x)=x. Por otro lado, de la solución Y2(t) se tiene las soluciones

x(t)=c2e6ty(t)=2c2e6t

En este caso vemos que y=2x=2c2e6t, por tanto la recta paralela al vector propio K2 esta definida por la función y(x)=2x.

La función paramétrica que nos permite trazar las trayectorias es

f(t)=(2c1e3t+c2e6t,2c1e3t2c2e6t)

Si lo deseas intenta graficar algunas trayectorias para algunos valores de c1 y c2 como lo hicimos en el ejemplo anterior.

El plano fase del sistema indicando algunas trayectorias, los vectores propios y las rectas paralelas a estos vectores, se muestra a continuación.

Plano fase del sistema.

Se puede observar que las trayectorias son un poco similares a las del ejemplo anterior con la diferencia de que el sentido es el opuesto, de forma que el punto de equilibrio Y0=(0,0) es nodo repulsor inestable.

El campo vectorial asociado está dado por la función vectorial

F(x,y)=(4xy,2x+5y)

El campo vectorial con algunas trayectorias se muestra a continuación.

Trayectorias y campo vectorial.

◻

Concluyamos con un ejemplo del tercer caso.

Caso 3: λ1<0<λ2.

Ejemplo: Resolver el siguiente sistema lineal y hacer un análisis cualitativo de las soluciones.

Y=(3153)Y

Solución: Determinemos los valores propios.

|3λ153λ|=(3λ)(3λ)+5=λ24=(λ2)(λ+2)=0

Las raíces sonλ1=2 y λ2=2. Determinemos los vectores propios. Para el primer vector resolvamos la ecuación

(A+2I)K=0

o bien,

(5151)(k1k2)=(00)

Vemos que 5k1=k2. Sea k1=1, tal que k2=5, así el primer vector propio es

K1=(15)

Para obtener el segundo vector propio resolvemos

(A2I)K=0

o bien,

(1155)(k1k2)=(00)

Tenemos que k1=k2. Sea k1=5=k2, entonces el segundo vector propio es

K2=(55)

Por lo tanto, la solución general es

Y(t)=c1e2t(15)+c2e2t(55)

o bien,

x(t)=c1e2t+5c2e2ty(t)=5c1e2t+5c2e2t

Las soluciones linealmente independientes son

Y1(t)=c1e2t(15)

y

Y2(t)=c2e2t(55)

cuyas soluciones en términos de las funciones x(t) y y(t) son, respectivamente

x(t)=c1e2ty(t)=5c1e2t

y

x(t)=5c2e2ty(t)=5c2e2t

La recta paralela al vector propio K1 está definida por la función y(x)=5x, mientras que la recta paralela al vector propio K2 está definida por la función y(x)=x.

Las trayectorias son trazadas de acuerdo a la función paramétrica

f(t)=(c1e2t+5c2e2t,5c1e2t+5c2e2t)

Consideremos nuevamente los siguientes casos:

  • c1=1, c2=1f(t)=(e2t+5e2t,5e2t+5e2t)
  • c1=1, c2=1f(t)=(e2t5e2t,5e2t5e2t)
  • c1=1, c2=1f(t)=(e2t+5e2t,5e2t+5e2t)
  • c1=1, c2=1f(t)=(e2t5e2t,5e2t5e2t)

La gráfica en el plano XY de las cuatro trayectorias anteriores, cerca del origen, se muestra a continuación.

4 trayectorias particulares del sistema.

Observemos cuidadosamente que ocurre en los casos límite.

Consideremos la función

f(t)=(x(t),y(t))=(e2t+5e2t,5e2t+5e2t)

Conforme t crece el término e2t se hace muy pequeño comparado con el término 5e2t, de manera que si t, entonces x(t)5e2t, de forma similar el término 5e2t se hace muy pequeño en comparación con el término 5e2t, es decir, si t, entonces y(t)5e2t. Esto nos permite notar que si t, entonces yx. Por el contrario, si t, entonces y5x. En la gráfica anterior vemos este comportamiento para la trayectoria verde.

Intenta hacer este mismo análisis para las tres trayectorias restantes de la gráfica anterior y logra notar que en los casos límites las trayectorias tienden a las rectas paralelas a los vectores propios.

En la siguiente figura se muestra el plano fase indicando algunas trayectorias, los vectores propios y las rectas paralelas a estos vectores.

Plano fase del sistema.

Efectivamente, el punto de equilibrio Y0=(0,0) es un punto silla y es inestable.

Finalmente apreciemos el campo vectorial asociado, definido por la función vectorial

F(x,y)=(3xy,5x3y)

Trayectorias y campo vectorial.

◻

Con esto concluimos esta entrada. En la siguiente entrada veremos que ocurre si los valores y vectores propios son complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales y hacer un análisis cualitativo de las soluciones.
  • Y=(1234)Y
  • Y=(2213)Y
  • Y=(3222)Y
  • Y=(0186)Y
  • Y=(2112)Y
  • Y=(1243)Y

Más adelante…

Concluimos con el caso en el que los valores propios de la matriz A son reales y distintos.

En la siguiente entrada haremos un análisis muy similar a como lo hicimos en esta entrada, pero en el caso en el que los valores propios de la matriz A son complejos. Veremos que en este caso existen soluciones que son periódicas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Introducción a la teoría cualitativa de las ecuaciones diferenciales

Por Omar González Franco

No hay rama de la matemática, por lo abstracta que sea, que no
pueda aplicarse algún día a los fenómenos del mundo real.
– Lobachevski

Introducción

¡Bienvenidos a la cuarta y última unidad del curso de Ecuaciones Diferenciales I!.

En esta unidad estudiaremos a las ecuaciones diferenciales ordinarias desde una perspectiva cualitativa y geométrica. En particular, estudiaremos las propiedades cualitativas de los sistemas de ecuaciones diferenciales de primer orden que vimos en la unidad anterior y, como sabemos, las ecuaciones de orden superior se pueden reducir a sistemas de ecuaciones de primer orden, lo que significa que en nuestro estudio también estaremos revisando las propiedades cualitativas de algunas de las ecuaciones vistas en la unidad 2.

La teoría cualitativa ya no es nueva para nosotros, pues en la primera unidad estudiamos desde esta perspectiva a las ecuaciones de primer orden. Recordemos que una ecuación diferencial de primer orden se puede ver, en su forma normal, como

Label '1' multiply defined

Y una ecuación diferencial autónoma como

Label '2' multiply defined

En esta última ecuación la variable independiente no aparece explícitamente.

Sobre la ecuación (1) definimos los conceptos de elementos lineales, campo de pendientes, curvas integrales e isóclinas y sobre la ecuación (2) definimos conceptos como puntos de equilibrio o puntos críticos, esquema de fases, líneas de fase, así como atractores, repulsores y nodos. Muchos de estos conceptos los generalizaremos a los sistemas lineales, además de algunos otros conceptos nuevos que definiremos.

En esta entrada daremos una introducción intuitiva al análisis cualitativo y geométrico de los sistemas lineales y a partir de la siguiente entrada comenzaremos a formalizar la teoría.

Sistemas lineales

Recordemos que un sistema de ecuaciones diferenciales de primer orden es de la forma

Label '3' multiply defined

En forma vectorial se puede escribir como

Label '4' multiply defined

Si el sistema es lineal, entonces se puede escribir, en su forma normal, como

Label '5' multiply defined

En esta unidad estudiaremos a detalle la propiedades cualitativas de los sistemas lineales compuestos por dos ecuaciones diferenciales de primer orden homogéneas con coeficientes constantes por muchas razones, las cuales comentaremos al final de la entrada. Dicho sistema lo podemos escribir de la siguiente forma.

Label '6' multiply defined

En donde a,b,c y d son constantes. Si definimos

Y(t)=(x(t)y(t)),Y(t)=(x(t)y(t))yA=(abcd)

entonces el sistema (6) se puede escribir como

Label '7' multiply defined

Esta es la forma común con la que estuvimos trabajando en la unidad anterior. Si ahora definimos las funciones

Label '8' multiply defined

y definimos el vector compuesto por estas funciones

(9)F(t,x,y)=(F1(t,x,y)F2(t,x,y))

entonces podemos escribir al sistema (6) como

(10)Y(t)=F(t,x,y)

De (7) y (10), se obtiene que

(11)F(t,x,y)=AY(t)

Esta es una nueva forma de ver un sistema lineal, sin embargo nuestro interés está en hacer un análisis cualitativo y geométrico, así que es conveniente ver a la ecuación (11) como una función de varias variables definida en un dominio U.

Observemos que el sistema lineal (6) no depende explícitamente de la variable t, por lo que podemos escribir

x=ax+by(12)y=cx+dy

Y ahora podemos escribir

(13)F1(x,y)=ax+byyF2(x,y)=cx+dy

Es claro que F1:R2R y F2:R2R, es decir las funciones F1 y F2 son funciones de dos variables cuyo dominio está formado por puntos con 2 coordenadas y la función asocia a cada punto un número real determinado. La gráfica de estas funciones está en R3. Ahora bien, se puede definir la función

(14)F(x,y)=(F1(x,y),F2(x,y))=(ax+by,cx+dy)

En este caso F:R2R2, así que ya no podemos visualizar su gráfica, sin embargo existe una técnica en la que en un mismo plano a cada elemento (x,y)R2 lo dibujamos como un punto y a F(x,y) como un vector colocado sobre ese punto (x,y). Por ejemplo, la función

F(x,y)=(x,y)

se puede visualizar como

Bosquejo de la función F(x,y)=(x,y).

Este tipo de bosquejos es lo que conocemos como campos vectoriales.

Finalmente consideremos las soluciones del sistema lineal (12). En este caso lo que obtendremos al resolver el sistema serán dos funciones x(t) y y(t) definidas como x:RR y y:RR. Lo que deseamos es graficar de alguna manera estas dos funciones en el mismo plano en el que se bosqueja el campo vectorial F(x,y), para hacerlo definimos la función

(15)f(t)=(x(t),y(t))

Vemos que f:R2R, es decir, dado un valor para t las soluciones x(t) y y(t) toman un valor particular que sirven como entrada de la función f y ésta devuelve un sólo valor.

Para tener una visualización de f consideremos como ejemplo la función

f(t)=(t,t2)

con t[2,2], es decir,

x(t)=tyy(t)=t2

Consideremos algunos valores particulares

  • t=2f(2)=(2,4).
  • t=2f(2)=(2,4).
  • t=1f(1)=(1,1).
  • t=1f(1)=(1,1).

Para visualizar estos datos lo que vamos a hacer es dibujar vectores que parten del origen hacía las coordenadas (x(t),y(t)) obtenidas, tal como se muestra en la siguiente figura.

Vectores correspondientes a f(t) para t=2,1,1,2.

f(t) será la curva que trazará la punta del vector a medida que t tiene distintos valores. Siguiendo con el mismo ejemplo f(t)=(t,t2) para t[2,2], la curva que traza f se ve de la siguiente forma.

Curva de la función f(t)=(t,t2) para t[2,2].

Observemos que f(t)=(t,t2) no es más que la parametrización de la parábola y(x)=x2 en el intervalo [2,2]. Es por ello que diremos que f(t) es una función paramétrica.

Recordemos que un sistema de ecuaciones paramétricas permite representar una curva o superficie en el plano o en el espacio mediante una variable t llamada parámetro que recorre un intervalo de números reales, considerando cada coordenada de un punto como una función dependiente del parámetro.

Concluiremos esta entrada con un ejemplo para visualizar cómo es que esta nueva forma de ver el problema de resolver un sistema lineal nos ayudará a obtener información cualitativa del mismo.

Análisis cualitativo y geométrico

Ejemplo: Hacer un análisis cualitativo y geométrico del siguiente sistema lineal homogéneo.

x=2x+3y(16)y=2x+y

Solución: Primero resolvamos el sistema de forma tradicional, es decir, analíticamente.

La matriz de coeficientes es

(17)A=(2321)

Los valores propios se obtienen de resolver la siguiente ecuación característica.

|AλI)|=|2λ321λ|=λ23λ4=(λ+1)(λ4)=0

Resolviendo se obtiene que los valores propios son

λ1=1yλ2=4

Determinemos los vectores propios.

Para λ1=1, debemos resolver

(A+I)K=0

El sistema de ecuaciones que se obtiene es

3k1+3k2=02k1+2k2=0

De donde k1=k2. Si elegimos k2=1, se obtiene k1=1 y entonces el primer vector propio es

K1=(11)

Para λ2=4, debemos resolver

(A4I)K=0

El sistema de ecuaciones que se obtiene es

2k1+3k2=02k13k2=0

Se ve que k1=32k2, así si k2=2, entonces k1=3 y por tanto el segundo vector propio es

K2=(32)

Las soluciones linealmente independientes son

(18)Y1(t)=(11)etyY2(t)=(32)e4t

Y por lo tanto, la solución general del sistema lineal es

(19)Y(t)=c1(11)et+c2(32)e4t

Si dejamos de usar la notación matricial podemos escribir a las soluciones como

(20)x(t)=c1et+3c2e4tyy(t)=c1et+2c2e4t

Hasta aquí es hasta donde hemos llegado con lo visto en la unidad anterior, ahora veamos el comportamiento de estas soluciones geométricamente.

Obtuvimos dos funciones, cada una de ellas depende de la variable t de forma que la primer función la podemos graficar en el plano XT, mientras que la segunda en el plano YT.

La gráfica de x(t) para c1=c2=1 se ve de la siguiente forma.

Función x(t)=et+3e4t en el plano XT.

Por otro lado, la gráfica de y(t) para c1=c2=1 se ve de la siguiente forma.

Función y(t)=et+2e4t en el plano YT.

De acuerdo a (15), la función paramétrica es

(21)f(t)=(c1et+3c2e4t,c1et+2c2e4t)

Para el caso particular en el que c1=c2=1 la función paramétrica es

(22)f(t)=(et+3e4t,et+2e4t)

Grafiquemos en el plano XY la trayectoria de esta función.

Trayectoria en el plano XY o plano fase.

Como ejemplo, si t=0, entonces x(0)=4 y y(0)=1, tal coordenada (4,1) corresponde al punto mostrado en el plano XY, así la trayectoria se forma por el conjunto de puntos (x(t),y(t)) correspondientes a cada valor tR.

Las tres gráficas anteriores corresponden a la solución particular en la que c1=c2=1, así cada solución particular producirá tres curvas distintas en tres planos distintos.

Nos centraremos especialmente en el plano XY o también llamado plano fase. Cada una de las curvas que se pueden formar en el plano fase correspondientes a valores específicos de c1 y c2 se llama trayectoria.

En el siguiente plano fase se muestra un conjunto de trayectorias definidas por (21) para distintos valores de c1 y c2.

Distintas trayectorias en el plano fase.

Al conjunto de trayectorias representativas en el plano fase se llama diagrama fase.

Consideremos las soluciones independientes (18).

Y1=(11)etyY2=(32)e4t

Y notemos lo siguiente.

De Y2 se obtienen las funciones

(23)x(t)=3e4tyy(t)=2e4t

De manera que la función y(t) se puede escribir en términos de x como

y(x)=23x

con x>0 y cuya gráfica en el plano XY corresponde a una recta en el primer cuadrante con pendiente 23.

Gráfica de y(x)=23x para x>0.

De forma similar, si consideramos la solución Y1 se obtienen las funciones

(24)x(t)=etyy(t)=et

De forma que y en términos de x se ve como

y(x)=x

Para x<0 en el plano XY tendremos una recta en el segundo cuadrante con pendiente 1.

Gráfica de y(x)=x para x<0.

Consideremos ahora la solución Y2 cuyas funciones son

(25)x(t)=3e4tyy(t)=2e4t

En este caso,

y(x)=23x

con x<0, la gráfica corresponde a una recta de pendiente 23 en el tercer cuadrante.

Gráfica de y(x)=23x para x<0.

Y finalmente de Y1 se obtienen las funciones

(26)x(t)=etyy(t)=et

tal que,

y(x)=x

con x>0 y cuya gráfica es una recta de pendiente 1 en el cuarto cuadrante.

Gráfica de y(x)=x para x>0.

Lo interesante es que cada vector propio se puede visualizar como un vector bidimensional que se encuentra a lo largo de una de estas semirrectas.

Por ejemplo el vector propio

K1=(11)

corresponde al siguiente vector en el plano XY.

Vector propio K1 en el plano XY.

Mientras que el vector propio

K2=(32)

corresponde al vector

Vector propio K2 en el plano XY.

A continuación se muestran las cuatro semirrectas anteriores y los vectores propios unitarios

K^1=K1K1yK^2=K2K2

sobre el mismo plano fase de antes.

Plano fase ilustrando los vectores propios.

El vector propio K^2 se encuentra junto con y=23x en el primer cuadrante y K^1 se encuentra junto con y=x en el segundo cuadrante.

Notamos que en el plano fase las trayectorias tienen flechas que indican dirección. Para saber la dirección de las trayectorias nos apoyaremos en el campo vectorial asociado.

Definamos las funciones F1 y F2 de acuerdo a (13).

(27)F1(x,y)=2x+3y,yF2(x,y)=2x+y

Entonces la función F(x,y) correspondiente es

(28)F(x,y)=(2x+3y,2x+y)

El campo vectorial será descrito por esta función. Como vimos al inicio de la entrada, para cada punto (x,y) del plano fase anclaremos un vector cuya punta termina en la coordenada dada por la suma vectorial (x,y)+F(x,y). Por ejemplo si x=0 y y=1, entonces nos situaremos en la coordenada (0,1) del plano fase, evaluando en la función F(x,y) se obtiene el punto F(0,1)=(3,1), entonces la punta del vector que parte de (0,1) terminará en la coordenada (0,1)+(3,1)=(3,2).

Como ejemplo dibujemos los vectores correspondientes a las siguientes evaluaciones.

F(0,1)=(3,1),F(0,2)=(6,2),F(3,0)=(6,6)

F(0,3)=(9,3),F(2,2)=(2,2),F(3,1)=(3,5)

Bosquejo de vectores dados por F(x,y).

Como se puede notar, si dibujáramos todos los vectores para cada punto (x,y) tendríamos un desastre de vectores, todos de distintos tamaños atravesándose entre sí y no habría forma de observar el patrón que esconde el campo vectorial. Para solucionar este problema existe la convención de escalar todos los vectores a un mismo tamaño, por su puesto esto ya no representa correctamente al campo vectorial, pero sí que es de mucha ayuda visualmente y se convierte en sólo una representación del campo vectorial.

En nuestro ejemplo la función

F(x,y)=(2x+3y,2x+y)

se representa por el siguiente campo vectorial.

Representación del campo vectorial generado por F(x,y)=(2x+3y,2x+y).

Cómo F(x,y)=(x,y), entonces los vectores del campo vectorial deben ser tangentes a las trayectorias formadas por la función paramétrica f(t)=(x(t),y(t)). Concluimos entonces que las soluciones del sistema lineal serán trayectorias cuyos vectores del campo vectorial son tangentes a dichas trayectorias.

Campo vectorial y algunas trayectorias del sistema lineal.

Una característica observable del campo vectorial es que los vectores tienden a alejarse del origen, veremos más adelante que el origen no sólo es una solución constante x=0, y=0 (solución trivial) de todo sistema lineal homogéneo de 2 ecuaciones lineales, sino que también es un punto importante en el estudio cualitativo de dichos sistemas.

Si pensamos en términos físicos, las puntas de flecha de cada trayectoria en el tiempo t se mueven conforme aumenta el tiempo. Si imaginamos que el tiempo va de a , entonces examinando la solución

x(t)=c1et+3c2e4t,y(t)=c1et+2c2e4t,c10,c20

muestra que una trayectoria o partícula en movimiento comienza asintótica a una de las semirrectas definidas por Y1 o Y1 (ya que e4t es despreciable para t) y termina asintótica a una de las semirrectas definidas por Y2 o Y2 (ya que et es despreciable para t).

El plano fase obtenido representa un diagrama de fase que es característico de todos los sistemas lineales homogéneos de 2×2 con valores propios reales de signos opuestos.

◻

Hemos concluido con el ejemplo. Lo que nos muestra este ejemplo es que es posible hacer un desarrollo geométrico sobre un sistema lineal, sin embargo esto sólo es posible si es un sistema con dos ecuaciones, ya que si aumenta el número de ecuaciones también aumentará el número de dimensiones y ya no seremos capaz de obtener gráficas. Es posible extender el plano fase a tres dimensiones (espacio fase para un sistema lineal con 3 ecuaciones), pero nos limitaremos sólo a los sistemas de 2 ecuaciones para hacer más sencilla la tarea. También es importante mencionar que podremos hacer este análisis siempre y cuando los coeficientes sean constantes y las ecuaciones no dependan explícitamente de la variable independiente t.

Con este método geométrico será posible estudiar el comportamiento de las soluciones sin la necesidad de resolver el sistema, incluso con este método podremos estudiar sistemas no lineales para los cuales aún no conocemos algún método para resolverlos.

Finalmente veremos que las propiedades del plano fase quedarán determinadas por los valores propios del sistema, de manera que en las siguientes entradas haremos un análisis para cada una de las posibilidades que existen, tales posibilidades son:

Valores propios reales y distintos:

  • λ1<λ2<0.
  • λ1>λ2>0.
  • λ1<0 y λ2>0 (como en nuestro ejemplo).

Valores propios complejos:

  • λ1=α+iβ y λ2=αiβ con α<0.
  • λ1=α+iβ y λ2=αiβ con α=0.
  • λ1=α+iβ y λ2=αiβ con α>0.

Valores propios repetidos:

  • λ1=λ2<0.
  • λ1=λ2>0.

Valores propios nulos:

  • λ1=0 y λ2<0.
  • λ1=0 y λ2>0.
  • λ1=λ2=0.

En las próximas entradas estudiaremos a detalle cada uno de estos casos.

En este enlace se tiene acceso a una excelente herramienta para visualizar el plano fase de sistemas lineales de dos ecuaciones homogéneas con coeficientes constantes y en este enlace se puede visualizar el campo vectorial asociado, además de algunas trayectorias del sistema dando clic sobre el campo vectorial.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. En la unidad anterior resolviste de tarea moral los siguientes sistemas lineales. En este caso realiza un desarrollo geométrico como lo hicimos en esta entrada e intenta describir el comportamiento de las soluciones en el plano fase. Dibuja a mano algunos vectores del campo vectorial y algunas trayectorias sobre el mismo plano fase, posteriormente verifica tu resultado visualizando el espacio fase y el campo vectorial usando los enlaces proporcionados anteriormente.
  • Y=(6321)Y
  • Y=(1322)Y
  • Y=(3211)Y
  • Y=(1335)Y

    ¿Qué características distintas identificas entre los planos fase de cada uno de los sistemas anteriores?.

Más adelante…

Esta entrada nos ha servido de introducción al estudio geométrico y cualitativo de los sistemas lineales. En la siguiente entrada formalizaremos lo que vimos en esta entrada para posteriormente hacer un análisis más detallado sobre los distintos tipos de sistemas tanto lineales como no lineales que se puedan presentar.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Sistemas lineales no homogéneos – Método de variación de parámetros

Por Omar González Franco

Las ciencias matemáticas exhiben particularmente orden, simetría
y límites; y esas son las más grandes formas de belleza.
– Aristóteles

Introducción

Ya sabemos resolver sistemas lineales homogéneos con coeficientes constantes, en esta entrada estudiaremos el caso no homogéneo.

Como hemos visto en las dos unidades anteriores, el método de variación de parámetros ha sido fundamental para resolver ecuaciones diferenciales en el caso no homogéneo. Éste mismo método es el que desarrollaremos en esta entrada para resolver sistemas lineales no homogéneos con coeficientes constantes.

Cabe mencionar que en esta entrada utilizaremos bastante el concepto de exponencial de una matriz y el de matriz fundamental de soluciones.

Sistemas lineales homogéneos

El sistema lineal que hemos estudiado es

Label '1' multiply defined

Donde A es una matriz con componentes constantes

Label '2' multiply defined

Ahora sabemos que la solución general del sistema lineal homogéneo (1) es de la forma

Label '3' multiply defined

En donde las funciones Y1(t),Y2(t),,Yn(t) son soluciones linealmente independientes del mismo sistema. Usamos el subíndice c debido a que, como antes, al resolver el caso no homogéneo será necesario resolver primero el sistema homogéneo asociado y la solución general de dicho sistema será la solución complementaria del sistema no homogéneo.

Recordemos que la matriz que tiene por columnas a las funciones Yi(t), i=1,2,,n de (3) corresponde a la matriz fundamental de soluciones.

Label '4' multiply defined

Si definimos el vector de constantes

Label '5' multiply defined

podemos escribir la solución (3) como

Label '6' multiply defined

Recordemos este resultado para más adelante.

Sistemas lineales no homogéneos

El sistema lineal no homogéneo que intentaremos resolver es de la forma

Label '7' multiply defined

Donde G=G(t) es una matriz de n×1 con componentes dependientes de t.

Label '8' multiply defined

Dada la forma de la solución general de un sistema lineal homogéneo (3), parecería natural pensar que el sistema lineal no homogéneo tiene por solución una función de la forma

Label '9' multiply defined

En donde ui(t), i=1,2,,n son funciones escalares de t derivables y las funciones Yi(t), i=1,2,,n forman una matriz fundamental de soluciones Y^(t). Si definimos el vector

Label '10' multiply defined

Entonces la solución propuesta (9) adquiere la forma

Label '11' multiply defined

El método de variación de parámetros nos permitirá obtener la forma del vector U(t), una vez obtenida podremos formar la solución general del sistema lineal no homogéneo (7) que, como siempre, será la superposición de la solución complementaria del sistema lineal homogéneo asociado Yc(t) más la solución particular del sistema lineal no homogéneo Yp(t), esto es

Label '12' multiply defined

Variación de parámetros

Comencemos a desarrollar el método de variación de parámetros, como mencionamos antes, el objetivo es encontrar la forma explícita del vector (10) para formar la solución particular del sistema lineal no homogéneo.

Consideremos la función propuesta (11) y derivémosla.

Label '13' multiply defined

Si sustituimos (11) y (13) en el sistema lineal no homogéneo (7), se tiene

Label '14' multiply defined

Como Y^(t) es una matriz fundamental de soluciones sabemos que satisface el sistema homogéneo, es decir,

Label '15' multiply defined

Si sustituimos en (14) la ecuación queda como

AY^(t)U(t)+Y^(t)U(t)=AY^(t)U(t)+G(t)

O bien,

Label '16' multiply defined

La matriz fundamental es no singular, de manera que siempre existe su inversa, esto nos permite establecer que

Label '17' multiply defined

Esta ecuación es matricial y sabemos que es posible integrar sobre matrices, así que integremos la ecuación anterior con el objetivo de hallar la forma de U.

Label '18' multiply defined

Ahora que conocemos la forma de U(t), sustituimos en la solución propuesta (11), de forma que una solución particular del sistema lineal no homogéneo es

Label '19' multiply defined

Por lo tanto, de (6) y el resultado (19) concluimos que la solución general del sistema lineal no homogéneo es

Label '20' multiply defined

Si Y^(t) es la matriz fundamental de soluciones eAt y considerando que Y^1(t)=eAt, el resultado anterior queda como

Label '21' multiply defined

Problema con valores iniciales

Consideremos el problema con valores iniciales

Label '22' multiply defined

De nuestro desarrollo anterior consideremos la relación (17).

U(t)=Y^1(t)G(t)

En esta ocasión integremos de t0 a t y usemos el teorema fundamental del cálculo.

Label '23' multiply defined

Notemos que si aplicamos la condición inicial Y(t0)=Y0 sobre la función (11), se obtiene

Label '24' multiply defined

De donde,

Label '25' multiply defined

Sustituimos este resultado en la ecuación (23).

Label '26' multiply defined

Aquí debemos tener cuidado, si sustituimos la función (26) en (11), se obtiene

Label '27' multiply defined

Pero Y^1(t0)Y0 es una matriz de constantes, digamos

Y^1(t0)Y0=C

Entonces el resultado (27) queda como

Label '28' multiply defined

Este resultado se parece a la ecuación (20), es decir, a pesar de que sustituimos (26) en (11) esperando obtener la solución particular Yp(t), en realidad estamos obteniendo la solución general, la solución general del problema de valores iniciales.

Si consideramos nuevamente que Y^(t)=eAt, el resultado (27) se reduce significativamente.

(29)Y(t)=eAteAt0Y0+eAtt0teAsG(s)ds

O bien,

(30)Y(t)=eA(tt0)Y0+t0teA(ts)G(s)ds

Por otro lado, si t0=0, de (27) se obtiene que

Y(t)=Y^(t)Y^1(0)Y0+Y^(t)0tY^1(s)G(s)ds

Pero recordemos que

(31)eAt=Y^(t)Y^1(0)

Entonces la solución anterior queda como

(32)Y(t)=eAtY0+Y^(t)0tY^1(s)G(s)ds

Si nuestro propósito es determinar la solución general de un sistema lineal no homogéneo (7), primero resolvemos el sistema lineal homogéneo asociado para obtener la solución complementaria en la forma (3). Con las funciones Yi(t), i=1,2,,n obtenidas formamos una matriz fundamental Y^(t), se calcula su inversa y se sustituyen las matrices correspondientes en la solución particular (19). Una vez obtenidas ambas soluciones, la solución general del sistema lineal no homogéneo será

Y(t)=c1Y1(t)+c2Y2(t)++cnYn(t)+Yp(t)=Yc(t)+Yp(t)

Sin embargo, si lo que tenemos es un problema de valores iniciales, debemos nuevamente obtener la solución del sistema lineal homogéneo asociado ya que eso es lo que nos permite formar la matriz fundamental de soluciones Y^(t), una vez obtenida esta función calculamos su inversa y se sustituyen las matrices correspondientes en la ecuación (27), esto nos dará la solución completa del problema de valores iniciales, es decir, no es necesario aplicar las condiciones iniciales en la solución complementaria para obtener los valores de las constantes c1,c2,,cn.

Para concluir con esta entrada realicemos dos ejemplos, en el primero de ellos obtendremos la solución general de un sistema lineal no homogéneo y en el segundo ejemplo resolveremos un problema con valores iniciales. Con estos ejemplos se espera que el método quede claro.

Ejemplo: Obtener la solución general del siguiente sistema lineal no homogéneo.

Y=(0213)Y+(11)et

Solución: Resolvamos primero el sistema homogéneo asociado.

Y=(0213)Y

En este caso la matriz A es

A=(0213)

Determinemos los valores y vectores propios de esta matriz.

|AλI|=|λ213λ|=0

La ecuación característica es

λ23λ+2=0

Resolviendo para λ se obtiene que los valores propios son

λ1=1yλ2=2

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: λ1=1.

Buscamos un vector K0, tal que

(AI)K=(1212)(k1k2)=(00)

La ecuación que se obtiene es

k1+2k2=0

Es decir, 2k2=k1. Elegimos k2=1, entonces k1=2. Por lo tanto el primer vector propio es

K1=(21)

Caso 2: λ2=2.

Buscamos un vector K0, tal que

(A2I)K=(2211)(k1k2)=(00)

La ecuación que se obtiene es

k1+k2=0

Es decir, k1=k2. Elegimos k1=k2=1. Por lo tanto, el segundo vector propio es

K2=(11)

Con estos resultados concluimos que la solución general del sistema lineal homogéneo asociado es

Yc(t)=c1et(21)+c2e2t(11)

Para determinar la solución particular Yp(t), formemos, con el resultado anterior, la matriz fundamental de soluciones (4).

Y^(t)=(2ete2tete2t)

Como también requerimos de la matriz inversa, verifica que

Y^1(t)=(etete2t2e2t)

La matriz G en este caso es

G(t)=(etet)

Sustituyamos estas matrices en la solución particular (19).

Yp(t)=(2ete2tete2t)(etete2t2e2t)(etet)dt=(2ete2tete2t)(23et)dt

Resolviendo la integral (sin considerar constantes de integración), se obtiene

(23et)dt=(2t3et)

Entonces,

Yp(t)=(2ete2tete2t)(2t3et)=(4tet+3et2tet+3et)

Esto es,

Yp(t)=(42)tet+(33)et

Por lo tanto, la solución general del sistema lineal no homogéneo es

Y(t)=c1et(21)+c2e2t(11)+(33)et+(42)tet

◻

Realicemos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

Y=(100212321)Y+(00etcos(2t)),Y(0)=(011)

Solución: Primero debemos obtener la solución del sistema lineal homogéneo asociado

Y=(100212321)Y

Ello nos permitirá obtener la matriz fundamental de soluciones. En este caso la matriz A es

A=(100212321)

Determinemos los valores y vectores propios de esta matriz. La ecuación característica se obtendrá de calcular el determinante

|AλI|=|1λ0021λ2321λ|=0

Desarrollando el determinante obtendremos que

(1λ)(λ22λ+5)=0

Resolviendo para λ se obtiene que los valores propios de A son

λ1=1yλ2=1+2i,λ3=12i

De acuerdo a los valores propios obtenidos, la manera de resolver el sistema homogéneo será aplicando la teoría vista en la entrada sobre valores propios complejos.

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: λ1=1.

Buscamos un vector K0, tal que

(AI)K=[(100212321)(100010001)](k1k2k3)=(000202320)(k1k2k3)=(000)

El sistema que se obtiene es

2k12k3=03k1+2k2=0

De este sistema se observa que

k1=k3k2=3k12

Elegimos k1=2=k3, de tal manera que k2=3, así el primer vector propio es

K1=(232)

Caso 2: λ2=1+2i.

Buscamos un vector K, diferente de cero, tal que

[A(1+2i)I]K=(2i0022i2322i)(k1k2k3)=(000)

El sistema de ecuaciones que se obtiene es

2ik1=02k12ik22k3=03k1+2k22ik3=0

De este sistema se observa que k1=0 y k3=ik2. Elegimos k2=1, de manera que el segundo vector propio sea

K2=(01i)

Caso 3: λ2=12i.

Sabemos que este caso es el conjugado del caso anterior, por lo que directamente establecemos que el tercer vector propio es

K3=(01i)

La solución general del sistema lineal homogéneo asociado, en su forma compleja, es

Yc(t)=c1et(232)+c2e(1+2i)t(01i)+c3e(12i)t(01i)

Sin embargo esta solución no nos sirve de mucho, pues desearíamos construir la matriz fundamental de soluciones con valores reales. Recordando lo visto en la entrada sobre valores propios complejos, podemos encontrar dos funciones W1(t) y W2(t), tal que la solución general sea de la forma

(33)Yc(t)=c1eλ1t+c2W1(t)+c3W2(t)

Recordemos que las funciones W1(t) y W2(t) están dadas por

(34)W1(t)=eαt[Ucos(βt)Vsin(βt)]

y

(35)W2(t)=eαt[Usin(βt)+Vcos(βt)]

Consideremos el caso 2 en el que λ2=1+2i y

K2=(01i)=(010)+i(001)

De estos resultados obtenemos que α=1, β=2 y

U=(010)yV=(001)

Sustituyamos en la funciones (34) y (35). Por un lado,

W1(t)=et[(010)cos(2t)(001)sin(2t)]=et[(0cos(2t)0)(00sin(2t))]

Esto es,

W1(t)=et(0cos(2t)sin(2t))

Por otro lado,

W2(t)=et[(010)sin(2t)+(001)cos(2t)]=et[(0sin(2t)0)+(00cos(2t))]

Esto es,

W2(t)=et(0sin(2t)cos(2t))

Recordemos que estas funciones también se pueden obtener considerando la identidad de Euler. Del caso 2 la solución que se obtiene es

Y2c(t)=e(1+2i)t(01i)

Así,

W1(t)=Re{Y2c(t)}yW2(t)=Im{Y2c(t)}

Usando la identidad de Euler sobre esta solución obtenemos lo siguiente.

e(1+2i)t(01i)=et[cos(2t)+isin(2t)][(010)i(001)]=et[cos(2t)(010)+sin(2t)(001)]+iet[sin(2t)(010)cos(2t)(001)]=et[(0cos(2t)0)+(00sin(2t))]+iet[(0sin(2t)0)+(00cos(2t))]

De donde,

W1(t)=et(0cos(2t)sin(2t))yW2(t)=et(0sin(2t)cos(2t))

De esta forma, la solución general del sistema lineal homogéneo asociado es

(36)Yc(t)=c1et(232)+c2et(0cos(2t)sin(2t))+c3et(0sin(2t)cos(2t))

Esta solución es de la forma (3) por lo que la matriz fundamental de soluciones, formada por estos vectores linealmente independientes, es

Y^(t)=(2et003etetcos(2t)etsin(2t)2etetsin(2t)etcos(2t))

Para obtener la solución del problema con valores iniciales usaremos el resultado (29) para t0=0.

(37)Y(t)=eAtY0+eAt0teAsG(s)ds

Es decir, consideraremos a la matriz eAt como la matriz fundamental de soluciones. También es posible usar la relación (32) usando la matriz Y^(t) antes establecida. ¿Por qué son equivalentes ambas formas?.

Determinemos la matriz eAt usando la relación (31). Si evaluamos t=0 en la matriz Y^(t) se obtiene la matriz

Y^(0)=(200310201)

Comprueba que la matriz inversa es

Y^1(0)=(200310201)1=(12003210101)

Sustituyamos en (31).

eAt=(2et003etetcos(2t)etsin(2t)2etetsin(2t)etcos(2t))(12003210101)=et(10032+32cos(2t)+sin(2t)cos(2t)sin(2t)1+32sin(2t)cos(2t)sin(2t)cos(2t))

Por lo tanto, la matriz que consideraremos como matriz fundamental de soluciones es

eAt=et(10032+32cos(2t)+sin(2t)cos(2t)sin(2t)1+32sin(2t)cos(2t)sin(2t)cos(2t))

Como también requerimos de la inversa de esta matriz, verifica que

eAt=et(10032+32cos(2t)sin(2t)cos(2t)sin(2t)132sin(2t)cos(2t)sin(2t)cos(2t))

En este caso la matriz G(t) es

G(t)=(00etcos(2t))

Sustituyamos todos estos resultados en la solución (37).

Y(t)=eAt(011)+eAt0tes(10032+32cos(2s)sin(2s)cos(2s)sin(2s)132sin(2s)cos(2s)sin(2s)cos(2s))(00escos(2s))ds

Por un lado,

eAt(011)=et(10032+32cos(2t)+sin(2t)cos(2t)sin(2t)1+32sin(2t)cos(2t)sin(2t)cos(2t))(011)=et(0cos(2t)sin(2t)cos(2t)+sin(2t))

De tarea moral, determina las constantes c1, c2 y c3 aplicando los valores iniciales sobre la solución complementaria (36). ¿Qué relación tiene tu resultado con la operación anterior?.

Por otro lado,

es(10032+32cos(2s)sin(2s)cos(2s)sin(2s)132sin(2s)cos(2s)sin(2s)cos(2s))es(00cos(2s))=(0sin(2s)cos(2s)cos2(2s))

Sustituimos estas matrices en Y(t).

Y(t)=et(0cos(2t)sin(2t)cos(2t)+sin(2t))+eAt0t(0sin(2s)cos(2s)cos2(2s))ds

Resolvamos la integral.

0t(0sin(2s)cos(2s)cos2(2s))ds=(018cos(4s)s2+sin(4s)8)|t(018cos(4s)s2+sin(4s)8)|0=(018cos(4t)t2+sin(4t)8)(0180)=(01cos(4t)84t+sin(4t)8)

Entonces,

Y(t)=et(0cos(2t)sin(2t)cos(2t)+sin(2t))+eAt(01cos(4t)84t+sin(4t)8)

Ahora realicemos el producto del segundo sumando.

eAt(01cos(4t)84t+sin(4t)8)=et(10032+32cos(2t)+sin(2t)cos(2t)sin(2t)1+32sin(2t)cos(2t)sin(2t)cos(2t))(01cos(4t)84t+sin(4t)8)=et(0cos(2t)(1cos(4t)8)sin(2t)(4t+sin(4t)8)sin(2t)(1cos(4t)8)+cos(2t)(4t+sin(4t)8))=et(0tsin(2t)2+cos(2t)cos(4t)cos(2t)sin(4t)sin(2t)8tcos(2t)2+sin(2t)+sin(4t)cos(2t)cos(4t)sin(2t)8)

Así,

Y(t)=et(0cos(2t)sin(2t)cos(2t)+sin(2t))+et(0tsin(2t)2+cos(2t)cos(4t)cos(2t)sin(4t)sin(2t)8tcos(2t)2+sin(2t)+sin(4t)cos(2t)cos(4t)sin(2t)8)

Haciendo las operaciones correspondientes se obtiene finalmente que la solución al problema con valores iniciales es

Y(t)=et(0cos(2t)(1+12t)sin(2t)(1+12t)cos(2t)+54sin(2t))

◻

Vemos que este método puede ser bastante largo y complicado, de hecho se puede volver una tarea imposible de hacer a mano si se tienen sistemas con matriz A de 3×3 o más. Se recomienda, en la medida de lo posible, usar algún programa computacional para llevar a cabo algunas de las operaciones, lo importante es entender como llevar a cabo el método.

Con esto concluimos lo que corresponde al estudio de los distintos métodos para resolver sistemas lineales. Prácticamente hemos concluido con la unidad 3 del curso.

En las siguientes dos entradas de esta unidad trataremos de justificar los teoremas de existencia y unicidad en el caso de los sistemas lineales, esto con el propósito de justificar toda la teoría desarrollada a lo largo de la unidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de los siguientes sistemas lineales no homogéneos.
  • Y=(1111)Y+(cos(t)sin(t))et
  • Y=(12121)Y+(csc(t)sec(t))et
  • Y=(110110003)Y+(ete2tte3t)
  1. Resolver los siguientes problemas con valores iniciales.
  • Y=(201020013)Y+(101)e2t,Y(0)=(111)
  • Y=(112111213)Y+(100)et,Y(0)=(000)

Más adelante…

En la siguiente entrada demostraremos los teoremas de existencia y unicidad para el caso de los sistemas lineales de primer orden con coeficientes constantes homogéneos y no homogéneos y posteriormente, en la última entrada de esta unidad, justificaremos el teorema de existencia y unicidad en el caso general, es decir, para sistemas lineales y no lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»