Archivo de la etiqueta: independencia lineal

Cálculo Diferencial e Integral III: Representaciones matriciales, eigenvalores y eigenvectores

Por Alejandro Antonio Estrada Franco

Introducción

Como se ha mencionado anteriormente el objetivo de introducir ideas de álgebra lineal en cálculo diferencial es poder establecer una transformación lineal que sea la mejor aproximación lineal en un punto a una función dada. Esto nos ayudará a entender a la función dada en el punto en términos de otra función «más simple». Pero así mismo, las transformaciones lineales pueden ellas mismas pensarse en términos de transformaciones más sencillas. En esta entrada revisaremos esta idea y la conectaremos con la noción de eigenvectores.

Por un lado, recordaremos cómo es que una transformación lineal puede ser representada mediante una matriz una vez que se ha elegido una base del espacio vectorial. Luego, hablaremos de cómo elegir, de entre todas las bases, aquella que nos de una representación matricial lo más sencilla posible.

Representación matricial de las transformaciones lineales

Comencemos esta entrada repasando la importante relación entre transformaciones lineales y matrices. Denotaremos como L(Rn,Rm) al espacio vectorial de transformaciones lineales de Rn a Rm.

Si tomamos cualquier transformación lineal TL(Rn,Rm), entonces los valores de T en cualquier vector de Rn quedan totalmente determinados por los valores de T en los elementos de alguna base β para Rn. Tomemos γ={w¯1,,w¯m} una base ordenada para Rm, y β={e¯1,,e¯n} una base ordenada para Rn. Para cada e¯k tenemos:

(1)T(e¯k)=i=1mtikw¯i,

para algunos escalares t1k,,tmk que justo son las componentes de T(e¯k) en la base γ. Con estos escalares, podemos considerar la matriz: Matγ,β(T)=(t11t1ntm1tmn)

Esta es llamada la representación matricial de la transformación T con respecto a las bases β y γ. Esta matriz ayuda a calcular T en cualquier vector de Rn como explicamos a continuación.

Para cada v¯Rn, podemos expresarlo como combinación lineal de elementos de la base β digamos que v¯=i=1nvie¯i. Mediante estos coeficientes, podemos entonces asociar a v¯ al siguiente vector columna de Rn [v¯]β=(v1vn),

al que llamamos el vector de coordenadas de v¯ con respecto a la base β.

Realicemos por un lado el siguiente cálculo:

Matγ,β(T)[v¯]β=(t11t1ntm1tmn)(v1vn)=(k=1nt1kvkk=1ntmkvk.)

Por otro lado tenemos lo siguiente:

T(v¯)=T(k=1nvke¯k)=k=1nvkT(e¯k)=k=1nvkT(i=1mtikw¯i)=i=1m(k=1nvktik)w¯i.

Juntando ambos cálculos: [T(v¯)]γ=(k=1nvkt1kk=1nvktmk)=Matγ,β(T)[v¯]β.

En otras palabras, aplicar T a un vector v¯ equivale a multiplicar Matγ,β por el vector columna asociado a v¯ en la base β, en el sentido de que tras hacer este producto recuperamos el vector de coordenadas para T(v¯) en la base γ.

Isomorfismo entre transformaciones lineales y matrices

Con las operaciones de suma y multiplicación por escalar que vimos en la entrada de Matrices, se tiene que Mm,n(R) es un espacio vectorial sobre R. De igual manera L(Rn,Rm) es un espacio vectorial sobre R con las siguientes operaciones:

  • Si T y U son dos transformaciones, la transformación T+U es aquella que envía a todo vector v¯Rn al vector T(v¯)+U(v¯).
  • Si rR la transformación rT es la que a todo v¯Rn lo envía al vector rT(v¯).

Queda como ejercicio que verifiques que esto dota efectivamente a L(Rn,Rm) de la estructura de espacio vectorial.

A continuación veremos que estos dos espacios vectoriales son, prácticamente, el mismo. Lo que haremos es construir una función Φ:Mm,n(R)L(Rn,Rm) que sea biyectiva y que preserve las operaciones de suma y de producto escalar.

Para ello, tomemos una base β={e¯1,,e¯n} de Rn y una base γ={u¯1,,u¯m} de Rm. Tomemos una matriz AMm,n(R). Explicaremos a continuación cómo construir la transformación Φ(A), para lo cual diremos qué hace con cada elemento de la base β. Tomaremos aquella transformación lineal TAL(Rn,Rm) tal que

TA(e¯j)=i=1naiju¯i.

Tomamos entonces Φ(A)=TA. Veamos que Φ tiene todas las propiedades que queremos.

  • Φ es suprayectiva. Si tenemos una transformación T:RnRm, entonces por la construcción anterior se tiene que su forma matricial A:=Matγ,β(T) justo cumple TA=T, de modo que Φ(A)=T.
  • Φ es inyectiva. Si A y B son matrices distintas, entonces difieren en alguna entrada, digamos (i,j). Pero entonces TA y TB difieren ya que TA(e¯j)TB(e¯j) ya que en las combinaciones lineales creadas hay un coeficiente distinto. Así, Φ(A)Φ(B).
  • Φ es lineal. Para rR, A y B matrices con entradas aij y bij, respectivamente, se cumple que Φ(rA+B)=T(rA+B) y entonces se satisface para cada j=1,,n lo siguiente:
    (rA+B)[e¯j]β=rA[e¯j]β+B[e¯j]β=r[TA(e¯i)]γ+[TB(e¯i)]γ.
    Por tanto para cada e¯i tenemos que T(rA+B)(e¯i)=rTA(e¯i)+TB(e¯i) y en consecuencia T(rA+B)=rTA+TB. Así Φ(rA+B)=rΦ(A)+Φ(B).

Todo lo anterior implica que Mm,n(R)L(Rn,Rm), es decir, que ambos espacios vectoriales son isomorfos.

En búsqueda de una matriz sencilla

Por lo que hemos platicado hasta ahora, a cada transformación lineal le corresponde una matriz, y viceversa. De hecho, esta asociación respeta operaciones como la suma y el producto por escalar. Esta equivalencia está dada a partir de la función Φ encontrada en la sección anterior.

Si Φ es biyectiva, ¿por qué hablamos entonces de encontrar una representación matricial simple para una transformación lineal T? Esto parecería no tener sentido, pues a cada transformación le corresponde una y sólo una matriz. Sin embargo, esto es cierto únicamente tras haber fijado las bases β y γ para Rn y Rm, respectivamente. Así, dependiendo de la elección de las bases las representaciones matriciales cambian y si tenemos una transformación lineal T, es posible que querramos encontrar bases β y γ en donde la representación matricial sea sencilla.

Nos enfocaremos únicamente en transformaciones lineales que van de un espacio vectorial a sí mismo. Tomemos entonces T:RnRn y una base β de Rn. Por simplicidad, escribiremos Matβ,β(T) simplemente como Matβ(T). Hay propiedades de T que podemos leer en su matriz Matβ(T) y que no dependen de la base β que hayamos elegido. Si con una base β especial resulta que Matβ(T) es muy sencilla, entonces podremos leer estas propiedades de T muy fácilmente. Un ejemplo es la siguiente proposición, la cual queda como tarea moral.

Proposición. La transformación lineal T:RnRn es invertible si y sólo si Matβ(T) es invertible.

Si A=Matβ(T) fuera muy muy sencilla, por ejemplo, si fuera una matriz diagonal, entonces podríamos saber la invertibilidad de T sabiendo la invertibilidad de A, y la de A sería muy fácil de ver pues por ser matriz diagonal bastaría hacer el producto de las entradas de su diagonal para obtener su determinante y estudiar si es distinto de cero.

Motivados por el ejemplo anterior, estudiemos la siguiente pregunta: ¿toda transformación lineal se puede representar con una matriz diagonal? Si una transformación lineal se puede representar de esta manera, diremos que es diagonalizable.

Eigenvalores, eigenvectores y eigenespacios

En lo que sigue repasaremos el aparato conceptual que nos permitirá dar una respuesta parcial de cuándo una matriz es diagonalizable. Un tratamiento mucho más detallado se puede encontrar aquí en el blog, en el curso de Álgebra Lineal II, comenzando con la entrada Eigenvectores y eigenvalores.

Para nuestro repaso, debemos introducir algunos conceptos y estudiarlos.

Definición. Sea T:RnRn una transformación lineal. Diremos que un escalar rR es un eigenvalor de T si existe v¯Rn{0¯} tal que T(v¯)=rv¯. A dicho vector v¯ le llamaremos un eigenvector de T con eigenvalor asociado r.

Dado un eigenvector v¯Rn, sólo hay un eigenvalor correspondiente a éste. Si T(v¯)=rv¯ y T(v¯)=tv¯, entonces rv¯=tv¯ de donde (rt)v¯=0¯. Como v¯0¯, se sigue que r=t.

Por otro lado, para un eigenvalor r puede haber más de un eigenvector con eigenvalor asociado r. Consideremos para un eigenvalor r el conjunto E(r)={v¯V|T(v¯)=rv¯}. Notemos que 0¯E(r) y también todos los eigenvectores de r están en E(r). Además, E(r) es un subespacio de Rn, pues si u¯,v¯E(r), y aR, tenemos

T(au¯+v¯)=aT(u¯)+T(v¯)=a(ru¯)+(rv¯)=r(au¯+v¯),

lo cual implica que au¯+v¯E(r).

Definición. Para una transformación lineal T:RnRn y un eigenvalor r de T llamaremos a

E(r)={v¯V|T(v¯)=rv¯}

el eigenespacio de T correspondiente a r.

Cuando tenemos eigenvectores correspondientes a eigenvalores distintos, cumplen algo especial.

Proposición. Si v¯1,,v¯l son eigenvectores de una transformación lineal T:RnRn con eigenvalores correspondientes r1,,rl distintos entonces v¯1,,v¯l son linealmente independientes.

Demostración. La ruta para establecer la demostración de este teorema será por inducción sobre l. Para un conjunto con sólo un eigenvector el resultado es evidente (¿por qué?). Supongamos cierto para cualquier subconjunto de l1 eigenvectores que pertenecen a eigenespacios distintos. Sean v¯1,,v¯l eigenvectores en distintos eigenespacios y consideremos α1,,αl escalares tales que:

(2)k=1lαkv¯k=0¯.

Aplicamos T a la igualdad anterior. Usando que cada v¯k es eigenvector correspondiente al eigenvalor rk obtenemos:

0¯=T(0¯)=T(k=1lαkv¯k)=k=1lαkT(v¯k)=k=1lαkrkv¯k.

Es decir,

(3)0=k=1lαkrkv¯k

Multipliquemos (2) por rl y restemos el resultado de (3) para obtener que

0¯=0¯0¯=k=1lαkrkv¯krlk=1lαkv¯k=k=1l1αk(rkrl)v¯k.

Tenemos entonces:

k=1l1αk(rkrl)v¯k=0¯.

Ya que por hipótesis de inducción v¯1,,v¯l1 son linealmente independientes entonces αk(rkrl)=0 para todo k, pero los eigenvalores son todos distintos entre sí por lo tanto para todo k de 1 a l1 se tiene rkrl0 y así αk=0. Finalmente, usando (2) obtenemos αl=0. Por lo tanto v¯1,,v¯l son linealmente independientes.

◻

Eigenvectores y transformaciones diagonalizables

Recuerda que dijimos que una transformación lineal T:RnRn es diagonalizable si existe una base β de Rn tal que Matβ(T) es una matriz diagonal. El siguiente resultado conecta las dos ideas que hemos estado explorando: los eigenvectores y la representabilidad sencilla de T.

Teorema. Sea T:RnRn transformación lineal. Una matriz T es diagonalizable si y sólo si existe una base de Rn conformada por eigenvectores de T.

En realidad la demostración consiste únicamente en entender correctamente cómo se construyen las matrices para una base dada.

Demostración. ) Supongamos que T tiene una representación matricial que es una matriz diagonal A:=Matβ(T)=diag(r1,,rn) con respecto a la base β={v¯1,,v¯n}. Afirmamos que para cada j=1,,n se tiene v¯j es eigevector de eigenvalor rj. En efecto, la forma en la que se construyó la matriz A nos dice que

T(e¯j)=i=1naije¯i=ajje¯j=rje¯j,

en donde estamos usando que las entradas aij de la matriz son cero si ij (por ser diagonal), y son rj si i=j. Por supuesto, como e¯j forma parte de una base, tampoco es el vector cero. Así, e¯j es eigenvector de eigenvalor e¯j.

) Supongamos ahora que v¯1,,v¯n son una base β de Rn conformada por eigenvectores de T con eigenvalores asociados, digamos, r1,,rn. Aquí se puede mostrar que Matβ(T) es diagonal. Queda como tarea moral hacer las cuentas.

◻

Hay una situación particular en la que podemos aprovechar el teorema anterior de manera inmediata: cuando la transformación tiene n eigenvalores distintos. Esta consecuencia queda establecida en el siguiente resultado.

Corolario. Toda transformación lineal T:RnRn tiene a lo más n eigenvalores distintos. Si T tiene exactamente n eigenvalores distintos, entonces los eigenvectores correspondientes forman una base para Rn y la matriz de T relativa a esa base es una matriz diagonal con los eigenvalores como elementos diagonales.

Demostración. Queda como tarea moral. Como sugerencia, recuerda que mostramos arriba que los eigenvectores de eigenvalores distintos son linealmente independientes.

◻

Al parecer los eigenvalores, eigenvectores y eigenespacios de una transformación lineal son cruciales para poder expresarla de manera sencilla. ¿Cómo los encontramos? Esto lo veremos en la siguiente entrada.

Antes de concluir, mencionamos que hay otro teorema crucial sobre diagonalización de matrices. Diremos que una matriz PMn(R) es ortogonal si PtP=I.

Teorema (el teorema espectral). Sea AMn(R) una matriz simétrica. Entonces, existe una matriz ortogonal P tal que PAPt es una matriz diagonal.

El teorema anterior nos dice no únicamente que la matriz A es diagonalizable, sino que además es diagonalizable mediante un tipo muy especial de matrices. Un estudio y demostración de este teorema queda fuera de los alcances de nuestro curso, pero puedes revisar, por ejemplo la entrada teorema espectral del curso de Álgebra Lineal I que tenemos en el blog.

Más adelante

Lo que haremos en la siguiente entrada es desarrollar un método para conocer los eigenvalores de una matriz. A partir de ellos podremos encontrar sus eigenvectores. Y en ciertos casos especiales, esto nos permitirá mostrar que la transformación es diagonalizable y, de hecho, nos dará la base para la cual la matriz asociada es diagonal.

Tarea moral

  1. Considera la transformación lineal de R3 en R2, dada como T(x,y,z)=(x+y,z+y). Encuentra su representación matricial con las bases canónicas de R3 y R2. Luego, encuentra su representación matricial con las bases {(1,2,3),(1,0,1),(0,1,0)} de R3 y {(1,1),(1,1)} de R2.
  2. Considera la siguiente matriz: (10230102) Da una transformación lineal T:R4R2 y ciertas bases β de R4 y γ de R2 para las cuales esta matriz sea la representación matricial de T en las bases β y γ.
  3. Fija bases β, γ y δ para Rn, Rm y Rl. Considera dos transformaciones lineales T:RnRm y S:RmRl. Demuestra que:
    Matδ,β(ST)=Matδ,γ(S)Matγ,β(T).
    En otras palabras que la «composición de transformaciones corresponde al producto de sus matrices».
  4. Sea T:RnRn una transformación lineal y β una base de Rn. Demuestra que T es biyectiva si y sólo si Matβ(T) es invertible.
  5. Verifica que los vectores v¯1,,v¯n dados en el último teorema en efecto ayudan a dar una representación matricial diagonal para T.
  6. La demostración del último corolario es un conjunto de sencillas consecuencias de las definiciones y teoremas desarrollados en esta entrada con respecto a los eigenvalores y eigenvectores. Realiza esta demostración.

Entradas relacionadas

Álgebra Lineal II: Problemas de formas bilineales, cuadráticas y teorema de Gauss

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores nos dedicamos a recordar las definiciones y algunas propiedades de formas bilineales y cuadráticas en Rn con el fin de enunciar y demostrar el teorema de Gauss. La prueba da un método para representar cualquier forma cuadrática de este modo, pero es mucho más claro cómo se hace este método mediante ejemplos. En esta entrada veremos un par de problemas para seguir repasando formas bilineales y cuadráticas y luego veremos al teorema de Gauss en acción.

Ver que una función es una forma bilineal

Problema. Tomemos V=Rn y vectores x,y en V de coordenadas x=(x1,...,xn) y y=(y1,...,yn). Tomemos reales a1,,an. Definamos a b:V×VR como sigue:
b(x,y)=a1x1y1+...+anxnyn.

Probemos que así definida, b es una forma bilineal.

Solución. Para probar que b es bilineal, probaremos que la función b(x,) es lineal para cada xRn fijo.

Sean p,qRn y λR. Tenemos que:
b(x,λp+q)=i=1naixi(λpi+qi).

Como todos los miembros de esta operación son números reales, utilicemos las propiedades distributiva y conmutativa. Obtenemos:

b(x,λp+q)=i=1naixiλpi+i=1naixiqi=λi=1naixipi+i=1naixiqi=λb(x,p)+b(x,q).

La demostración de que la función b(,y) también es lineal para cada yRn fijo es análoga.

◻

En particular, si tenemos que a1,,an=1, obtenemos que b es el producto interno canónico de Rn, es decir el producto punto.

Ver que una función no es una forma cuadrática

Problema. Sea q:R2R dada como sigue

q(x,y)=x2+y28x.

¿Es q una forma cuadrática?

Solución. La respuesta es que no. Con el fin de encontrar una contradicción, supongamos que q sí es una forma cuadrática. Entonces su forma polar b debe cumplir:

b((x,y),(x,y))=x2+y28x.

Aplicando lo anterior al par (x,y) obtendríamos:

b((x,y),(x,y))=x2+y2+8x.

Por otro lado, sacando escalares en ambas entradas:

b((x,y),(x,y))=(1)(1)b((x,y),(x,y))=b((x,y),(x,y)).

Juntando las igualdades, concluimos que

x2+y28x=x2+y2+8x

por lo que

16x=0.

Pero esto no es cierto en general pues falla, por ejemplo, para la pareja (1,0). Este error nació de suponer que q era una forma cuadrática. Por lo tanto q no es forma cuadrática.

El teorema de Gauss en acción

Para simplificar el lenguaje, si logramos escribir a una forma cuadrática q como nos dice el teorema de Gauss, es decir, de la forma q(x)=i=1rαi(li(x))2, entonces diremos que q es combinación cuadrática de las li con coeficientes αi.

Problema. Toma la forma cuadrática q de R3 definida como sigue:

q(x,y,z)=4xy+yz+xz

Escribe a q como combinación cuadrática de formas lineales linealmente independientes.

Solución. Revisando la demostración dada en la entrada anterior, tenemos tres casos:

  • Que la forma cuadrática sea la forma cuadrática cero.
  • Que tenga «términos puros».
  • Que no tenga «términos puros», es decir, que tenga sólo «términos cruzados».

Como en este caso la forma q no es la forma cero, ni aparecen términos x2, y2 o z2, estamos en el tercer caso. La estrategia era tomar dos de las variables y separar los términos que sí las tengan de los que no. Luego, hay que usar las identidades:

(4)AXY+BX+CY=A(X+CA)(Y+BA)BCA,

(5)DE=14(D+E)214(DE)2.

Tomemos por ejemplo x y y. En la forma cuadrática todos los términos tienen x ó y, así que podemos usar la identidad (1) para escribir (nota que reordenamos algunos términos para hacer más cómodas las cuentas con las identidades):

4xy+zx+zy=4(x+z4)(y+z4)z24

Luego, continuamos mediante la identidad (2):

=(x+y+z2)2(xy)214z2.

Esta expresión ya tiene la forma buscada. Tenemos que q es combinación cuadrática de las formas lineales x+y+z2, xy y z. Verifica que en efecto estas formas lineales son linealmente independientes.

Cambiando el orden de los pasos

Problema. ¿Qué pasaría si en el ejemplo anterior en vez de hacer el paso inductivo con x y y hacemos el paso inductivo con y y z?

Solución. Las cuentas cambian y obtenemos una nueva forma de escribir a q. En efecto, aplicando las identidades (1) y (2) pero ahora a y y z obtendríamos:

yz+4xy+xz=(y+x)(z+4x)4x2=14(y+z+5x)214(yz3x)24x2.

Esta es otra forma válida de expresar a q como combinación cuadrática de formas lineales linealmente independientes. Lo que nos dice es que la expresión para q no necesariamente es única.

Sin embargo, un poco más adelante veremos que aunque haya muchas formas de expresar a q, en todas ellas permanece constante cuántos sumandos positivos y cuántos negativos hay.

Cuidado con la independencia lineal

Problema. Toma la forma cuadrática q de R3 definida como sigue:

q(x,y,z)=(xy)2+(yz)2+(zx)2

Escribe a q como combinación cuadrática de formas lineales linealmente independientes.

Solución. Sería fácil asumir que q ya está de la forma deseada, sin embargo, una revisión rápida nos deja ver qué xy, yz y zx no son linealmente independientes en (R3).

Primero desarrollemos todo

q(x,y,z)=2x2+2y2+2z22xy2xz2yz

Ahora sí hay «términos puros» pues en particular el coeficiente de x2 no es cero.

En este caso hay que pensar a q como polinomio de segundo grado en x para completar un cuadrado:

2x2+2y2+2z22xy2xz2yz=2(xy+z2)2(y+z)22+2y2+2z22yz

La demostración asegura que inductivamente los términos sin x (en este caso (y+z)22+2y2+2z22yz)se pueden escribir como una combinación cuadrática de formas lineales linealmente independientes. Es decir, a ese término ahora podemos aplicar nuevamente el procedimiento hasta llegar a un caso pequeño.

Sin embargo, para nuestra suerte, una pequeña manipulación muestra que
(y+z)22+2y2+2z22yz=32(yz)2.

También, afortunadamente, yz es linealmente independiente con xy+z2. De este modo, una posible combinación cuadrática es la siguiente:

q(x,y,z)=2(xy+z2)2+32(yz)2

El algoritmo

Con esto visto, podemos describir un algoritmo para encontrar una combinación cuadrática en 4 pasos.

  1. Desarrollar todos los términos q si es necesario.
  2. Revisar qué forma tiene q con respecto a los 3 casos que se vieron en la demostración.
  3. Reproducir el caso elegido de la demostración, dependiendo de la forma de q.
  4. Dentro de este paso, puede ser necesario repetir desde el paso 1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Ecuaciones Diferenciales I: Valores y vectores propios para resolver sistemas lineales

Por Omar González Franco

En la vida real, te lo aseguro, no hay algo como el álgebra.
– Fran Lebowitz

Introducción

Ya hemos dado inicio con el desarrollo de métodos de resolución de sistemas lineales de primer orden. En la entrada anterior desarrollamos el método de eliminación de variables que, a pesar de ser muy limitado, es un método sencillo y práctico para resolver sistemas con dos ecuaciones diferenciales lineales de primer orden.

Debido a que un sistema lineal puede ser visto como una ecuación matricial los resultados de álgebra lineal sobre valores y vectores propios de matrices pueden ser aplicados aquí. En esta entrada daremos un breve repaso sobre estos conceptos y veremos cómo es que estos resultados nos pueden ayudar a determinar la solución general de algunos sistemas de ecuaciones diferenciales.

La teoría que desarrollaremos a continuación es aplicable a sistemas lineales homogéneos con coeficientes constantes.

Sistemas lineales homogéneos

Un sistema lineal homogéneo con coeficientes constantes es de la forma

y1(t)=a11y1+a12y2++a1nyny2(t)=a21y1+a22y2++a2nyn(1)yn(t)=an1y1+an2y2++annyn

Si A es la matriz de n×n con componentes constantes

(2)A=(a11a12a1na21a22a2nan1an2ann)

entonces el sistema lineal a resolver es

(3)Y=AY

En la segunda entrada de esta unidad vimos que la solución general del sistema lineal homogéneo

Y=(110110003)Y

es

Y(t)=c1(110)e0t+c2(110)e2t+c3(001)e3t

Y en la entrada anterior vimos que la solución del sistema lineal homogéneo

Y=(4121)Y

es

Y(t)=c1(12)e2t+c2(11)e3t

Aunque para el primer caso aún no sabemos cómo obtener esa solución lo que sabemos es que efectivamente corresponde a la solución general del sistema homogéneo. Notemos que cada vector solución es de la forma

Yi=(k1k2k3)eλit,i=1,2,3

donde ki y λi, i=1,2,3, son constantes. Lo mismo para el segundo caso, con ki, λi, i=1,2, constantes. Esta particularidad nos hace preguntarnos si siempre es posible hallar una solución de la forma

(4)Y(t)=(k1k2kn)eλt=Keλt

como solución general del sistema lineal (3).

La respuesta es que sí, pero antes de continuar con nuestro desarrollo nos parece pertinente repasar brevemente algunos conceptos de Álgebra Lineal, en particular el de valores y vectores propios.

Valores y vectores propios

Sea T:VW una transformación lineal, en álgebra lineal muchas veces resulta útil encontrar un vector v en el espacio vectorial V tal que Tv y v sean paralelos, es decir, se busca un vector v y un escalar λ, tal que

(5)Tv=λv

Recordemos que si v0 y λ satisfacen la ecuación (5), entonces λ se denomina un valor característico o valor propio de T y v un vector característico o vector propio de T correspondiente al valor propio λ.

También recordemos que si V tiene dimensión finita, entonces la transformación T se puede representar por una matriz AT, de manera que se pueden definir los valores y vectores propios de esta matriz.

Denotaremos con Mn×n al conjunto de todas las matrices cuadradas de n×n con componentes reales y constantes.

Como nota interesante, los valores y vectores propios también son conocidos como valores y vectores característicos o eigenvalores y eigenvectores, donde el término eigen es un término alemán que significa propio. En este curso los llamaremos valores y vectores propios.

Recordemos nuevamente el concepto de matriz inversa.

Para el caso especial A=I, con I la matriz identidad, se tiene que para cualquier vector vV

(8)Av=Iv=v

Así, el único valor propio de A es 1 y todo v0V es un vector propio de I.

Otra observación interesante es que cualquier múltiplo de un vector propio de A es también un vector propio de A, con el mismo valor propio.

(9)A(cv)=cAv=cλv=λ(cv)

Ecuación característica

Supongamos que λ es un valor propio de A, entonces existe un vector diferente de cero

v=(v1v2vn)0

tal que

(10)Av=λv=λIv

Reescribiendo esto, se tiene

(11)(AλI)v=0

Si A es una matriz de n×n, la ecuación anterior corresponde a un sistema homogéneo de n ecuaciones con las incógnitas v1,v2,,vn. Como se ha supuesto que v0, entonces el sistema no tiene solución trivial y por tanto el determinante de (11) debe ser cero.

(12)|AλI|=0

De manera equivalente, si ocurre que |AλI|0, entonces la única solución a (11) es la trivial v=0, lo que significa que λ no es un valor propio de A.

Estos resultados quedan establecidos en el siguiente teorema.

La relación (13) es muy importante, tanto que merece nombres particulares.

El polinomio P(λ) es del mismo grado que el número de filas y columnas de la matriz A. Si AMn×n, entonces P(λ) es un polinomio de grado n en λ. Por ejemplo, si

(14)A=(abcd)

entonces,

(15)AλI=(abcd)(λ00λ)=(aλbcdλ)

y

P(λ)=|AλI|=(aλ)(dλ)bc(16)=λ2(a+d)λ+(adbc)

La matriz es de 2×2 y el polinomio característico es un polinomio de grado 2.

El teorema fundamental del álgebra nos dice que cualquier polinomio de grado n con coeficientes reales o complejos tiene exactamente n raíces contando multiplicidades y dado que cualquier valor propio de A es una raíz de la ecuación característica de A, se concluye que, contando multiplicidades, toda matriz AMn×n tiene exactamente n valores propios.

Realicemos dos ejemplos sencillos en donde determinemos los valores y vectores propios de una matriz. Uno en donde los valores propios sean distintos (con multiplicidad 1) y uno en donde los valores propios sean números complejos.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

A=(811642083)

Solución: De acuerdo a (13), determinemos la ecuación característica.

|81λ1642083λ|=(81λ)(83λ)16(420)=0

Reordenando obtenemos que la ecuación característica es

λ22λ3=0

y el polinomio característico es

P(λ)=λ22λ3

Resolviendo para λ se obtienen las raíces λ1=1 y λ2=3. Para obtener los vectores propios buscamos un vector v0, tal que se cumpla (11) para cada valor propio λ. Comencemos con λ1.

Caso 1: λ1=1.

(81(1)1642083(1))(v1v2)=(801642084)(v1v2)=(00)

Este resultado lo podemos escribir como las siguientes dos ecuaciones.

80v1+16v2=0420v1+84v2=0

Que en realidad corresponden a una sola.

5v1+v2=0v2=5v1

Si elegimos v1=1, entonces v2=5, así el primer vector propio es

v1=(15)

Caso 2: λ2=3.

(81316420833)(v1v2)=(841642080)(v1v2)=(00)

La ecuación que se obtiene es

21v1+4v2=0v2=214v1

Por conveniencia elegimos v1=4, entonces v2=21, así

v2=(421)

En conclusión, los valores y vectores propios de la matriz A son λ1=1, λ2=3, v1=(15) y v2=(421), respectivamente.

◻

Realicemos el segundo ejemplo.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

A=(2152)

Solución: Determinemos la ecuación característica.

|2λ152λ|=(2λ)(2λ)+5=0

La ecuación característica es

λ2+1=0

De donde λ1=i y λ2=i. Determinemos los vectores propios.

Caso 1: λ1=i.

(2i152i)(v1v2)=(00)

Las ecuaciones que se obtienen son

(2i)v1v2=05v1(2+i)v2=0

Resolviendo el sistema se obtiene que v1=2+i y v2=5, así

v1=(2+i5)

Caso 2: λ2=i

(2+i152+i)(v1v2)=(00)

Las ecuaciones que se obtienen son

(2+i)v1v2=05v1+(2+i)v2=0

Resolviendo el sistema se obtiene que v1=2i y v2=5, así

v2=(2i5)

◻

En caso de requerir conocer más a fondo sobre el algoritmo que llevamos a cabo para obtener los valores y vectores propios de una matriz se recomienda revisar directamente en el curso de Álgebra Lineal I. Recordemos que aquí sólo estamos haciendo un breve repaso.

Para concluir con nuestro repaso, enunciemos un teorema de suma importancia que nos será de utilidad mas adelante. Haremos la demostración por inducción.

Demostración: Como el caso m=1 se trata de un solo vector es evidente que se satisface el teorema, hagamos el caso m=2, para ello consideremos la combinación lineal

(17)c1v1+c2v2=0

Multipliquemos ambos lados de la ecuación por la matriz A.

(18)c1Av1+c2Av2=0

Como Avi=λivi, para i=1,2, entonces

(19)c1λ1v1+c2λ2v2=0

A la ecuación (17) la multiplicamos por λ1 y la restamos de la ecuación (19).

(c1λ1v1+c2λ2v2)(c1λ1v1c2λ1v2)=0

que se reduce a

(20)c2(λ2λ1)v2=0

Como v20 por definición de vector característico y por hipótesis λ1λ2, entonces se concluye que c2=0, sustituyendo en (17) se ve que c1=0, por tanto se cumple el teorema para m=2, es decir, v1 y v2 son linealmente independientes.

Ahora supongamos que el teorema es cierto para m=n, es decir, cualquier conjunto de n vectores propios de A con valores propios diferentes es linealmente independiente. Hay que demostrar que cualquier conjunto de n+1 vectores propios de A con valores propios diferentes es también linealmente independiente. La demostración sigue el mismo procedimiento que como lo hicimos para m=2, consideremos la siguiente combinación lineal.

(21)c1v1+c2v2++cn+1vn+1=0

Multipliquemos por A en ambos lados.

(22)c1Av1+c2Av2++cn+1Avn+1=0

Aplicando Avi=λiv1 para i=1,2,3,,n+1, se tiene

(23)c1λ1v1+c2λ2v2++cn+1λn+1vn+1=0

Si se multiplica ambos lados de la ecuación (21) por λ1 y se resta de (23), se obtiene

(24)c2(λ2λ1)v2+c3(λ3λ1)v3++cn+1(λn+1λ1)vn+1=0

Pero v2,v3,,vn+1 son vectores propios de A con valores propios distintos λ2,λ3,,λn+1, respectivamente. Por hipótesis de inducción, los vectores son linealmente independientes, así que

c2(λ2λ1)=0,c3(λ3λ1)=0,,cn+1(λn+1λ1)=0

Como los valores propios son distintos entre sí, entonces necesariamente

c2=c3==cn+1=0

Con este resultado la ecuación (21) obliga a que c1 sea cero. Por lo tanto, v1,v2,v3,,vn+1 son linealmente independientes. De esta manera queda demostrado el teorema.

◻

En conclusión, vectores propios correspondientes a valores propios distintos son linealmente independientes.

Con este breve repaso en mente regresemos a los sistemas de ecuaciones diferenciales.

Valores y vectores propios en sistemas de ecuaciones diferenciales

Ahora que hemos recordado las definiciones de valores y vectores propios y algunas propiedades veamos cómo es que estos conceptos son útiles para resolver sistemas lineales de primer orden homogéneos.

Al inicio de la entrada decíamos que es posible encontrar soluciones de la forma (4).

Y(t)=(k1k2kn)eλt=Keλt

Si derivamos este vector, se obtiene

(25)Y=Kλeλt

Sustituyamos en el sistema homogéneo Y=AY.

(26)Kλeλt=AKeλt

Si dividimos entre eλt y reordenamos, se tiene

AK=λK

o bien,

AKλK=0

Debido a que K=IK, con I la matriz identidad, la última expresión se puede escribir como

(27)(AλI)K=0

Si A es la matriz dada en (2), entonces la ecuación matricial (27) es equivalente a las n ecuaciones algebraicas simultáneas

(a11λ)k1+a12k2++a1nkn=0a21k1+(a22λ)k2++a2nkn=0(28)an1k1+an2k2++(annλ)kn=0

Si queremos encontrar soluciones Y(t) como (4), necesitamos primero encontrar una solución no trivial del sistema (28), de lo visto en nuestro repaso de valores y vectores propios, si la solución debe ser la no trivial, entonces se requiere que el determinante sea igual a cero, esto es

(29)|AλI|=0

Esta ecuación polinomial corresponde a la ecuación característica de la matriz A. Sus soluciones son los valores propios de A. Una solución K0 de (27) correspondiente a un valor propio λ es el vector propio de A.

La ecuación (29) al tratarse de una ecuación polinomial existen tres casos posibles, cuando los valores propios son reales y distintos, cuando son repetidos y cuando son complejos. Para cada caso existe una forma particular de la solución de (3).

Para concluir con esta entrada demostremos un resultado que establece la forma de la solución general del sistema lineal (3).

Demostración: Definamos las funciones

Y1(t)=eλ1tK1,Y2(t)=eλ2tK2,,Yn(t)=eλntKn

Notemos que para la i-ésima función Yi(t)=eλitKi se cumple lo siguiente.

(32)Yi=eλit(λiKi)=eλit(AKi)=AYi

En donde se hecho uso de la relación (6). Esto nos muestra que Yi(t) es solución del sistema Y=AY para cada i=1,2,,n. Basta mostrar que el Wronskiano es distinto de cero para probar que las funciones definidas forman un conjunto fundamental de soluciones. El Wronskiano está dado por

W(Y1,Y2,,Yn)=|eλ1tK1eλ2tK2eλntKn|(33)=e(λ1+λ2++λn)t|K1K2Kn|

Como la exponencial nunca se hace cero y por hipótesis los vectores K1,K2,,Kn son linealmente independientes, es decir, el determinante nunca es cero

(34)|K1K2Kn|0

entonces el Wronskiano es distinto de cero. Por el teorema de solución general de un sistema homogéneo concluimos que el conjunto

S={eλ1tK1,eλ2tK2,,eλntKn}

es un conjunto fundamental de soluciones del sistema Y=AY y la solución general es

Y(t)=c1eλ1tK1+c2eλ2tK2++cneλntKn

con c1,c2,,cn constantes arbitrarias.

◻

En la siguiente entrada aplicaremos todo esto en el desarrollo de un nuevo método de resolución de sistemas lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener los valores y vectores propios de las siguientes matrices.
  • A=(622019262)
  • A=(250520001)
  1. Demostrar que para cualesquiera números reales α y β, la matriz A=(αββα) tiene valores propios α±iβ.
  1. Suponer que la matriz A tiene valores propios λ1,λ2,,λn. Demostrar lo siguiente:
  • Demostrar que A1 (la matriz inversa de A) existe si y sólo si λ1,λ2,,λn son todos distintos de cero.
  • Si A1 existe, demostrar que los valores propios de A1 son 1λ1,1λ2,,1λn.
  1. Suponer que la matriz A tiene valores propios λ1,λ2,,λn. Demostrar que la matriz AαI tiene valores propios λ1α,λ2α,,λnα.
  1. Suponer que la matriz A tiene valores propios λ1,λ2,,λn. Demostrar que los valores propios de Am son λ1m,λ2m,,λnm para m=1,2,3,.

    Recuerda que para calcular la potencia de una matriz, debemos multiplicar la matriz por ella misma tantas veces como indique el exponente, por ejemplo
    A5=AAAAA

Más adelante…

Un nuevo método para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas con coeficientes constantes es el que estamos por desarrollar. Dicho método involucra obtener los valores y vectores propios de la matriz que conforma al sistema lineal, es por ello que hemos dedicado esta entrada en hacer un breve repaso sobre estos conceptos y hemos visto cómo es que se ven involucrados en la resolución de estos sistemas.

Como vimos, los valores propios se obtienen de encontrar las raíces del polinomio característico lo que significa que se pueden tener raíces reales y distintas, raíces con multiplicidad mayor a uno, es decir, que se repiten o raíces complejas, para cada caso existe una forma distinta de obtener la solución de los sistemas lineales homogéneos Y=AY.

En las próximas tres entradas estudiaremos cada caso. Comenzaremos con el caso en el que los valores propios del sistema son todos reales y distintos entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal II: Existencia de la forma canónica de Jordan para nilpotentes

Por Elizabeth Chalnique Ríos Alvarado

Introducción

En la entrada anterior estudiamos de manera un poco más sistemática las matrices y transformaciones lineales nilpotentes. Lo que haremos ahora es enunciar el teorema de la forma canónica de Jordan para matrices nilpotentes. Este es un teorema de existencia y unicidad. En esta entrada demostraremos la parte de la existencia. En la siguiente entrada hablaremos de la unicidad y de cómo encontrar la forma canónica de Jordan de matrices nilpotentes de manera práctica.

El teorema de Jordan para nilpotentes

El teorema que queremos demostrar tiene dos versiones: la de transformaciones y la matricial. La versión en transformaciones dice lo siguiente.

Teorema. Sea V un espacio vectorial de dimensión finita n y T:VV una transformación lineal nilpotente. Entonces existen únicos enteros k1,,kd tales que k1+k2++kd=n,k1k2kd, y para los cuales existe una base de V en la cual T tiene como forma matricial a la siguiente matriz de bloques:

(J0,k1000J0,k2000J0,kd).

La versión en forma matricial dice lo siguiente.

Teorema. Sea A una matriz nilpotente en Mn(F). Entonces existen únicos enteros k1,,kd tales que k1+k2++kd=n,k1k2kd, y para los cuales A es similar a la siguiente matriz de bloques: (J0,k1000J0,k2000J0,kd).

A esta matriz de bloques (ya sea para una transformación, o para una matriz) le llamamos la forma canónica de Jordan de A.

En vista de que dos matrices son similares si y sólo si representan a la misma transformación lineal en distintas bases, entonces ambos teoremas son totalmente equivalentes. Así, basta enfocarnos en demostrar una de las versiones. Haremos esto con la versión para transformaciones lineales.

Trasnformaciones nilpotentes y unos vectores linealmente independientes

En esta sección enunciaremos un primer resultado auxiliar para demostrar la existencia de la forma canónica de Jordan. Veremos que a partir de una transformación lineal nilpotente podemos obtener algunos vectores linealmente independientes.

Proposición. Sea V un espacio vectorial de dimensión finita y T:VV una transformación lineal de índice k. Sea v un vector tal que Tk1(v)0, el cual existe ya que Tk1 no es la transformación lineal cero. Entonces:

  1. Los vectores v, T(v), , Tk1(v) son linealmente independientes.
  2. El subespacio W que generan es de dimensión k y es estable bajo T.
  3. La transformación T restringida a W en la base Tk1(v), Tk2(v), , T(v), v tiene como matriz al bloque de Jordan J0,k. Ojo. Aquí los vectores los escribimos en orden contrario, empezando con la mayor potencia de T aplicada.

Demostración. Probemos las afirmaciones una por una. Para empezar, supongamos que para ciertos escalares α0,,αk1 tenemos que α0v+α1T(v)++αk1Tk1(v)=0.

Vamos a probar inductivamente de 0 a k1 que αk=0. Para mostrar que α0=0, aplicamos Tk1 a la combinación lineal anterior para obtener:

0=α0Tk1(v)+α1Tk(v)++αk1T2k2(v)=α0Tk1(v).

Aquí estamos usando en todos los sumandos, excepto el primero, que Tk=0. Como Tk1(v)0, concluimos que α0=0. Suponiendo que ya hemos mostrado α0==αl=0, la combinación lineal con la que empezamos queda como αl+1Tl+1(v)+αl+2Tl+2(v)++αk1Tk1(v)=0. Aplicando Tkl2 y usando un argumento similar al anterior se llega a que αl+1=0. Esto muestra que la única combinación lineal de los vectores que da cero es la combinación lineal trivial, así que son linealmente independientes.

De manera inmediata obtenemos entonces que esos k vectores generan un subespacio W de dimensión k. Para ver que W es T estable, tomemos un elemento w en W, es decir w=α0v+α1T(v)++αk1Tk1(v) para algunos escalares α0,,αk1. Debemos ver que T(w) está nuevamente en W. Haciendo las cuentas y usando nuevamente que Tk=0 obtenemos:

T(w)=T(α0v+α1T(v)++αk1Tk1(v))=α0T(v)+α1T2(v)++αk2Tk1(v)+αk1T(v)=α0T(v)+α1T2(v)++αk2Tk1(v)

Este vector de nuevo es combinación lineal de los vectores que nos interesan, así que T(w) está en W, como queríamos.

La afirmación de la forma matricial es inmediata pues precisamente

T(Tj(v))=0Tn1(V)++1Tj+1(v)++0T(v)+0v, de donde se lee que las columnas de dicha forma matricial justo son las del bloque de Jordan J0,k.

◻

El teorema anterior da otra demostración de algo que ya habíamos mostrado en la entada anterior: el índice de una matriz en Mn(F) (o de una transformación nilpotente en un espacio vectorial de dimensión n) no puede exceder n.

Encontrar un subespacio complementario y estable

Ahora veremos otro resultado auxiliar que necesitaremos para demostrar la existencia de la forma canónica de Jordan. A partir de él podemos conseguirnos un «subespacio complementario y estable» que en la prueba de la existencia nos ayudará a proceder inductivamente. Este truco ya lo hemos visto antes en la clasificación de matrices ortogonales y el la demostración del teorema espectral.

Proposición. Sea V un espacio vectorial de dimensión finita n y T:VV una transformación lineal nilpotente de índice k. Tomemos v un vector tal que Tk1(v)0. Sea W el subespacio generado por v,T(v),,Tk1(v). Entonces, existe un subespacio W estable bajo T y tal que T=WW.

La principal dificultad para probar esta proposición es una cuestión creativa: debemos saber de dónde sacar el espacio W. Para ello, haremos uso de la transformación transpuesta y de un espacio ortogonal por dualidad. Como recordatorio, si T:VV es una transformación lineal, entonces su transformación transpuesta es una transformación lineal tT:VV para la cual tT()(u)=(T(u)) para cualquier forma lineal y cualquier vector u en V.

Demostración. Primero, nos enfocamos en construir W. Para ello procedemos como sigue. Como Tk1(v)0, entonces existe una forma lineal tal que (Tk1(v))0. Se puede mostrar que S:= tT también es nilpotente de índice k. Por la proposición de la sección anterior, tenemos entonces que ,S(),,Sk1() son k vectores linealmente independientes en V y por lo tanto que generan un subespacio Z de dimensión k. El espacio W que propondremos será Z.

Debemos mostrar que:

  1. En efecto V=WW.
  2. En efecto W es T estable.

Para la primer parte, usando teoría de espacios ortogonales tenemos que dim(W)=dim(Z)=ndim(Z)=nk, así que los subespacios tienen la dimensión correcta para ser complementarios. Además, si uWW, entonces u es combinación lineal de v,T(v),,Tk1(v), digamos u=α0v++αk1Tk1(v) y se anula por ,S(),,Sk1(), lo que quiere decir que se anula por ,T,,Tk1. Esto permite probar iterativamente que α0==αk1=0, de modo que u=0. Con esto, W y W son de intersección trivial y dimensiones complementarias, lo cual basta para que V=WW.

Para terminar, debemos ver que W es T estable. Tomemos un u en W, es decir, tal que se anula por ,T,,Tk1. Al aplicar T, tenemos que T(u) también se anula por todas estas transformaciones. Esto se debe a que para Tj con jk2 se anula ya que Tj(T(u))=Tj+1(u)=0 por cómo tomamos u y para Tk1 se anula pues T es nilpotente de índice k.

◻

Existencia de forma canónica de Jordan para nilpotentes

La idea para encontrar la forma canónica de Jordan debe ser clara a estas alturas: se procederá por inducción, el caso base será sencillo, asumiremos la hipótesis inductiva y para hacer el paso inductivo descomponeremos al espacio V mediante la proposición de la sección anterior. Veamos los detalles.

Demostración (existencia de forma canónica de Jordan para nilpotentes). Estamos listos para probar la existencia de la forma canónica de Jordan para una transformación lineal nilpotente T:VV con V un espacio vectorial de dimensión finita n. Procederemos por inducción en la dimensión. Si n=1, entonces V es generado por un vector v y la transformación lineal T debe mandarlo al vector 0 para ser nilpotente. En esta base, T(v)=0 y la matriz que representa a T es entonces (0)=J0,1.

Supongamos que existe la forma canónica de Jordan para cuando V es de cualquier dimensión menor a un entero positivo dado n. Tomemos V un espacio vectorial de dimensión n y T:VV una transformación lineal nilpontente. Si T es de índice n, entonces Tn1(v),,T(v),v son linealmente independientes y por lo tanto son una base de V. La forma matricial de T en esta base es el bloque de Jordan J0,n, en cuyo caso terminamos.

De otra forma, el índice es un número k<n. Entonces, Tk1(v),,T(v),v generan un subespacio estable W de dimensión k. Por la proposición de la sección anterior, podemos encontrar un subespacio complementario W de dimensión nk<n y estable bajo T. Como la restricción de T a W tiene codominio W, es nilpotente y dim(W)<dim(V), entonces por hipótesis inductiva W tiene una base β bajo la cual la restricción de T a W tiene como forma matricial una matriz diagonal por bloques con puros bloques de Jordan del estilo J0,kj. Al completar β con Tk1(v),,T(v),v , obtenemos una base de V en la cual T tiene como forma matricial una matriz diagonal por bloques con puros bloques de Jordan del estilo J0,kj (que vienen de la hipótesis inductiva) y un bloque de Jordan J0,k. Salvo quizás un reordenamiento de la base para ordenar los kj y k, obtenemos exactamente lo buscado.

◻

Más adelante…

Ya demostramos una parte fundamental del teorema que nos interesa: la existencia de la forma canónica de Jordan para transformaciones (y matrices) nilpotentes. Nos falta otra parte muy importante: la de la unicidad. Las demostraciones de unicidad típicamente son sencillas, pero en este caso no es así. Para decir de manera explícita cuál es la forma canónica de Jordan de una transformación (o matriz) nilpotente, deberemos hacer un análisis cuidadoso del rango de las potencias de la transformación (o matriz). Veremos esto en las siguientes entradas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Verifica que la siguiente matriz es nilpotente: (13614520422912341345185421).
    Siguiendo las ideas de la demostración de existencia de esta entrada, ¿cómo podrías dar la forma canónica de Jordan de esta matriz? Intenta hacerlo.
  2. Sea V un espacio vectorial de dimensión finita y T:VV una transformación lineal nilpotente de índice k. Demuestra que tT también es una transformación lineal nilpotente de índice k. ¿Cuál sería el resultado análogo para matrices?
  3. Sea V un espacio vectorial de dimensión finita y T:VV una transformación lineal tal que para cualquier v en V existe algún entero n tal que Tn(v)=0. Estos n pueden ser distintos para distintos v. Muestra que T es nilpotente.
  4. Considera el subespacio V de polinomios reales con grado a lo más 4 y D:VV la transformación lineal derivar. Da, de manera explícita, espacios W y W como en las proposición de encontrar el subespacio complementario estable.
  5. Hay varios detalles que quedaron pendientes en las demostraciones de esta entrada. Revisa la entrada para encontrarlos y da las demostraciones correspondientes.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Ecuaciones Diferenciales I: Ecuaciones diferenciales de orden superior

Por Omar González Franco

Las matemáticas expresan valores que reflejan el cosmos, incluyendo
el orden, equilibrio, armonía, lógica y belleza abstracta.
– Deepak Chopra

Introducción

¡Bienvenidos a la segunda unidad del curso de Ecuaciones Diferenciales I!.

En la primera unidad estudiamos las ecuaciones diferenciales lineales y no lineales de primer orden, en esta unidad estudiaremos las ecuaciones diferenciales de orden superior a uno, en particular las ecuaciones lineales de segundo orden.

Anteriormente vimos que las ecuaciones diferenciales se pueden clasificar por orden, el cual corresponde al orden de la derivada más alta presente en la ecuación diferencial. A las ecuaciones diferenciales de orden mayor a uno se le conocen como ecuaciones diferenciales de orden superior. Nuestro enfoque en esta unidad serán las ecuaciones diferenciales lineales de segundo orden, pero antes de desarrollar los distintos métodos de resolución es necesario establecer una serie de conceptos y teoremas que sustentarán a dichos métodos.

Si bien, la segunda unidad tratará sobre las ecuaciones diferenciales lineales de segundo orden, gran parte de esta teoría preliminar la desarrollaremos para el caso general en el que el orden de la ecuación es n, con n un número entero mayor a uno, así sólo será suficiente fijar n=2 para referirnos a las ecuaciones de segundo orden.

Ecuaciones Diferenciales lineales de orden superior

Recordemos que una ecuación diferencial de n-ésimo orden en su forma general es

Label '1' multiply defined

Donde F es una función con valores reales de n+2 variables. La ecuación (1) se puede escribir en su forma normal como

Label '2' multiply defined

Con f una función continua con valores reales. Para el caso en el que la ecuación es lineal, una ecuación diferencial de n-ésimo orden se puede escribir como

Label '3' multiply defined

Satisfaciendo las propiedades que ya conocemos. La ecuación (3) es una ecuación no homogénea, en el caso en el que g(x)=0, decimos que la ecuación es homogénea.

Label '4' multiply defined

Las ecuaciones (3) y (4) serán, entonces, el tipo de ecuaciones sobre la cual desarrollaremos esta teoría preliminar.

Para comenzar estudiemos los problemas con valores iniciales y problemas con valores en la frontera en el caso de las ecuaciones diferenciales lineales de orden superior.

Problema con valores iniciales para ecuaciones lineales

En la unidad anterior definimos lo que es un problema con valores iniciales, esta definición fue general, definamos ahora lo que es un problema con valores iniciales para el caso en el que la ecuación es lineal.

Para el caso de segundo orden ya hemos mencionado que geométricamente un PVI involucra obtener una curva solución que pase por el punto (x0,y0) y la pendiente en dicho punto sea m=y1.

Enunciaremos, sin demostrar, el teorema de existencia y unicidad que contiene las condiciones suficientes para la existencia y unicidad de una solución de un PVI de n-ésimo orden para el caso de las ecuaciones lineales.

Podemos enunciar el teorema de existencia y unicidad para el caso de las ecuaciones diferenciales lineales de segundo orden (n=2) de la siguiente manera.

No demostraremos este teorema, pero es importante notar que dentro del enunciado hemos escrito la definición de PVI para el caso n=2 (segundo orden). Veamos un ejemplo en donde apliquemos este último teorema.

Ejemplo: Probar que la función

y(x)=3e2x+e2x3x

es solución al PVI

d2ydx24y=12x;y(0)=4,y(0)=1

y además es única.

Solución: Primero probemos que es solución al PVI, para ello veamos que satisface la ecuación diferencial y además cumple con las condiciones iniciales.

La función dada es

y(x)=3e2x+e2x3x

La primera y segunda derivada de esta función son, respectivamente

dydx=y(x)=6e2x2e2x3yd2ydx2=y(x)=12e2x+4e2x

Notemos que

d2ydx24y=(12e2x+4e2x)4(3e2x+e2x3x)=12e2x+4e2x12e2x4e2x+12x=12x

Esto es,

d2ydx24y=12x

La función satisface la ecuación diferencial. Verifiquemos que satisface las condiciones iniciales.

En la solución evaluemos x=0.

y(0)=3e0+e00=3+1=4y(0)=4

Se cumple la primera condición inicial. Ahora, en la derivada de la función evaluemos en x=0.

y(0)=6e02e03=623=1y(0)=1

Se cumple la segunda condición inicial. Por lo tanto, la función dada es solución al PVI.

Es claro que el intervalo de solución es δ=(,) y que x0=0δ. Como a2(x)=10,a0(x)=4 y g(x)=12x son funciones continuas en δ, por el teorema de existencia y unicidad para ecuaciones diferenciales lineales de segundo orden concluimos que la función y(x)=3e2x+e2x3x es una solución única.

◻

Al haber aumentado el orden de las ecuaciones diferenciales aparece un nuevo problema que estudiaremos a continuación.

Problema con valores en la frontera

En el estudio de las ecuaciones diferenciales de orden superior existe otro problema similar al PVI conocido como problema con valores en la frontera (PVF) en el que se busca resolver una ecuación diferencial de orden dos o mayor, tal que la variable dependiente y/o sus derivadas se especifican en distintos puntos.

Para que quede claro este concepto definiremos un problema con valores en la frontera para el caso de una ecuación diferencial lineal de segundo orden y siguiendo esta misma idea es que se puede definir para una ecuación de orden superior a dos.

Así, resolver un PVF es hallar una función y(x) que satisfaga la ecuación diferencial en algún intervalo δ que contiene a a y b y que cuya curva solución pase por los puntos (a,y0) y (b,y1).

La razón por la que definimos un PVF para el caso de una ecuación diferencial de segundo orden es porque es posible hacer notar que otros pares de condiciones en la frontera pueden ser

y(a)=y0yy(b)=y1

y(a)=y0yy(b)=y1

y(a)=y0yy(b)=y1

Sin embargo, las condiciones en la frontera presentadas son sólo casos particulares de las condiciones en la frontera generales

α1y(a)+β1y(a)=γ1α2y(b)+β2y(b)=γ2

Es así que aumentando el orden de la ecuación, las combinaciones de pares de condiciones en la frontera aumentan.

A diferencia de un PVI en el que si existe una solución, entonces ésta es única, en un PVF pueden existir varias soluciones distintas que satisfacen las mismas condiciones en la frontera, o bien, puede sólo existir una solución única o no tener ninguna solución. Veamos un ejemplo que muestre este hecho.

Ejemplo: Probar que la función general

y(x)=c1x2+c2x4+3

es solución de la ecuación diferencial

x2d2ydx25xdydx+8y=24

y además, de acuerdo a las condiciones en la frontera dadas a continuación, se cumplen las siguientes propiedades:

  • y(1)=0,y(1)=4 No existe una solución.
  • y(0)=3,y(1)=0 Existen infinitas soluciones.
  • y(1)=3,y(2)=15 Existe una única solución.

Solución: De tarea moral verifica que la función dada es solución de la ecuación diferencial. Más adelante estudiaremos los métodos de resolución de este tipo de ecuaciones diferenciales, de manera que seremos capaces de obtener esta función y probar, de hecho, que es la solución general. Por ahora sólo verifica que es solución.

Una vez comprobado que y(x) es solución apliquemos las condiciones de frontera de cada caso y veamos que ocurre con la solución.

  • Caso 1: y(1)=0,y(1)=4

y(1)=c1(1)2+c2(1)4+3=c1+c2+3=0c1+c2=3

y(1)=c1(1)2+c2(1)4+3=c1+c2+3=4c1+c2=1

De ambas condiciones de la frontera obtenemos que c1+c2=3 y a la vez c1+c2=1 lo cual es imposible, por lo tanto en este caso NO existe una solución al PVF.

  • Caso 2: y(0)=3,y(1)=0

y(0)=c1(0)2+c2(0)4+3=3y(0)=3

y(1)=c1(1)2+c2(1)4+3=c1+c2+3=0c1+c2=3

Vemos que la primer condición de frontera se cumple y aplicando la segunda obtenemos que c1+c2=3 de donde c2=(c1+3), sustituyendo en la solución y(x) obtenemos la función

y(x)=c1x2(c1+3)x4+3

Donde c1 es un parámetro libre, lo que indica que en este caso existen infinitas soluciones, una por cada posible valor de c1.

  • Caso 3: y(1)=3,y(2)=15

y(1)=c1(1)2+c2(1)4+3=c1+c2+3=3c1+c2=0

y(2)=c1(2)2+c2(2)4+3=4c1+16c2+3=15c1+4c2=3

De ambas condiciones de frontera obtenemos el sistema de ecuaciones

c1+c2=0c1+4c2=3

De la primer ecuación obtenemos que c1=c2, sustituyendo en la segunda ecuación obtenemos

c2+4c2=3c2=3

de donde c2=1 y por tanto c1=1. Sustituyendo en la solución y(x) obtenemos la función

y(x)=x2+x4+3

Por lo tanto, al ser una función sin parámetros, la solución es única.

◻

A continuación estudiaremos algunos operadores importantes que nos ayudarán en las posteriores demostraciones de algunos teoremas importantes, además de que nos serán de utilidad en cuestiones de notación.

Operadores Diferenciales

Comencemos por definir el operador de derivada.

Con ayuda del operador diferencial podemos escribir la derivada de una función y(x) como

Label '7' multiply defined

En el entendido que D opera sobre la variable independiente de y, en este caso de x.

Por ejemplo, ahora podemos escribir

D{2xsin(x)}=2sin(x)+2xcos(x)

Usando el operador diferencial, las expresiones de las derivadas de orden superior se pueden escribir como

Label '8' multiply defined

Y de manera general

Label '9' multiply defined

Sabemos que la derivada es lineal (en el contexto del álgebra lineal), por tanto el operador diferencial también satisface las propiedades de linealidad:

  • D{f(x)+g(x)}=D{f(x)}+D{g(x)}
  • D{cf(x)}=cD{f(x)}

Por otro lado, una ecuación diferencial como

d2ydx22dydx+5y=0

se puede escribir en términos del operador diferencial como

D2y2Dy+5y=(D22D+5)y=0

Observamos que el lado izquierdo de ésta última expresión corresponde a una expresión polinomial en la que interviene el operador D, estas expresiones polinomiales son también un operador diferencial y tiene un nombre particular.

Debido a que el operador polinomial esta definido con operadores diferenciales D, las propiedades de linealidad de D le atribuyen a L linealidad. Más general, L operando sobre una combinación lineal de dos funciones derivables es lo mismo que la combinación lineal de L operando en cada una de las funciones, esto es

Label '11' multiply defined

Una primera ventaja de usar el operador polinomial es que las ecuaciones (3) y (4) se pueden escribir como

L(y)=g(x)yL(y)=0

respectivamente.

A continuación el operador polinomial nos será de mucha utilidad.

Principio de superposición

Es posible obtener varias soluciones de una ecuación diferencial lineal homogénea (4) y si sumamos o superponemos todas estas soluciones veremos que dicha función es también solución de la ecuación diferencial. Este hecho se muestra en el siguiente resultado conocido como principio de superposición para ecuaciones homogéneas.

Demostración: Sea L el operador polinomial (10) de n-ésimo orden y sean y1,y2,,yk soluciones de la ecuación homogénea (4) en el intervalo δ. Definamos la combinación lineal

y(x)=c1y1(x)+c2y2(x)++ckyk(x)

con ci, i=1,2,,k constantes arbitrarias. Notemos que

L(y)=L{c1y1(x)+c2y2(x)++ckyk(x)}

Por la linealidad de L(y) (11), se tiene

L(y)=c1L{y1(x)}+c2L{y2(x)}++ckL{yk(x)}

Pero cada yi, i=1,2,,k es solución de (4), entonces

L(yi)=0

para todo i=1,2,,k, así la expresión anterior se reduce a lo siguiente.

L(y)=c10+c20++ck0=0

Por lo tanto

L(y)=0

es decir, la combinación lineal

y(x)=c1y1(x)+c2y2(x)++ckyk(x)

es también solución de la ecuación diferencial homogénea (4).

◻

Dos corolarios importantes del teorema anterior son los siguientes.

Demostración: Consideremos la función y=c1y1(x), aplicando el operador polinomial L, tenemos

L(y)=L{c1y1(x)}=c1L{y1(x)}=0

Ya que y1(x) es solución de la ecuación homogénea, es decir, L{y1}=0. Por lo tanto la función y(x)=c1y1(x) es también solución de la ecuación diferencial homogénea.

◻

Usando el teorema anterior y la definición de L es clara la demostración, inténtalo.

Realicemos un ejemplo sobre el principio de superposición.

Ejemplo: Mostrar que las funciones

y1(x)=x2yy2(x)=x2ln(x)

son soluciones de la ecuación diferencial lineal homogénea

x3d3ydx32xdydx+4y=0

en el intervalo δ=(0,). Y mostrar que la combinación lineal

y(x)=c1x2+c2x2ln(x)

es también solución de la ecuación diferencial en el mismo intervalo.

Solución: De tarea moral verifica que las funciones por separado

y1(x)=x2yy2(x)=x2ln(x)

son soluciones de la ecuación diferencial en el intervalo δ=(0,).

Una vez asegurado que ambas funciones son solución, de acuerdo al principio de superposición, la combinación lineal de ambas funciones

y(x)=c1x2+c2x2ln(x)

debe ser también solución de la ecuación diferencial, veamos que es así. Para ello calculemos la primera, segunda y tercera derivada. Para la primer derivada tenemos

dydx=2c1x+2c2xln(x)+c2x

La segunda derivada es

d2ydx2=2c1+2c2ln(x)+3c2

Finalmente, la tercer derivada es

d3ydx3=2c2x

Sustituyendo los valores correspondientes en la ecuación diferencial, tenemos

x3d3ydx32xdydx+4y=x3(2c2x)2x(2c1x+2c2xln(x)+c2x)+4(c1x2+c2x2ln(x))=2c2x24c1x24c2x2ln(x)2c2x2+4c1x2+4c2x2ln(x)=c1(4x24x2)+c2(2x22x2+4x2ln(x)4x2ln(x))=c1(0)+c2(0)=0

Hemos recuperado la ecuación diferencial

x3d3ydx32xdydx+4y=0

por lo tanto, la combinación lineal

y(x)=c1x2+c2x2ln(x)

es también solución de la ecuación diferencial verificando así el principio de superposición.

Es claro que la función ln(x) restringe los valores de x, de manera que el intervalo δ=(0,) es el intervalo en el que la función y(x) es continua.

◻

Dependencia e independencia lineal

El principio de superposición trae consigo el concepto de combinación lineal y, de álgebra lineal, sabemos que si un elemento de un espacio vectorial se puede escribir como combinación lineal de otros elementos del mismo espacio vectorial, decimos que dicho elemento es linealmente dependiente y si no es dependiente, entonces decimos que es linealmente independiente. Ahora es necesario definir estos conceptos en el contexto de las ecuaciones diferenciales lineales.

Podemos decir que un conjunto de funciones es linealmente independiente en un intervalo δ si las únicas constantes para las que

c1f1(x)+c2f2(x)++cnfn(x)=0,xδ

son c1=c2==cn=0.

Realicemos algunas observaciones para el caso n=2.

Dos funciones f1(x),f2(x) son linealmente dependientes en el intervalo δ, donde ambas están definidas, si en dicho intervalo son proporcionales, esto es, si

Label '14' multiply defined

donde c1 y c2 son constantes distintas de cero, de esta manera, si f1(x) y f2(x) no son proporcionales en el intervalo δ, entonces ambas funciones son linealmente independientes en dicho intervalo.

De las relaciones de proporcionalidad (14) notamos que

Label '15' multiply defined

Con estas relaciones podemos establecer que f1(x) y f2(x) son linealmente dependientes en el intervalo δ si cada cociente es una constante a lo largo de todo el intervalo δ y, por otro lado, si los cocientes dependen de x en el intervalo δ, entonces las funciones f1(x) y f2(x) son linealmente independientes.

En definitiva, las funciones f1(x),f2(x),,fn(x) son linealmente dependientes en el intervalo δ si al menos una de ellas puede expresarse como combinación lineal de las otras. En caso contrario, las funciones son linealmente independientes.

Por ejemplo, dado el conjunto de funciones

f1(x)=4x3,f2(x)=2x2,f3(x)=8x3+12x2

es sencillo darse cuenta que

f3(x)=2f1(x)+6f2(x)

Por lo tanto, el conjunto de funciones es linealmente dependiente.

Ejemplo: Determinar si las funciones

y1(x)=c1exyy2(x)=c2xex

son linealmente dependientes o linealmente independientes. Probar además que dichas funciones por separado son solución de la ecuación diferencial

d2ydx2+2dydx+y=0

y verificar que la combinación lineal

y(x)=c1ex+c2xex

es también solución de la ecuación diferencial.

Solución: Como vimos, hay distintas formas de verificar si las funciones son linealmente dependientes o linealmente independientes, quizá la forma más práctica es observar si el cociente y1y2 o y2y1 es constante o dependiente de x en el intervalo δ en el que ambas están definidas.

Observamos primero que ambas funciones

y1(x)=c1exyy2(x)=c2xex

están definidas en todo R, por tanto

δ=(,)

Ahora bien, notamos que

y1y2=c1c2x

O bien,

y2y1=c2xc1

Como podemos ver, ambos cocientes son dependientes de la variable independiente x. Por lo tanto, las funciones son linealmente independientes.

Ahora verifiquemos que cada función y1(x) y y2(x) es solución de la ecuación diferencial dada.

Para la primer función tenemos

y1(x)=c1exdy1dx=c1exd2y1dx2=c1ex

Sustituimos en la ecuación diferencial.

d2ydx2+2dydx+y=c1ex+2(c1ex)+c1ex=2c1ex2c1ex=0

Esto es,

d2ydx2+2dydx+y=0

Por lo tanto, la función y1(x)=c1ex satisface la ecuación diferencial.

Para la segunda función tenemos

y2(x)=c2xexdy2dx=c2exc2xexd2y2dx2=2c2ex+c2xex

Sustituimos en la ecuación diferencial.

d2ydx2+2dydx+y=(2c2ex+c2xex)+2(c2exc2xex)+c2xex=2c2ex+c2xex+2c2ex2c2xex+c2xex=(2c2ex2c2ex)+(2c2xex2c2xex)=0

Nuevamente

d2ydx2+2dydx+y=0

Por lo tanto, la función y2(x)=c2xex es también solución de la ecuación diferencial.

Ahora que sabemos que ambas funciones son solución de la ecuación diferencial, podemos aplicar el principio de superposición y concluir que la combinación lineal

y(x)=c1ex+c2xex

es también solución de la ecuación diferencial. De tarea moral verifica que en efecto es solución.

◻

Para finalizar esta entrada definiremos un concepto sumamente importante y el cual estudiaremos con mayor detalle en la siguiente entrada.

En el ejemplo anterior mostramos que las funciones

y1(x)=c1exyy2(x)=c2xex

son linealmente independientes y ambas por separado son solución de la ecuación diferencial homogénea

d2ydx2+2dydx+y=0

En general, al conjunto de n soluciones linealmente independientes de una ecuación diferencial lineal homogénea de n-ésimo orden se le da el nombre de conjunto fundamental de soluciones.

Así, el conjunto {y1(x)=c1ex,y2(x)=c2xex} es un conjunto fundamental de soluciones de la ecuación diferencial homogénea

d2ydx2+2dydx+y=0

en el intervalo δ=(,).

En la siguiente entrada retomaremos este concepto.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Problemas con valores iniciales.
  • La solución general de la ecuación diferencial d2ydx2y=0 es y(x)=c1ex+c2ex definida en δ=(,). Determinar la solución particular que es solución al PVI dadas las condiciones iniciales y(0)=0,y(0)=1
  • Dado que x(t)=c1cos(ωt)+c2sin(ωt) es la solución general de x+ω2x=0 en el intervalo (,), demostrar que la solución que satisface las condiciones iniciales x(0)=x0 y x(0)=x1 esta dada por x(t)=x0cos(ωt)+x1ωsin(ωt)
  1. Problema con condiciones en la frontera.
  • La función y(x)=c1excos(x)+c2exsin(x) es una solución de la ecuación diferencial d2ydx22dydx+2y=0 en el intervalo (,). Determinar si se puede encontrar una solución que satisfaga las siguientes condiciones en la frontera.

a)y(0)=1,y(π)=0;b)y(0)=1,y(π)=1

c)y(0)=1,y(π2)=1;d)y(0)=0,y(π)=0

  1. Determinar si los siguientes conjuntos de funciones son linealmente independientes en el intervalo (,).
  • f1(x)=x,f2(x)=x2,f3(x)=4x3x2
  • f1(x)=1+x,f2(x)=x,f3(x)=x2
  • f1(x)=ex,f2(x)=ex,f3(x)=sinh(x)
  1. Comprobar que las funciones dadas forman un conjunto fundamental de soluciones de la ecuación diferencial en el intervalo que se indica y formar la solución general.
  • d2ydx2dydx12y=0;y1=e3x,y2=e4x;(,)
  • 4d2ydx24dydx+y=0;y1=ex/2,y2=xex/2;(,)
  • x2d2ydx26xdydx+12y=0;y1=x3,y2=x4;(0,)

Más adelante…

Hemos comenzado nuestro estudio sobre las ecuaciones diferenciales de orden superior, vimos que, además del problema con valores iniciales, ahora nos enfrentamos a un nuevo problema conocido como problema con valores en la frontera. Definimos algunos operadores de interés y demostramos el principio de superposición. Finalmente, vimos que si las soluciones son funciones linealmente independientes, entonces forman un conjunto fundamental de soluciones de la ecuación diferencial.

En la siguiente entrada estudiaremos algunas propiedades de las soluciones retomando el concepto de conjunto fundamental de soluciones. Veremos cuál es la forma de la solución general, la importancia de que las soluciones sean linealmente independientes y definiremos el concepto de Wronskiano, el cual será una herramienta muy importante para determinar la dependencia o independencia lineal de las soluciones.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»