Archivo de la etiqueta: polinomio característico

Álgebra Lineal II: Unicidad de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan y demostramos la existencia de dicha forma bajo ciertas hipótesis. Como corolario, quedó pensar cuál es la versión para matrices. En esta entrada enunciamos la versión para matrices (totalmente equivalente a la de transformaciones lineales) y nos enfocamos en mostrar la unicidad de la forma canónica de Jordan.

Unicidad de la forma canónica de Jordan

El siguiente teorema es totalmente análogo al enunciado en la entrada anterior. Recuerda que es un orden total fijo de F (en R, es el orden usual).

Teorema. Sea A una matriz Mn(F) cuyo polinomio característico χA(X) se divide en F. Entonces, existen únicos valores λ1λn en F y únicos enteros k1,,kd tales que k1+k2++kd=n,k1k2kd, para los cuales A es similar a la siguiente matriz de bloques de Jordan:

(Jλ1,k1000Jλ2,k2000Jλd,kd).

Usaremos esta versión para demostrar la unicidad, lo cual también implicará la unicidad para la versión de transformaciones lineales.

Mediante la demostración de existencia de la entrada anterior, llegamos a que si el polinomio característico de A es

χA(X)=(Xλ1)m1(Xλ2)m2(Xλr)mr,

entonces A es similar a una matriz conformada por matrices de bloques de Jordan J1,J2,,Jr, en donde cada Ji es de tamaño mi y de bloques de Jordan de eigenvalor λi.

Si A fuera similar a otra matriz K de bloques de Jordan, podríamos agrupar por eigenvalores de los bloques κ1<<κs en matrices de bloques de Jordan tamaños o1,,os, digamos K1,,Ks. El polinomio característico de K sería entonces

χK(X)=(Xκ1)o1(Xκ2)o2(Xκs)os.

Pero K es similar a A, y entonces deben tener el mismo polinomio característico, así que conciden en raíces y multiplicidad. Esto demuestra que r=s y como los λi y los κi están ordenados, también demuestra las igualdades λi=κi y mi=oi para todo i{1,,r}.

Sólo nos queda argumentar la igualdad entre cada Ji y Ki para i{1,,r}. Pero ambas una forma canónica de Jordan para la transformación nilpotente que se obtiene de restringir TAλiI a ker(TAλiImi). Por la unicidad que demostramos para la forma canónica de Jordan para transformaciones nilpotentes, concluimos que Ji=Ki. Esto termina la demostración de la unicidad de la forma canónica de Jordan.

◻

Una receta para encontrar la forma canónica de Jordan

Ya con el teorema demostrado, ¿cómo juntamos todas las ideas para encontrar la forma canónica de Jordan de una matriz A en Mn(F) cuyo polinomio característico se divida en F? Podemos proceder como sigue.

  1. Encontramos el polinomio característico χA(X) y su factorización, digamos χA(X)=(Xλ1)m1(Xλ2)m2(Xλr)mr.
  2. Nos enfocamos en encontrar las matrices de bloque de Jordan Ji para cada eigenvalor λi. Sabemos que la matriz Ji será de tamaño mi.
  3. Para saber exactamente cuál matriz de bloques de Jordan es Ji, pensaremos en que tiene b1,b2,,bmi bloques de Jordan de eigenvalor λi de tamaños 1,2,,mi. Consideramos la matriz Ai=AλiI. Los b1,,bmi son la solución al siguiente sistema de ecuaciones en las variables x1,,xmi.
    mi=1x1+2x2+3x3++mixmimin+rango(AiλiI)=0x1+1x2+2x3++(mi1)xmimin+rango(AiλiI2)=0x1+0x2+1x3++(mi2)xmimin+rango(AiλiI3)=0x1+0x2+0x3++(mi3)xmimin+rango(AiλiImi1)=0x1+0x2+0x3++1xmi.
  4. Juntamos todos los Ji en una misma matriz y los ordenamos apropiadamente.

El paso número 3 está motivado por lo que sabemos de las matrices nilpotentes, y es bueno que pienses por qué se estudia específicamente ese sistema de ecuaciones para cada eigenvalor λi y multiplicidad mi.

Ejemplo de obtener la forma canónica de Jordan

Veamos un ejemplo del procedimiento descrito en la sección anterior.

Ejemplo. Encontraremos la forma canónica de Jordan de la siguiente matriz: A=(2261024639246234232364623619820192411959310122101223853039374396).

Con herramientas computacionales, podemos darnos cuenta de que el polinomio característico de esta matriz es χA(X)=X511X4+46X390X2+81X27.

Este polinomio se puede factorizar como (X1)2(X3)3. Así, la submatriz de bloques de Jordan J1 de eigenvalor 1 tendrá tamaño 2 y la J3 de eigenvalor 3 tendrá tamaño 3. Pero, ¿de qué tamaño son cada uno de los bloques de Jordan en cada una de estas matrices?

Para respondernos esto para J1, notamos que sus bloques son de tamaño 1 y 2 solamente. Si hay b1 bloques de tamaño 1 y b2 bloques de tamaño 2, por la teoría desarrollada arriba tendremos:

b1+2b2=2b2=25+rango(AI)=25+4=1.

El rango de AI lo obtuvimos computacionalmente, pero recuerda que también puede ser obtenido con reducción gaussiana. Resolviendo el sistema, b2=1 y entonces b1=0. Concluimos que en J1 hay un bloque de Jordan de tamaño 2.

Para J3, reciclemos las variables bi (para no introducir nuevas). Los bloques pueden ser de tamaño 1,2,3. Supongamos que de estos tamaños respectivamente hay b1,b2,b3 bloques. Los bi cumplen:

b1+2b2+3b3=3b2+2b3=35+rango(A3I)=35+3=1b3=35+rango((A3I)2)=35+2=0.

Así, b3=0, y en consecuencia b2=1 y entonces b1=1. Concluimos que J3 tiene un bloque de tamaño 1 y uno de tamaño 3. Por lo tanto, la forma canónica de Jordan de A es:

(J100J3)=(J1,2000J3,1000J3,2)=(1100001000003000003100003)

Otro problema sobre forma canónica de Jordan

La receta anterior funciona en general y da la forma canónica de Jordan. Esto es algo que probablemente en la práctica en aplicaciones no tendrás que hacer manualmente nunca, pues hay herramientas computacionales que te pueden ayudar. Sin embargo, es importante entender con profundidad el teorema y la receta de manera teórica, pues hay problemas conceptuales en los que no podrás usar herramientas computacionales. A continuación veremos un ejemplo.

Problema. Sea A una matriz en M6(R) con polinomio característico χA(X)=X62X4+X2.

  • ¿Cuántas posibilidades hay para la forma canónica de Jordan de A?
  • Demuestra que si el rango de A es 5, entonces A no es diagonalizable.

Solución. Podemos factorizar el polinomio característico de A como sigue:

χA(X)=X2(X+1)2(X1)2.

Así, la forma canónica de Jordan está conformada por una matriz de bloques de Jordan J0 de eigenvalor 0 y tamaño 2; una J1 de eigenvalor 1 y tamaño 2; y una J1 de eigenvalor 1 y tamaño 2.

Cada Ji tiene dos chances: o es un bloque de Jordan de tamaño 2, o son dos bloques de Jordan de tamaño 1. Así, en total tenemos 222=8 posibilidades.

Si A es de rango 5, entonces tendríamos en las cuentas de cantidad de bloques b1 y b2 para eigenvalor 0 que

b1+2b2=2b2=26+rango(A)=26+5=1,

de donde en J0 tendría 1 bloque de tamaño 2 y ninguno de tamaño 1. Si A fuera diagonalizable, su diagonalización sería una forma canónica de Jordan donde para eigenvalor 0 se tendrían 2 bloques de tamaño 1 y ninguno de tamaño 2. Así, A tendría dos formas canónicas de Jordan distintas, lo cual es imposible.

◻

Más adelante…

Con esta entrada terminamos de demostrar el teorema de la forma canónica de Jordan, uno de los teoremas más bonitos de álgebra lineal. ¿Te das cuenta de todo lo que utilizamos en su demostración? Forma matricial de transformaciones lineales, el teorema de Cayley-Hamilton, polinomio característico, subespacios estables, teoría de dualidad, sistemas de ecuaciones lineales, resultados auxiliares de polinomios, etc. Es un resultado verdaderamente integrador.

En la siguiente entrada, la última del curso, hablaremos de algunas de las consecuencias del teorema de la forma canónica de Jordan. Discutiremos cómo lo podemos utilizar para clasificar a las matrices por similaridad. Veremos una aplicación con respecto a una matriz y su transpuesta. También, esbozaremos un poco de por qué en cierto sentido el resultado no sólo vale para las matrices cuyo polinomio se divide sobre el campo, sino que para cualquier matriz. Con ello terminaremos el curso.

Tarea moral

  1. Calcula la forma canónica de Jordan J de la matriz A=(103116125). Además de encontrar J, encuentra de manera explícita una matriz invertible P tal que A=P1JP.
  2. Calcula la forma canónica de Jordan de la matriz (1100012000100002)
  3. Explica y demuestra cómo obtener lo siguiente para una matriz de bloques de Jordan:
    • Su polinomio característico.
    • Su polinomio mínimo.
    • Su determinante.
    • Su traza.
    • Sus eigenespacios.
  4. Justifica con más detalle por qué la receta que se propone para calcular la forma canónica de Jordan en efecto funciona. Necesitarás varios de los argumentos que dimos en la entrada anterior.
  5. Demuestra que una matriz AMn(F) para la cual su polinomio característico se divide en F es diagonalizable si y sólo si cada bloque de cada matriz de bloques de la forma canónica de Jordan tiene tamaño 1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal T:RnRn. Si λR es uno de estos eigenvalores, queremos poder encontrar vectores v¯0¯ tales que T(v¯)=λv¯. Esto sucede si y sólo si λv¯T(v¯)=0¯, lo cual sucede si y sólo si (λIdT)(v¯)=0¯, en donde Id:RnRn es la transformación identidad de Rn en Rn. Tenemos de esta manera que v¯ es un eigenvector si y sólo si v¯ker(λIdT).

Si existe v¯0¯ tal que v¯ker(λIdT); entonces ker(λIdT){0¯} por lo cual la transformación λIdT no es invertible, pues no es inyectiva. Así, en ninguna base Matβ(λIdT) es invertible, y por tanto su determinante es 0. Estos pasos son reversibles. Concluimos entonces que λR es un eigenvalor de T si y sólo si en alguna base β se cumple que det(Matβ(λIdT))=0. Esto motiva la siguiente definición.

Definición. Sea T:RnRn una transformación lineal. Llamamos a det(Matβ(λIdT)) al polinomio característico de T en la base β.

Por la discusión anterior, los escalares que cumplen det(Matβ(λIdT))=0 son los eigenvalores T. Para obtener los correspondientes eigenvectores, basta con resolver Matβ(T)X=λX, lo cual es un sistema de ecuaciones en el vector de variables X. Las soluciones X nos darán las representaciones matriciales de vectores propios v¯Rn en la base β.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos T:R3R3 dada por T(x,y,z)=(2x+z,y+x,z). Calculemos su representación matricial con respecto a la base canónica β. Para ello, realizamos las siguientes evaluaciones:
T(1,0,0)=(2,1,0)T(0,1,0)=(0,1,0)T(0,0,1)=(1,0,1),

de donde: Matβ=(201110001).

Calculando el polinomio característico obtenemos: det(λ2011λ1000λ+1)=(λ2)(λ1)(λ+1).

Las raíces de (λ2)(λ1)(λ+1) son λ1=2, λ2=1 y λ3=1. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor λ=2. Para que (x,y,z) represente a un eigenvector en la base canónica, debe pasar que:

(201110001)(xyz)=2(xyz),

lo cual sucede si y sólo si:

(201110001)(xyz)2(xyz)=(000);

[(201110001)2(100010001)](xyz)=(000);

(001110003)(xyz)=(000).

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

(110001000)(xyz)=(000).

En esta forma es sencillo leer las soluciones. Tenemos que z es variable pivote con z=0, que y es variable libre, y que x es variable pivote dada por x=y. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor 2 son de la forma (y,y,0), es decir E2={(y,y,0):yR}.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores 1 y 1.

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea T:RnRn una transformación lineal y sean β1={e¯1,,e¯n}, β2={u¯1,,u¯n} dos bases (ordenadas) de Rn. Supongamos que:

A=Matβ1(T)=[aij]B=Matβ2(T)=[bij].

Por cómo se construyen las matrices A y B, tenemos que:

T(e¯j)=i=1naije¯ipara j=1,,nT(u¯k)=j=1nbjku¯jpara k=1,,n.

Como β1 es base, podemos poner a cada un de los u¯k de β2 en términos de la base β1 mediante combinaciones lineales, digamos:

(1)u¯k=j=1ncjke¯j

en donde los cjk son escalares para j=1,,n y k=1,,n. La matriz C de n×n, con entradas cjk representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que CB=AC. Para ello, tomaremos una k en [n] y expresaremos T(u¯k) de dos formas distintas.

Por un lado, usando (1) y por como es cada T(e¯k) en la base β1 tenemos que:

T(u¯k)=j=1ncjkT(e¯j)=j=1ncjki=1naije¯i=j=1ni=1n(cjkaije¯i)=i=1nj=1n(cjkaije¯i)=i=1n(j=1naijcjk)e¯i.

Por otro lado, usando (1) y por como es cada T(u¯k) en la base β2:

T(u¯k)=j=1nbjku¯j=j=1nbjki=1ncjie¯j=j=1ni=1n(bjkcije¯i)=i=1nj=1n(bjkcije¯i)=i=1n(j=1ncijbjk)e¯i.

Comparemos ambas expresiones para T(u¯k). La primera es una combinación lineal de los e¯i y la segunda también. Como T(u¯k) tiene una única expresión como combinación lineal de los e¯i, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada i se cumple:

j=1naijcjk=j=1ncijbjk.

Pero esto precisamente nos dice que la entrada (i,k) de la matriz AC es igual a la entrada (i,k) de la matriz CB. Con esto concluimos que AC=CB, como queríamos.

En resumen, obtuvimos que para dos matrices A y B que representan a la misma transformación lineal, existe una matriz invertible C tal que: B=C1AC. Además C es la matriz con entradas dadas por (1).

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices A y B se llamarán similares (o semejantes), cuando existe otra matriz C invertible tal que B=C1AC.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean A y B matrices similares. Entonces A y B representan a una misma transformación lineal T, quizás bajo distintas bases.

Demostración: Supongamos que las matrices A y B son similares con B=C1AC, donde las matrices A, B, C están dadas por entradas A=[aij] B=[bij], C=[cjk]. Tomemos una base ordenada β={e¯1,,e¯n} de Rn. Consideremos la transformación lineal TL(Rn,Rn) dada por T(e¯j)=i=1naije¯i.

De esta manera T tiene forma matricial A en la base β.

Construyamos ahora una nueva base ordenada de Rn dada por vectores u¯k para k=1,,n construidos como sigue:

u¯k=j=1ncjke¯j.

Como C es invertible, en efecto tenemos que β:={u¯1,,u¯n} también es base de Rn. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de T en la base β será B.

Así, hemos exhibido una transformación T que en una base tiene representación A y en otra tiene representación B.

◻

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices A y B en Mn(R) son similares si y sólo si representan a una misma transformación lineal T:RnRn, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea T:RnRn una transformación lineal en un espacio sobre R de dimensión finita. Sean β y β bases de Rn. Entonces se obtiene lo mismo calculando el polinomio característico de T en la base β, que en la base β.

Demostración. Tomemos A=Matβ(T) y B=Matβ(T). Como A y B representan a la misma transformación lineal T, entonces son similares y por lo tanto existe C invertible con B=C1AC.

Para encontrar el polinomio característico de T en la base β, necesitamos Matβ(λIdT), que justo es λIA. Así mismo, en la base β tenemos λIB. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

det(λIB)=det(λC1CC1AC)=det(C1(λIA)C)=det(C1)det(λIA)det(C)=det(C1)det(C)det(λIA)=det(I)det(λIA)=det(λIA).

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con det, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

◻

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea T:RnRn una transformación lineal. Supongamos que el polinomio característico de T tiene raíces distintas λ1,,λn. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector u¯i para cada eigenvalor λi, entonces u¯1,,u¯n forman una base β para Rn.
  2. Con dicha base β, se cumple que Matβ(T) es una matriz diagonal con entradas λ1,,λn en su diagonal.
  3. Si β es otra base de Rn y A=Matβ(T), entonces Matβ(T)=C1AC para una matriz invertible C con entradas dadas por (1).

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación T: 1) la transformamos en una matriz A, 2) encontramos el polinomio característico mediante det(λIA), 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones (λIA)X=0 dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de Rn a sí mismo sea diagonalizable es que tenga n eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de Rn a Rm son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal T(x,y,z)=(2x+z,y+x,z) de R3 en R3. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base {(1,1,1),(1,2,3),(0,1,1)} de R3. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si A y B son dos representaciones matriciales de una misma transformación lineal T, entonces det(A)=det(B).
  4. Sea T:R3R3 dada por T(x,y,z)=(x+y+z,x,y). Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base β en la cual Matβ(T) es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas

Álgebra Lineal II: Matrices y transformaciones nilpotentes

Por Elizabeth Chalnique Ríos Alvarado

Introducción

Hemos estudiado varias clases importantes de matrices y transformaciones lineales: diagonales, triangulares superiores, simétricas, ortogonales, normales, etc. Es momento de aprender sobre otro tipo fundamental de matrices y transformaciones lineales: las transformaciones nilpotentes. Nos hemos encontrado con estas matrices ocasionalmente a lo largo del primer curso de álgebra lineal y de éste. Ahora las trataremos de manera más sistemática.

Matrices y transformaciones nilpotentes

En la última unidad estuvimos trabajando únicamente en R o en C. Los resultados que presentaremos a continuación son válidos para espacios vectoriales sobre cualquier campo F.

Definición. Sea A una matriz en Mn(F). Diremos que A es nilpotente si Am=On para algún entero positivo m. Al menor entero positivo m para el cual suceda esto le llamamos el índice de A.

Ejemplo 1. La matriz A=(3913) es nilpotente. En efecto, tenemos que A2=(0000). Como A10, entonces el índice de A es igual a dos.

Tenemos una definición correspondiente para transformaciones lineales.

Definición. Sea V un espacio vectorial sobre un campo F y sea T:VV una transformación lineal. Diremos que que T es nilpotente si Tm es la transformación lineal cero para algún entero positivo m. Al menor entero positivo m para el cual suceda esto le llamamos el índice de T.

Recuerda que por definición Tm es la transformación T compuesta consigo misma m veces.

Ejemplo 2. Si estamos trabajando en el espacio V=Rn[x] de polinomios reales de grado a lo más n, entonces la transformación derivada D:VV para la cual D(p)=p es una transformación lineal nilpotente. En efecto, tras aplicarla n+1 veces a cualquier polinomio de grado a lo más n obtenemos al polinomio 0. Su índice es exactamente n+1 pues derivar n veces no anula al polinomio xn de V.

Si estuviéramos trabajando en el espacio vectorial R[x] de todos los polinomios reales, entonces la transformación derivada ya no sería nilpotente. En efecto, para cualquier m siempre existe un polinomio tal que al derivarlo m veces no se anula.

Bloques de Jordan de eigenvalor cero

Hay una familia importante de matrices nilpotentes.

Definición. Sea F un campo. El bloque de Jordan de eigenvalor 0 y tamaño k es la matriz J0,k en Mk(F) cuyas entradas son todas cero, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, J0,k=[aij] con aij={1si j=i+10en otro caso.

También podemos expresarlo de la siguiente manera:

J0,k=(0100000100000000000100000), en donde estamos pensando que la matriz es de k×k.

Ejemplo 3. A continuación tenemos la matriz J0,4:

J0,4=(0100001000010000)

Esta es una matriz nilpotente. En efecto, haciendo las cuentas de matrices correspondientes tenemos que:

J0,42=(0100001000010000)(0100001000010000)=(0010000100000000)

Luego que

J0,43=J0,4J0,42=(0100001000010000)(0010000100000000)=(0001000000000000)

Y finalmente que

J0,44=J0,4J0,43=(0100001000010000)(0001000000000000)=(0000000000000000)

De esta manera, hay una potencia de J0,4 que se hace igual a cero. Como la mínima potencia es 4, entonces J0,4 es nilpotente de índice 4. Observa cómo la diagonal de unos «se va recorriendo hacia arriba a la derecha».

Todos los bloques de Jordan son nilpotentes

El siguiente resultado generaliza el ejemplo anterior y nos da una mejor demostración, interpretando a la matriz como transformación lineal.

Teorema. La matriz J0,k es nilpotente de índice k.

Demostración. Veamos qué hace la matriz J0,k cuando la multiplicamos por un vector: J0,k(x1x2x3xk1xk)=(0100000100000000000100000)(x1x2x3xk1xk)=(x2x3x4xk0).

En otras palabras, la matriz J0,k «recorre» las entradas del vector hacia arriba «empujando» con ceros desde abajo. Al hacer esto k veces, claramente llegamos al vector 0, así, J0,kk está asociada a la transformación lineal cero y por lo tanto es la matriz Ok. Y J0,kk1 no es la matriz cero pues al aplicarla en ek, el k-ésimo vector de la base canónica de Fk tenemos por las mismas ideas de arriba que J0,kk1en=e1.

◻

Una caracterización de matrices y transformaciones nilpotentes

El siguiente resultado nos da algunas equivalencias para que una transformación sea nilpotente.

Proposición. Sea AMn(F) una matriz. Todo lo siguiente es equivalente:

  1. A es nilpotente.
  2. El polinomio mínimo de A es de la forma μA(X)=Xk.
  3. El polinomio característico de A es χA(X)=Xn.

Demostración. 1)2). Si A es nilpotente, entonces hay un entero m tal que Am=On. Entonces, el polinomio p(X)=Xm anula a la matriz A. Pero el polinomio mínimo divide a cualquier polinomio que anule a A, entonces μA(X)|Xm, de donde μA(X) debe ser también de la forma Xk. De hecho, no puede suceder que k<m pues en dicho caso como el polinomio mínimo anula a la matriz, tendríamos que Ak=On, pero esto es imposible pues m es el menor entero tal que Am=On. Así, en este caso k es justo el índice de A.

2)3). Supongamos que el polinomio mínimo de A es de la forma μA(X)=Xk. Como el polinomio mínimo anula a la matriz tenemos que Ak=On. Tomemos un escalar λ en F fijo. Tenemos que:

λkIn=λkInAk=(λInA)(λk1In+λk2A++λAk2+Ak1)

Al tomar determinante de ambos lados y usando en la derecha la multiplicatividad del determinante, tenemos:

det(λkIn)=det(λInA)det(λk1In+λk2A++λAk2+Ak1).

Del lado izquierdo tenemos det(λkIn)=λnk. Del lado derecho tenemos χA(λ) multiplicado por otra expresión polinomial en λ, digamos P(λ). Como esto se vale para todo escalar λ, se vale polinomialmente que Xnk=χA(X)P(X). Así, χA(X)|Xnk y como el polinomio característico es de grado exactamente n, obtenemos que χA(X)=Xn.

3)1). Si el polinomio característico de A es χA(X)=Xn, entonces por el teorema de Cayley-Hamilton tenemos que An=On, de donde A es nilpotente.

◻

Como consecuencia del teorema anterior, obtenemos los siguientes resultados.

Corolario. Si A es una matriz nilpotente en Mn(F), entonces An=On y por lo tanto el índice de A es menor o igual a n. Análogamente, si T:VV es nilpotente y dim(V)=n, entonces el índice de T es menor o igual a n.

Corolario. Si A es una matriz nilpotente en Mn(F), entonces su traza, su determinante y cualquier eigenvalor son todos iguales a cero.

Más adelante…

En esta entrada definimos a las matrices y transformaciones nilpotentes. También enunciamos algunas de sus propiedades. En la siguiente entrada enunciaremos nuestra primer versión del teorema de Jordan, en donde nos enfocaremos únicamente en lo que nos dice para las matrices nilpotentes. Esto servirá más adelante como uno de los peldaños que usaremos para demostrar el teorema de Jordan en general.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz nilpotente de índice 2 en M7(R). En general, para cualquier entero positivo n y cualquier entero k con 1kn, da una forma de construir una matriz nilpotente de índice n en Mn(R).
  2. Encuentra una matriz con determinante cero y que no sea una matriz nilpotente. Encuentra una matriz con traza cero y que no sea una matriz nilpotente.
  3. Sea V un espacio vectorial de dimensión finita n. Demuestra que las siguientes afirmaciones son equivalentes:
    1. Una transformación T:VV es nilpotente de índice k.
    2. Alguna forma matricial de T es nilpotente de índice k.
    3. Todas las formas matriciales de T son nilpotentes de índice k.
    4. Tn es la transformación lineal 0.
  4. Demuestra los dos corolarios al final de la entrada. Como sugerencia para el segundo, recuerda que la traza, determinante y los eigenvalores de una matriz están muy relacionados con su polinomio característico.
  5. Prueba que la única matriz nilpotente diagonalizable en Mn(F) es On.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz A en Mn(F) tiene polinomio característico χA(x)=xn+an1xn1++a1x+a0. Como a0=det(A), si a0=0 entonces la matriz no es invertible. Supongamos entonces que a00. Por el teorema de Cayley-Hamilton tenemos que An+an1An1++a1A+a0In=On. De aquí podemos despejar la matriz identidad como sigue:

In=1a0(An+an1An1++a1A)=1a0(An1+an1An2++a1I)A.

Estos cálculos muestran que la inversa de A es la matriz 1a0(An1+an1An2++a1I).

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz A=(220010111). Su polinomio característico es λ32λ2λ+2. Usando la fórmula de arriba, tenemos que

A1=12(A22AI).

Necesitamos entonces A2, que es:

A2=(420010321).

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

A1=(12100101201).

Puedes verificar que en efecto esta es la inversa de A realizando la multiplicación correspondiente.

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si A es una matriz con entradas en los enteros y determinante 1 ó 1, entonces A1 tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor λ ya vimos que λ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor xλ en el polinomio mínimo para cada eigenvalor λ.

Ejemplo 1. Encontramos el polinomio mínimo de la siguiente matriz:

B=(204311002).

Una cuenta estándar muestra que el polinomio característico es (x2)2(x+1). El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor (x2) y un factor (x+1). Sólo hay dos polinomios con esas condiciones: (x2)(x+1) y (x2)2(x+1). Si (x2)(x+1) anula a B, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

(B2I3)(B+I3)=(004331000)(304301003)=(00120012000).

Así, (x2)(x+1) no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico (x2)2(x+1).

Ejemplo 2. Consideremos la matriz C=(300030003). Su polinomio característico es (x3)3. Así, su polinomio mínimo es x3, (x3)2 ó (x3)3. Nos damos cuenta rápidamente que x3 sí anula a la matriz pues A3I3=O3. De este modo, el polinomio mínimo es x3.

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en Mn(R) que son su propia inversa? La condición algebraica es A2=I2. Si el polinomio característico de A es x2+bx+c, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que O2=A2+bA+cI2=bA+(c+1)I2. De aquí tenemos un par de casos:

  • Si b0, podemos despejar a A como A=c+1bI2, es decir A debe ser un múltiplo de la identidad. Simplificando la notación, A=xI2. Así, la condición A2=I2 se convierte en x2I2=I2, de donde x2=1 y por lo tanto x=±1. Esto nos da las soluciones A=I2 y A=I2.
  • Si b=0, entonces O2=(c+1)I2, de donde c=1. De este modo, el polinomio característico es x21=(x+1)(x1). Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz (1001), y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz (3100030000210002).
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: (011112221).
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es 1 ó 1.
  4. ¿Cómo son todas las matrices en M2(R) tales que A2=A?
  5. ¿Cómo son todas las matrices en M3(R) de determinante 0 tales que A3=O3?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Ecuaciones Diferenciales I: Valores y vectores propios para resolver sistemas lineales

Por Omar González Franco

En la vida real, te lo aseguro, no hay algo como el álgebra.
– Fran Lebowitz

Introducción

Ya hemos dado inicio con el desarrollo de métodos de resolución de sistemas lineales de primer orden. En la entrada anterior desarrollamos el método de eliminación de variables que, a pesar de ser muy limitado, es un método sencillo y práctico para resolver sistemas con dos ecuaciones diferenciales lineales de primer orden.

Debido a que un sistema lineal puede ser visto como una ecuación matricial los resultados de álgebra lineal sobre valores y vectores propios de matrices pueden ser aplicados aquí. En esta entrada daremos un breve repaso sobre estos conceptos y veremos cómo es que estos resultados nos pueden ayudar a determinar la solución general de algunos sistemas de ecuaciones diferenciales.

La teoría que desarrollaremos a continuación es aplicable a sistemas lineales homogéneos con coeficientes constantes.

Sistemas lineales homogéneos

Un sistema lineal homogéneo con coeficientes constantes es de la forma

y1(t)=a11y1+a12y2++a1nyny2(t)=a21y1+a22y2++a2nyn(1)yn(t)=an1y1+an2y2++annyn

Si A es la matriz de n×n con componentes constantes

(2)A=(a11a12a1na21a22a2nan1an2ann)

entonces el sistema lineal a resolver es

(3)Y=AY

En la segunda entrada de esta unidad vimos que la solución general del sistema lineal homogéneo

Y=(110110003)Y

es

Y(t)=c1(110)e0t+c2(110)e2t+c3(001)e3t

Y en la entrada anterior vimos que la solución del sistema lineal homogéneo

Y=(4121)Y

es

Y(t)=c1(12)e2t+c2(11)e3t

Aunque para el primer caso aún no sabemos cómo obtener esa solución lo que sabemos es que efectivamente corresponde a la solución general del sistema homogéneo. Notemos que cada vector solución es de la forma

Yi=(k1k2k3)eλit,i=1,2,3

donde ki y λi, i=1,2,3, son constantes. Lo mismo para el segundo caso, con ki, λi, i=1,2, constantes. Esta particularidad nos hace preguntarnos si siempre es posible hallar una solución de la forma

(4)Y(t)=(k1k2kn)eλt=Keλt

como solución general del sistema lineal (3).

La respuesta es que sí, pero antes de continuar con nuestro desarrollo nos parece pertinente repasar brevemente algunos conceptos de Álgebra Lineal, en particular el de valores y vectores propios.

Valores y vectores propios

Sea T:VW una transformación lineal, en álgebra lineal muchas veces resulta útil encontrar un vector v en el espacio vectorial V tal que Tv y v sean paralelos, es decir, se busca un vector v y un escalar λ, tal que

(5)Tv=λv

Recordemos que si v0 y λ satisfacen la ecuación (5), entonces λ se denomina un valor característico o valor propio de T y v un vector característico o vector propio de T correspondiente al valor propio λ.

También recordemos que si V tiene dimensión finita, entonces la transformación T se puede representar por una matriz AT, de manera que se pueden definir los valores y vectores propios de esta matriz.

Denotaremos con Mn×n al conjunto de todas las matrices cuadradas de n×n con componentes reales y constantes.

Como nota interesante, los valores y vectores propios también son conocidos como valores y vectores característicos o eigenvalores y eigenvectores, donde el término eigen es un término alemán que significa propio. En este curso los llamaremos valores y vectores propios.

Recordemos nuevamente el concepto de matriz inversa.

Para el caso especial A=I, con I la matriz identidad, se tiene que para cualquier vector vV

(8)Av=Iv=v

Así, el único valor propio de A es 1 y todo v0V es un vector propio de I.

Otra observación interesante es que cualquier múltiplo de un vector propio de A es también un vector propio de A, con el mismo valor propio.

(9)A(cv)=cAv=cλv=λ(cv)

Ecuación característica

Supongamos que λ es un valor propio de A, entonces existe un vector diferente de cero

v=(v1v2vn)0

tal que

(10)Av=λv=λIv

Reescribiendo esto, se tiene

(11)(AλI)v=0

Si A es una matriz de n×n, la ecuación anterior corresponde a un sistema homogéneo de n ecuaciones con las incógnitas v1,v2,,vn. Como se ha supuesto que v0, entonces el sistema no tiene solución trivial y por tanto el determinante de (11) debe ser cero.

(12)|AλI|=0

De manera equivalente, si ocurre que |AλI|0, entonces la única solución a (11) es la trivial v=0, lo que significa que λ no es un valor propio de A.

Estos resultados quedan establecidos en el siguiente teorema.

La relación (13) es muy importante, tanto que merece nombres particulares.

El polinomio P(λ) es del mismo grado que el número de filas y columnas de la matriz A. Si AMn×n, entonces P(λ) es un polinomio de grado n en λ. Por ejemplo, si

(14)A=(abcd)

entonces,

(15)AλI=(abcd)(λ00λ)=(aλbcdλ)

y

P(λ)=|AλI|=(aλ)(dλ)bc(16)=λ2(a+d)λ+(adbc)

La matriz es de 2×2 y el polinomio característico es un polinomio de grado 2.

El teorema fundamental del álgebra nos dice que cualquier polinomio de grado n con coeficientes reales o complejos tiene exactamente n raíces contando multiplicidades y dado que cualquier valor propio de A es una raíz de la ecuación característica de A, se concluye que, contando multiplicidades, toda matriz AMn×n tiene exactamente n valores propios.

Realicemos dos ejemplos sencillos en donde determinemos los valores y vectores propios de una matriz. Uno en donde los valores propios sean distintos (con multiplicidad 1) y uno en donde los valores propios sean números complejos.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

A=(811642083)

Solución: De acuerdo a (13), determinemos la ecuación característica.

|81λ1642083λ|=(81λ)(83λ)16(420)=0

Reordenando obtenemos que la ecuación característica es

λ22λ3=0

y el polinomio característico es

P(λ)=λ22λ3

Resolviendo para λ se obtienen las raíces λ1=1 y λ2=3. Para obtener los vectores propios buscamos un vector v0, tal que se cumpla (11) para cada valor propio λ. Comencemos con λ1.

Caso 1: λ1=1.

(81(1)1642083(1))(v1v2)=(801642084)(v1v2)=(00)

Este resultado lo podemos escribir como las siguientes dos ecuaciones.

80v1+16v2=0420v1+84v2=0

Que en realidad corresponden a una sola.

5v1+v2=0v2=5v1

Si elegimos v1=1, entonces v2=5, así el primer vector propio es

v1=(15)

Caso 2: λ2=3.

(81316420833)(v1v2)=(841642080)(v1v2)=(00)

La ecuación que se obtiene es

21v1+4v2=0v2=214v1

Por conveniencia elegimos v1=4, entonces v2=21, así

v2=(421)

En conclusión, los valores y vectores propios de la matriz A son λ1=1, λ2=3, v1=(15) y v2=(421), respectivamente.

◻

Realicemos el segundo ejemplo.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

A=(2152)

Solución: Determinemos la ecuación característica.

|2λ152λ|=(2λ)(2λ)+5=0

La ecuación característica es

λ2+1=0

De donde λ1=i y λ2=i. Determinemos los vectores propios.

Caso 1: λ1=i.

(2i152i)(v1v2)=(00)

Las ecuaciones que se obtienen son

(2i)v1v2=05v1(2+i)v2=0

Resolviendo el sistema se obtiene que v1=2+i y v2=5, así

v1=(2+i5)

Caso 2: λ2=i

(2+i152+i)(v1v2)=(00)

Las ecuaciones que se obtienen son

(2+i)v1v2=05v1+(2+i)v2=0

Resolviendo el sistema se obtiene que v1=2i y v2=5, así

v2=(2i5)

◻

En caso de requerir conocer más a fondo sobre el algoritmo que llevamos a cabo para obtener los valores y vectores propios de una matriz se recomienda revisar directamente en el curso de Álgebra Lineal I. Recordemos que aquí sólo estamos haciendo un breve repaso.

Para concluir con nuestro repaso, enunciemos un teorema de suma importancia que nos será de utilidad mas adelante. Haremos la demostración por inducción.

Demostración: Como el caso m=1 se trata de un solo vector es evidente que se satisface el teorema, hagamos el caso m=2, para ello consideremos la combinación lineal

(17)c1v1+c2v2=0

Multipliquemos ambos lados de la ecuación por la matriz A.

(18)c1Av1+c2Av2=0

Como Avi=λivi, para i=1,2, entonces

(19)c1λ1v1+c2λ2v2=0

A la ecuación (17) la multiplicamos por λ1 y la restamos de la ecuación (19).

(c1λ1v1+c2λ2v2)(c1λ1v1c2λ1v2)=0

que se reduce a

(20)c2(λ2λ1)v2=0

Como v20 por definición de vector característico y por hipótesis λ1λ2, entonces se concluye que c2=0, sustituyendo en (17) se ve que c1=0, por tanto se cumple el teorema para m=2, es decir, v1 y v2 son linealmente independientes.

Ahora supongamos que el teorema es cierto para m=n, es decir, cualquier conjunto de n vectores propios de A con valores propios diferentes es linealmente independiente. Hay que demostrar que cualquier conjunto de n+1 vectores propios de A con valores propios diferentes es también linealmente independiente. La demostración sigue el mismo procedimiento que como lo hicimos para m=2, consideremos la siguiente combinación lineal.

(21)c1v1+c2v2++cn+1vn+1=0

Multipliquemos por A en ambos lados.

(22)c1Av1+c2Av2++cn+1Avn+1=0

Aplicando Avi=λiv1 para i=1,2,3,,n+1, se tiene

(23)c1λ1v1+c2λ2v2++cn+1λn+1vn+1=0

Si se multiplica ambos lados de la ecuación (21) por λ1 y se resta de (23), se obtiene

(24)c2(λ2λ1)v2+c3(λ3λ1)v3++cn+1(λn+1λ1)vn+1=0

Pero v2,v3,,vn+1 son vectores propios de A con valores propios distintos λ2,λ3,,λn+1, respectivamente. Por hipótesis de inducción, los vectores son linealmente independientes, así que

c2(λ2λ1)=0,c3(λ3λ1)=0,,cn+1(λn+1λ1)=0

Como los valores propios son distintos entre sí, entonces necesariamente

c2=c3==cn+1=0

Con este resultado la ecuación (21) obliga a que c1 sea cero. Por lo tanto, v1,v2,v3,,vn+1 son linealmente independientes. De esta manera queda demostrado el teorema.

◻

En conclusión, vectores propios correspondientes a valores propios distintos son linealmente independientes.

Con este breve repaso en mente regresemos a los sistemas de ecuaciones diferenciales.

Valores y vectores propios en sistemas de ecuaciones diferenciales

Ahora que hemos recordado las definiciones de valores y vectores propios y algunas propiedades veamos cómo es que estos conceptos son útiles para resolver sistemas lineales de primer orden homogéneos.

Al inicio de la entrada decíamos que es posible encontrar soluciones de la forma (4).

Y(t)=(k1k2kn)eλt=Keλt

Si derivamos este vector, se obtiene

(25)Y=Kλeλt

Sustituyamos en el sistema homogéneo Y=AY.

(26)Kλeλt=AKeλt

Si dividimos entre eλt y reordenamos, se tiene

AK=λK

o bien,

AKλK=0

Debido a que K=IK, con I la matriz identidad, la última expresión se puede escribir como

(27)(AλI)K=0

Si A es la matriz dada en (2), entonces la ecuación matricial (27) es equivalente a las n ecuaciones algebraicas simultáneas

(a11λ)k1+a12k2++a1nkn=0a21k1+(a22λ)k2++a2nkn=0(28)an1k1+an2k2++(annλ)kn=0

Si queremos encontrar soluciones Y(t) como (4), necesitamos primero encontrar una solución no trivial del sistema (28), de lo visto en nuestro repaso de valores y vectores propios, si la solución debe ser la no trivial, entonces se requiere que el determinante sea igual a cero, esto es

(29)|AλI|=0

Esta ecuación polinomial corresponde a la ecuación característica de la matriz A. Sus soluciones son los valores propios de A. Una solución K0 de (27) correspondiente a un valor propio λ es el vector propio de A.

La ecuación (29) al tratarse de una ecuación polinomial existen tres casos posibles, cuando los valores propios son reales y distintos, cuando son repetidos y cuando son complejos. Para cada caso existe una forma particular de la solución de (3).

Para concluir con esta entrada demostremos un resultado que establece la forma de la solución general del sistema lineal (3).

Demostración: Definamos las funciones

Y1(t)=eλ1tK1,Y2(t)=eλ2tK2,,Yn(t)=eλntKn

Notemos que para la i-ésima función Yi(t)=eλitKi se cumple lo siguiente.

(32)Yi=eλit(λiKi)=eλit(AKi)=AYi

En donde se hecho uso de la relación (6). Esto nos muestra que Yi(t) es solución del sistema Y=AY para cada i=1,2,,n. Basta mostrar que el Wronskiano es distinto de cero para probar que las funciones definidas forman un conjunto fundamental de soluciones. El Wronskiano está dado por

W(Y1,Y2,,Yn)=|eλ1tK1eλ2tK2eλntKn|(33)=e(λ1+λ2++λn)t|K1K2Kn|

Como la exponencial nunca se hace cero y por hipótesis los vectores K1,K2,,Kn son linealmente independientes, es decir, el determinante nunca es cero

(34)|K1K2Kn|0

entonces el Wronskiano es distinto de cero. Por el teorema de solución general de un sistema homogéneo concluimos que el conjunto

S={eλ1tK1,eλ2tK2,,eλntKn}

es un conjunto fundamental de soluciones del sistema Y=AY y la solución general es

Y(t)=c1eλ1tK1+c2eλ2tK2++cneλntKn

con c1,c2,,cn constantes arbitrarias.

◻

En la siguiente entrada aplicaremos todo esto en el desarrollo de un nuevo método de resolución de sistemas lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener los valores y vectores propios de las siguientes matrices.
  • A=(622019262)
  • A=(250520001)
  1. Demostrar que para cualesquiera números reales α y β, la matriz A=(αββα) tiene valores propios α±iβ.
  1. Suponer que la matriz A tiene valores propios λ1,λ2,,λn. Demostrar lo siguiente:
  • Demostrar que A1 (la matriz inversa de A) existe si y sólo si λ1,λ2,,λn son todos distintos de cero.
  • Si A1 existe, demostrar que los valores propios de A1 son 1λ1,1λ2,,1λn.
  1. Suponer que la matriz A tiene valores propios λ1,λ2,,λn. Demostrar que la matriz AαI tiene valores propios λ1α,λ2α,,λnα.
  1. Suponer que la matriz A tiene valores propios λ1,λ2,,λn. Demostrar que los valores propios de Am son λ1m,λ2m,,λnm para m=1,2,3,.

    Recuerda que para calcular la potencia de una matriz, debemos multiplicar la matriz por ella misma tantas veces como indique el exponente, por ejemplo
    A5=AAAAA

Más adelante…

Un nuevo método para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas con coeficientes constantes es el que estamos por desarrollar. Dicho método involucra obtener los valores y vectores propios de la matriz que conforma al sistema lineal, es por ello que hemos dedicado esta entrada en hacer un breve repaso sobre estos conceptos y hemos visto cómo es que se ven involucrados en la resolución de estos sistemas.

Como vimos, los valores propios se obtienen de encontrar las raíces del polinomio característico lo que significa que se pueden tener raíces reales y distintas, raíces con multiplicidad mayor a uno, es decir, que se repiten o raíces complejas, para cada caso existe una forma distinta de obtener la solución de los sistemas lineales homogéneos Y=AY.

En las próximas tres entradas estudiaremos cada caso. Comenzaremos con el caso en el que los valores propios del sistema son todos reales y distintos entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»