Archivo de la etiqueta: matrices similares

Álgebra Lineal II: Aplicaciones de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores demostramos que cualquier matriz (o transformación lineal) tiene una y sólo una forma canónica de Jordan. Además, explicamos cómo se puede obtener siguiendo un procedimiento específico. Para terminar nuestro curso, platicaremos de algunas de las consecuencias del teorema de Jordan.

Clasificación de matrices por similaridad

Una pregunta que aún no hemos podido responder es la siguiente: si nos dan dos matrices A y B en Mn(F), ¿son similares? Con la maquinaria desarrollada hasta ahora podemos dar una muy buena respuesta.

Proposición. Sean A y B matrices en Mn(F) tales que el polinomio característico de A se divide en F. Entonces, A y B son similares si y sólo si se cumplen las siguientes dos cosas:

  • El polinomio característico de B también se divide en Mn(F) y
  • A y B tienen la misma forma canónica de Jordan.

Demostración. Sea J la forma canónica de Jordan de A.

Si A y B son similares, como A es similar a J, se tiene que B es similar a J. Entonces, B tiene el mismo polinomio característico que A y por lo tanto se divide en F. Además, como J es similar a B, entonces por la unicidad de la forma canónica de Jordan, precisamente J es la forma canónica de Jordan de B. Esto es un lado de nuestra proposición.

Supongamos ahora que el polinomio característico de B también se divide en Mn(F) y que la forma canónica de Jordan de B también es J. Por transitividad de similaridad, A es similar a B.

◻

Veamos un ejemplo de cómo usar esto en un problema específico.

Problema. Encuentra dos matrices en M2(R) que tengan como polinomio característico a x23x+2, pero que no sean similares.

Solución. Las matrices A=(1002) y B=(1102) ya están en forma canónica de Jordan y son distintas, así que por la proposición anterior no pueden ser similares. Además, por ser triangulares superiores, en ambos casos el polinomio característico es (X1)(X2)=X23X+2.

El problema anterior fue sumamente sencillo. Piensa en lo difícil que sería argumentar con cuentas de producto de matrices que no hay ninguna matriz PM2(R) tal que A=P1BP.

Forma canónica de Jordan «para cualquier matriz»

Como en C[X] todos los polinomios se dividen, entonces tenemos el siguiente corolario del teorema de Jordan.

Corolario. Toda matriz en Mn(C) tiene una única forma canónica de Jordan.

Aquí C es muy especial pues es un campo completo, es decir, en el cual cualquier polinomio no constante tiene por lo menos una raíz. En general esto no es cierto, y es muy fácil dar ejemplos: x22 no tiene raíces en Q y x2+1 no tiene raíces en R.

Sin embargo, existe toda un área del álgebra llamada teoría de campos en donde se puede hablar de extensiones de campos. Un ejemplo de extensión de campo es que C es una extensión de R pues podemos encontrar «una copia de» R dentro de C (fijando la parte imaginaria igual a cero).

Un resultado importante de teoría de campos es el siguiente:

Teorema. Sea F un campo y P(X) un polinomio en F[X]. Existe una extensión de campo G de F tal que P(X) se divide en G.

¿Puedes notar la consecuencia que esto trae para nuestra teoría de álgebra lineal? Para cualquier matriz en Mn(F), podemos considerar a su polinomio característico y encontrar campo G que extiende a F en donde el polinomio se divide. Por el teorema de Jordan, tendríamos entonces lo siguiente.

Corolario. Sea A una matriz en Mn(F). Entonces, A tiene una forma canónica de Jordan en un campo G que extiende a F.

Por supuesto, la matriz P invertible que lleva A a su forma canónica quizás sea una matriz en Mn(G).

Toda matriz compleja es similar a su transpuesta

Ya demostramos que para cualquier matriz A en Mn(F) se cumple que χA(X)=χ(AT)(X). Esto implica que A y su transpuesta AT tienen los mismos eigenvalores, traza y determinante. También vimos que μA(X)=μAT(X). Las matrices A y AT comparten muchas propiedades. ¿Será que siempre son similares? A continuación desarrollamos un poco de teoría para resolver esto en el caso de los complejos.

Proposición. Sea Jλ,n un bloque de Jordan en Mn(F). Entonces, Jλ,n y Jλ,nT son similares.

Demostración. Para bloques de Jordan, podemos dar explícitamente la matriz de similitud. Es la siguiente matriz, con unos en la diagonal no principal:

P=(0001001001001000).

Esta matriz es invertible, su inversa es ella misma y cumple lo siguiente (ver ejercicios). Si A es una matriz en Mn(F), entonces:

  • Si A tiene columnas C1,,Cn, entonces AP tiene columnas Cn,,C1.
  • Si A tiene filas R1,,Rn, entonces PA tiene filas Rn,,R1.

Para los bloques de Jordan, si revertimos el orden de las filas y luego el de las columnas, llegamos a la transpuesta. Así, Jλ,nT=PJλ,nP es la similitud entre las matrices dadas.

◻

La prueba anterior no funciona en general pues para matrices arbitrarias no pasa que AT=PAP (hay un contraejemplo en los ejercicios). Para probar lo que buscamos, hay que usar la forma canónica de Jordan.

Teorema. En Mn(C), toda matriz es similar a su transpuesta.

Demostración. Sea A una matriz en Mn(C). Como en C todo polinomio se divide, tanto A como AT tienen forma canónica de Jordan. Digamos que la forma canónica de Jordan es

(1)J=(Jλ1,k10000Jλ2,k20000Jλ3,k30000Jλd,kd).

Si P es la matriz de similitud, tenemos que A=P1JP y al transponer obtenemos que:

AT=PT(Jλ1,k1T0000Jλ2,k2T0000Jλ3,k3T0000Jλd,kdT)(PT)1.

Como por la proposición anterior cada bloque de Jordan es similar a su transpuesta, existen matrices invertibles Q1,,Qd tales Jλi,kiT=Qi1Jλi,kiQi para todo i{1,,d}. Pero entonces al definir Q como la matriz de bloques

Q=(Q1000Q20000Qd),

obtenemos la similaridad

AT=PTQ1(Jλ1,k10000Jλ2,k20000Jλ3,k30000Jλd,kd)Q(PT)1.

Así, A y AT tienen la misma forma canónica de Jordan y por lo tanto son matrices similares.

◻

Más adelante…

¡Hemos terminado el curso de Álgebra Lineal II! Por supuesto, hay muchos temas de Álgebra Lineal adicionales que uno podría estudiar.

Un tema conectado con lo que hemos platicado es qué hacer con las matrices cuyo polinomio característico no se divide en el campo con el que estamos trabajando. Por ejemplo si tenemos una matriz A en Mn(R) cuyo polinomio característico no se divide, una opción es pensarla como matriz en Mn(C) y ahí encontrar su forma canónica de Jordan. ¿Pero si queremos quedarnos en R? Sí hay resultados que llevan una matriz a algo así como una «forma canónica» en R muy cercana a la forma canónica de Jordan.

Otro posible camino es profundizar en la pregunta de cuándo dos matrices en Mn(F) son similares. Si tienen forma canónica de Jordan, ya dimos una buena caracterización en esta entrada. En los ejercicios encontrarás otra. Pero, ¿y si no tienen forma canónica de Jordan? Podríamos extender el campo a otro campo G y comprar las formas canónicas ahí, pero en caso de existir la similaridad, sólo la tendremos en Mn(G). Existe otra manera de expresar a una matriz en forma canónica, que se llama la forma canónica de Frobenius y precisamente está pensada para determinar si dos matrices son similares sin que sea necesario encontrar las raíces del polinomio característico, ni extender el campo.

Estos son sólo dos ejemplos de que la teoría de álgebra lineal es muy extensa. En caso de que estés interesado, hay mucho más por aprender.

Tarea moral

  1. Sea A una matriz en Mn(F) y tomemos P en Mn(F) la matriz
    P=(0001001001001000).
    • Demuestra que si A tiene columnas C1,,Cn, entonces AP tiene columnas Cn,,C1.
    • Demuestra que si A tiene filas R1,,R1, entonces PA tiene filas Rn,,Rn.
    • Concluye con cualquiera de los incisos anteriores que P es invertible y su inversa es ella misma.
    • Tomemos explicitamente n=2 y A=(1234). Encuentra explícitamente PAP. ¿Es AT?
  2. ¿Cuál es la máxima cantidad de matrices que se pueden dar en M5(C) de manera que cada una de ellas tenga polinomio característico x2(x2+1)(x+3) y tales que no haya dos de ellas que sean similares entre sí.
  3. Sea A una matriz en Mn(R) tal que su polinomio característico se divide en R, con forma canónica de Jordan J. Sea P(X) un polinomio en R[X].
    • Demuestra que el polinomio característico de P(A) se divide en R.
    • La forma canónica de Jordan de P(A) no necesariamente será P(J) pues puede que el polinomio altere el orden de los eigenvalores pero, ¿cómo se obtiene la forma canónica de P(A) a partir de J?
  4. Sean A y B matrices en Mn(F) cuyo polinomio característico se divide en F. Muestra que A y B son similares si y sólo si para cualquier polinomio P(X) en F[X] se tiene que rango(P(A))=rango(P(B)).
  5. Investiga sobre la forma canónica de Frobenius y sobre la variante a la forma canónica de Jordan restringida a R.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Clasificación de matrices por similaridad

Por Elizabeth Chalnique Ríos Alvarado

Introducción

En las notas anteriores hemos desarrollado el Teorema de Jordan, y ahora veremos cómo podemos clasificar matrices por similaridad.

Sección

Supongamos que A es una matriz similar a (Jk1(λ1)000Jk2(λ2)000Jkd(λd))

Entonces el polinomio característico de A es χA(X)=i=1dχJki(λi)(X).

Ahora, dado que Jn es nilpotente tenemos χJki(X)=Xn y así χJn(λ)(X)=(Xλ)n.

Se sigue que χA(X)=i=1d(Xλi)ki y así necesariamente λ1,,λd son todos eigenvalores de A. Nota que no asumimos que λ1,,λd sean distintos a pares, por lo que no podemos concluir de la igualdad anterior que k1,,kd sean las multiplicidades algebráicas de los eigenvalores de A. Esto no es verdad en general: varios bloques de Jordan correspondientes a un dado eigenvalor pueden aparecer. El problema de la unicidad se resuelve completamente por el siguiente:

Teorema: Supongamos que una matriz AMn(F) es similar a (Jk1(λ1)000Jk2(λ2)000Jkd(λd)) para algunos enteros positivos k1,,kd que suman n y algunas λ1,,λdF. Entonces

  1. Cada λi es un eigenvalor de A.
  2. Para cada eigenvalor λ de A y cada entero positivo m, el número de bloques de Jordan Jm(λ) entre Jk1(λ1),,Jkd(λd) is Nm(λ)=rango(AλIn)m+12rango(AλIn)m+rango(AλIn)m1 y depende sólo en la clase de similaridad de A.

Demostración. Ya vimos el inciso 1. La prueba del inciso 2 es muy similar a la solución del Problema __. Más precisamente, sea B=AλIn y observa que Bm es similar a ((Jk1(λ1)λIk1)m000(Jk2(λ2)λIk2)m000(Jkd(λd)λIkd)m), por lo que rango(Bm)=i=1drango(Jki(λi)λIki)m.

Ahora, el rango de (Jn(λ)μIn)m es

  • n si λμ, como en este caso Jn(λ)μIn=Jn+(λμ)In es invertible,
  • nm para λ=μ y mn, como se sigue del Problema __.
  • 0 para λ=μ y m>n, dado que Jnn=On.

De ahí, si Nm(λ) es el número de bloques de Jordan Jm(λ) entre Jk1(λ1),,Jkd(λd), entonces rango(Bm)=λi=λkim(kim)+λiλki, luego sustrayendo esas igualdades para m1 y m se tiene que rango(Bm1)rango(Bm)=λi=λkim1 y finalmente rango(Bm1)2rango(Bm)+rango(Bm+1)=(rango(Bm1)rango(Bm))(rango(Bm)rango(Bm+1))=λi=λki=m1=Nm(λ) como queríamos.

◻

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. ¿Cuáles son las posibles formas canónicas de Jordan de una matriz cuyo polinomio característico es (X1)(X2)2?
  2. Considera una matriz AM6(C)derango4cuyopolinomiomínimoesX(X-1)(X-2)^{2}$.
    1. ¿Cuáles son los eigenvalores de A?
    2. ¿A es diagonalizable?
    3. ¿Cuáles son las posibles formas canónicas de Jordan de A?

Más adelante…

En la siguiente nota veremos algunos ejemplos de cómo funciona todo esto.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Introducción a forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta última unidad usaremos las herramientas desarrolladas hasta ahora para enunciar y demostrar uno de los teoremas más hermosos y útiles en álgebra lineal: el teorema de la forma canónica de Jordan. A grandes rasgos, lo que nos dice este teorema es que cualquier matriz prácticamente se puede diagonalizar. En esta primera entrada hablaremos un poco de qué puedes esperar en el transcurso de la unidad, aunque en un orden algo distinto que te ayudará a entender mejor la motivación de presentar la teoría cómo vendrá en las siguientes notas.

Bloques de Jordan

Un bloque de Jordan de tamaño k y eigenvalor λ es una matriz en Mk(F) que se obtiene de comenzar con λIk y agregar encima de la diagonal principal puros unos. Queda algo así:

Jλ,k=(λ10000λ10000λ00000λ10000λ).

Puedes notar que esto es prácticamente una matriz diagonal, a excepción de la diagonal de unos que queda por encima de la diagonal principal. Esto debería sugerirte que los bloques de Jordan son casi tan amigables como las matrices diagonales. Como veremos en las siguientes entradas, es muy fácil calcularles su traza, determinante, polinomio característico, polinomio mínimo, eigenvalores, eigenvectores, etc.

A partir de los bloques de Jordan podemos formar matrices de bloques de Jordan pegando varios bloques de Jordan en una diagonal para obtener una matriz del siguiente estilo:

(2)(Jλ1,k10000Jλ2,k20000Jλ3,k30000Jλd,kd).

Aquí pusimos muchos ceros, pero en el fondo cada uno de estos ceros son una matriz de ceros. Por ejemplo, si tenemos los tres bloques de Jordan J3,2, J2,1 y J5,3 y pegamos estos bloques, obtenemos la siguiente matriz de bloques:

(310000030000002000000510000051000005).

Recuerda que las líneas que dibujamos en una matriz de bloques son simplemente ayuda visual. Estas matrices también son prácticamente diagonales y, como te imaginarás, también es fácil encontrar muchas de sus propiedades.

Teorema de la forma canónica de Jordan

Si recuerdas, una de las motivaciones fuertes para que nos interesara diagonalizar una matriz A es que la matriz diagonal D semejante comparte muchas propiedades con A, pero D es mucho más fácil de entender. A veces no podremos encontrar una matriz diagonal semejante a A, pero lo que nos dice el teorema de formas canónicas de Jordan es que prácticamente siempre podremos encontrar una matriz de bloques de Jordan semejante a A.

Teorema. Sea AMn(F) una matriz tal que su polinomio característico χA(X) se divide sobre F. Entonces, A es similar a una matriz de bloques de Jordan, es decir, una matriz como en \refeq{eq:Jordan}.

En realidad, cuando enunciemos el teorema lo haremos de manera más formal, y hasta diremos en qué sentido la forma canónica de Jordan es única.

¿Por qué decimos que entonces prácticamente siempre podemos diagonalizar una matriz? En cursos más avanzados se muestra que sin importar en qué campo F estemos trabajando, siempre podemos extender el campo F lo suficiente como para que cualquier polinomio se divida sobre una extensión G de F. En este campo extendido, cualquier matriz en Mn(F) se puede diagonalizar.

Transformaciones y matrices nilpotentes

Para demostrar el teorema de Jordan, primero tendremos que enunciarlo y demostrarlo para una clase muy especial de matrices: las nilpotentes. Ya hemos hablado un poco de estas matrices en ejercicios particulares y algunos problemas de la tarea moral. Pero si se te pasó, una matriz A en Mn(F) es nilpotente cuando se puede encontrar un expontente m tal que Am=On. De manera similar, si T es una transformación lineal, diremos que es nilpotente cuando Tm=Z para algún exponente m, donde Z es la transformación lineal trivial que manda todo elemento al 0. Recuerda que aquí el exponente indica cuántas veces se compone T consigo mismo. Como te imaginarás, T será nilpotente si y sólo si alguna de sus formas matriciales lo es.

Las matrices nilpotentes servirán como nuestros cimientos para demostrar el teorema de la forma canónica de Jordán. Es sencillo ver que los bloques de Jordan de la forma J0,k son nilpotentes. También es sencillo ver que cualquier matriz de bloques de Jordan con puros eigenvalores iguales a cero es nilpotente. Nuestra primera versión del teorema de la forma canónica de Jordán nos dará algo así como un «regreso» de esta afirmación. El siguiente teorema es una versión «light» de lo que demostraremos.

Teorema. Sea AMn(F) una matriz nilpotente. Entonces, A es similar a una matriz de bloques de Jordan, todos ellos con eigenvalor 0.

La demostración será muy bonita, y hará uso de la teoría de dualidad de Álgebra Lineal I. Una vez que demostremos esta versión, la combinaremos con el teorema de Cayley-Hamilton de la Unidad 1 para obtener el teorema general.

Aplicaciones del teorema de Jordan

Si conocemos la forma canónica de Jordan de una matriz, podemos encontrar a partir de ella fácilmente muchas propiedades, como la traza, determinante, etc. Además de estas aplicaciones «de cálculo de propiedades», el teorema de la forma canónica de Jordán nos permitirá decir exactamente cuándo dos matrices son similares. En particular, veremos que cualquier matriz A es similar a su transpuesta.

Tarea moral

En esta ocasión la tarea moral consistirá en un repaso de contenido anterior tanto de Álgebra Lineal I como Álgebra Lineal II, para que cuentes con todas las herramientas necesarias para aprovechar esta última unidad.

  1. Haz un repaso de la teoría de Matrices de bloques, para recordar a qué se refiere esta notación y cómo se pueden hacer operaciones cuando las matrices están escritas por bloques.
  2. Revisa la entrada de Matrices de cambio de base, para recordar por qué dos matrices similares en el fondo representan a la misma transformación lineal, pero en distintas bases.
  3. Repasa la teoría básica de dualidad en espacios vectoriales. Puedes comenzar con la entrada de Introducción a espacio dual. Concretamente, tendrás que recordar por lo menos hasta la teoría de Ortogonalidad y espacio ortogonal.
  4. Recuerda todo lo que podemos decir de las transformaciones triangularizables, revisando la entrada de Triangularizar y descomposición de Schur, y compara los resultados de ahí con lo que esperamos obtener sobre forma canónica de Jordan. ¿Cuál teorema dice algo más fuerte?
  5. Vuelve a leer todo el contenido relacionado con el teorema de Cayley-Hamilton para recordar no sólo qué dice, sino cómo está relacionado con los eigenespacios asociados a una transformación lineal. Puedes empezar con la entrada de Introducción al teorema de Cayley-Hamilton.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Triangularizar y descomposición de Schur

Por Julio Sampietro

Introducción

En esta entrada estudiaremos el concepto de triangularizar matrices. Esto simplemente quiere decir encontrar una base respecto a la cual podamos escribir a nuestra matriz como una matriz triangular superior. Esto tiene muchas ventajas, puesto que las matrices triangulares superiores son relativamente fáciles de calcular. Como veremos, el concepto de triangularización está íntimamente ligado con los ceros de polinomios.

Matrices triangulares

Recordamos que una matriz A=[aij]Mn(F) se dice triangular superior si aij=0 siempre que i>j, es decir si todas las entradas por debajo de la diagonal son cero. Las matrices triangulares gozan de algunas propiedades que ya hemos explorado. Por ejemplo, sus valores propios son fácilmente calculables: ¡son precisamente las entradas de la diagonal! Más explícitamente su polinomio característico es exactamente

χA(X)=i=1n(Xaii).

Además forman un subespacio cerrado bajo multiplicación del espacio de todas las matrices. Puesto que son matrices ‘sencillas’, es deseable poder escribir alguna otra matriz como una matriz triangular, tal vez mediante un cambio de base: esto es precisamente triangularizar. Tenemos entonces la siguiente definición.

Definición. Diremos que una matriz es triangularizable si es similar a una matriz triangular superior.

Primero, necesitaremos de un par de conceptos sobre polinomios.

Polinomios y sus raíces

Definición. Un polinomio PF[X] se divide sobre F si es de la forma

P(X)=c(Xa1)(Xan)

para algunos escalares c,a1,,anF no necesariamente distintos.

Por ejemplo el polinomio X2+1 no se divide sobre R ya que sabemos que no tiene raíces reales. Sin embargo, el mismo polinomio si se divide sobre C: en efecto

X2+1=(Xi)(X+i).

Por otro lado, el polinomio X23X+2 si se divide sobre R, puesto que lo podemos escribir como

X23X+2=(X1)(X2).

Nota que el polinomio también se divide sobre C puesto que RC. De hecho, no existe ningún polinomio con coeficientes complejos que no se divida sobre C, este es un sorprendente resultado de Gauss:

Teorema (fundamental del Álgebra). Cualquier polinomio PC[X] se divide sobre C.

Este teorema también se enuncia diciendo que C es algebraícamente cerrado. Es decir, todo polinomio con coeficientes complejos tiene al menos una raíz compleja. Es un buen ejercicio verificar que ambas versiones son equivalentes.

Por lo que mencionamos al principio, el polinomio característico de una matriz triangular superior se divide sobre el campo. Como el polinomio de matrices similares es igual, se sigue que si una matriz es triangularizable, entonces su polinomio característico se divide sobre el campo.

Problema. Da un ejemplo de una matriz AM2(R) que no sea triangularizable en M2(R).

Solución. Puesto que el polinomio característico de una matriz triangularizable se divide sobre el campo, es suficiente con encontrar una matriz cuyo polinomio característico no se divida sobre R: por ejemplo X2+1. Enseguida proponemos la matriz

A=(0110).

Entonces χA(X)=X2+1, que ya aclaramos que no se divide sobre R. Por tanto A no es triangularizable.

Un teorema sobre triangularizar

Ya vimos que si A es una matriz triangularizable su polinomio característico se divide sobre el campo. El siguiente teorema nos dice que el converso también es cierto.

Teorema. Sea AMn(F). Las siguientes afirmaciones son equivalentes:

  1. El polinomio característico de A se divide sobre F.
  2. A es similar a una matriz triangular superior.

Demostración. La discusión previa ya nos mostró que 2 implica 1. Probaremos el converso por inducción sobre n. El resultado se cumple para n=1 (pues toda matriz es triangular superior), así que podemos asumir que n2 y que el resultado se cumple para n1.

Sea λF una raíz de χA. Nota que dicha raíz existe pues estamos suponiendo que χA se divide sobre F. También escogemos un vector no-cero v tal que Av=λv, es decir, un eigenvector asociado a λ. Como v0, podemos completar a una base v=v1,,vn de V=Fn. La matriz asociada a la transformación lineal T asociada a A se ve entonces de la forma

(λ0B)

para alguna BMn1(F). Entonces podemos encontrar una matriz de cambio de base (y por tanto invertible) P1 tal que

P1AP11=(λ0B).

Puesto que matrices similares comparten el mismo polinomio característico, tenemos que

χA(X)=χP1AP11(X)=(Xλ)χB(X).

Se sigue que χB se divide sobre el campo. Además, BMn1(F), por lo que podemos aplicar la hipótesis de inducción para afirmar que existe una matriz invertible QMn1(F) tal que QBQ1 es triangular superior. Luego definiendo

P2=(100Q),

se cumple no solo que P2 es invertible (¿por qué?) pero además que

P2(P1AP11)P21=(λ0QBQ1).

Notamos que esta última matriz es triangular superior, puesto que QBQ1 lo es. Esto completa la prueba.

◻

Un corolario importante

Combinando el teorema fundamental del álgebra junto con el teorema pasado obtenemos un corolario importante, conocido como el teorema de descomposición de Schur. Lo enunciamos como teorema.

Teorema (descomposición de Schur). Para cualquier matriz AMn(C) podemos encontrar una matriz invertible PMn(C) y una matriz triangular superior TMn(C) tal que A=PTP1. Por tanto toda matriz con entradas complejas es triangularizable.

Demostración. Por el teorema fundamental del álgebra, tenemos que χA se divide sobre C. Luego usando el teorema anterior concluimos que A es triangularizable.

◻

Más adelante…

En la próxima entrada veremos un concepto parecido a triangularizar pero más fuerte: diagonalizar, que consiste en llevar a una matriz a una matriz diagonal similar.

Tarea moral

A continuación presentamos algunos ejercicios que sirven para repasar los temas vistos en esta entrada.

  1. ¿Es la matriz
    A=(121322011)
    triangularizable sobre R?
  2. Encuentra una matriz traingular superior similar a la matriz
    (1232).
  3. Encuentra una matriz triangular superior similar a la matriz
    (100210321).
  4. ¿Por qué la matriz P2 construida en la demostración del segundo teorema es invertible?
  5. Demuestra que una matriz AMn(F) es nilpotente si y sólo si es similar a una matriz triangular superior con entradas cero en la diagonal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Propiedades del polinomio característico

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada continuamos con el estudio de eigenvalores y eigenvectores de matrices y trasformaciones lineales. Para ello, estudiaremos más a profundidad el polinomio característico.

Como recordatorio, en una entrada pasada demostramos que si A es una matriz en Mn(F), entonces la expresión det(λInA) es un polinomio en λ de grado n con coeficientes en F. A partir de ello, definimos el polinomio característico de A como χA(λ)=det(λInA).

En esta entrada probaremos algunas propiedades importantes del polinomio característico de matrices. Además, hablaremos de la multiplicidad algebraica de los eigenvalores. Finalmente enunciaremos sin demostración dos teoremas fundamentales en álgebra lineal: el teorema de caracterización de matrices diagonalizables y el teorema de Cayley-Hamilton.

Las raíces del polinomio característico son los eigenvalores

Ya vimos que las raíces del polinomio característico son los eigenvalores. Pero hay que tener cuidado. Deben ser las raíces que estén en el campo en el cual la matriz esté definida. Veamos un ejemplo más.

Problema. Encuentra el polinomio característico y los eigenvalores de la matriz (0100201007060030).

Solución. Debemos encontrar las raíces del polinomio dado por el siguiente determinante:
|λ1002λ1007λ6003λ|.

Haciendo expansión de Laplace en la primer columna, tenemos que este determinante es igual a

λ|λ107λ603λ|+2|1007λ603λ|.

Para calcular los determinantes de cada una de las matrices de 3×3 podemos aplicar la fórmula por diagonales para obtener:
λ|λ107λ603λ|=λ(λ318λ+7λ)=λ(λ311λ)=λ411λ2

y
2|1007λ603λ|=2(λ2+18)=2λ2+36.

Concluimos que el polinomio característico es
λ413λ2+36=(λ24)(λ29)=(λ+2)(λ2)(λ+3)(λ3).

De esta factorización, las raíces del polinomio (y por lo tanto los eigenvalores que buscamos) son 2,2,3,3.

Si quisiéramos encontrar un eigenvector para, por ejemplo, el eigenvalor 2, tenemos que encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo (2InA)X=0.

Propiedades del polinomio característico

Veamos ahora algunas propiedades importantes del polinomio característico. El primer resultado habla del polinomio característico de matrices triangulares superiores. Un resultado análogo se cumple para matrices inferiores, y su enunciado y demostración quedan como tarea moral.

Proposición. Si A=[aij] es una matriz triangular superior en Mn(F), entonces su polinomio característico es χA(λ)=i=1n(λaii).

Demostración. Como A es triangular superior, entonces λInA también, y sus entradas diagonales son precisamente λaii para i=1,,n. Como el determinante de una matriz triangular es el producto de sus entradas en la diagonal, tenemos que χA(λ)=i=1n(λaii).

◻

Como el polinomio característico es un determinante, podemos aprovechar otras propiedades de determinantes para obtener otros resultados.

Proposición. Una matriz y su transpuesta tienen el mismo polinomio característico.

Demostración. Sea A una matriz en Mn(F). Una matriz y su transpuesta tienen el mismo determinante. Además, transponer es una transformación lineal. De este modo:
χA(λ)=det(λInA)=det(t(λInA))=det(λ(tIn)tA)=det(λIntA)=χtA(λ).

◻

Ya antes habíamos mostrado que matrices similares tienen los mismos eigenvalores, pero que dos polinomios tengan las mismas raíces no necesariamente implica que sean iguales. Por ejemplo, los polinomios (x1)2(x+1)y(x+1)2(x1) tienen las mismas raíces, pero no son iguales.

De esta forma, el siguiente resultado es más fuerte de lo que ya habíamos demostrado antes.

Proposición. Sean A y P matrices en Mn(F) con P invertible. Entonces A y P1AP tienen el mismo polinomio característico.

Demostración. El resultado se sigue de la siguiente cadena de igualdades, en donde usamos que det(P)det(P1)=1 y que el determinante es multiplicativo:

χP1AP(λ)=det(P)χP1AP(λ)det(P)1=det(P)det(λInP1AP)det(P1)=det(P(λInP1AP)P1)=det(λPP1PP1APP1)=det(λInA)=χA(λ)

◻

Ten cuidado. El determinante es multiplicativo, pero el polinomio característico no es multiplicativo. Esto es evidente por el siguiente argumento. Si A y B son matrices en Mn(F), entonces χA(λ) y χB(λ) son cada uno polinomios de grado n, así que su producto es un polinomio de grado 2n, que por lo tanto no puede ser igual al polinomio característico χAB(λ) pues este es de grado n. Así mismo, χA2(λ) no es χA(λ)2.

Una última propiedad que nos interesa es mostrar que el determinante de una matriz y su traza aparecen en los coeficientes del polinomio característico.

Teorema. Sea A una matriz en Mn(F) y χA(λ) su polinomio característico. Entonces χA(λ) es de la forma λn(trA)λn1++(1)ndetA.

Demostración. Tenemos que mostrar tres cosas:

  • El polinomio χA es mónico, es decir, tiene coeficiente principal 1,
  • que el coeficiente del término de grado n1 es trA y
  • el coeficiente libre es (1)ndetA.

El coeficiente libre de un polinomio es su evaluación en cero. Usando la homogeneidad del determinante, dicho coeficiente es:
χA(0)=det(0InA)=det(A)=(1)ndet(A).

Esto muestra el tercer punto.

Para el coeficiente del término de grado n1 y el coeficiente principal analicemos con más detalle la fórmula del determinante
|λa11a12a1na21λa22a1nan1an2λann|
en términos de permutaciones.

Como discutimos anteriormente, la única forma de obtener un término de grado n es cuando elegimos a la permutación identidad. Pero esto también es cierto para términos de grado n1, pues si no elegimos a la identidad, entonces la permutación elige por lo menos dos entradas fuera de la diagonal, y entonces el grado del producto de entradas correspondiente es a lo más n2.

De este modo, los únicos términos de grado n y n1 vienen del producto (λa11)(λann).

El único término de grado n viene de elegir λ en todos los factores, y se obtiene el sumando λn, lo cual muestra que el polinomio es mónico.

Los únicos términos de grado n1 se obtienen de elegir λ en n1 factores y un término del estilo aii. Al considerar todas las opciones, el término de grado n1 es (a11+a22++ann)λn1=(trA)λn1, que era lo último que debíamos mostrar.

◻

Ejemplo. El teorema anterior muestra que si A es una matriz en M2(F), es decir, de 2×2, entonces χA(λ)=λ2(trA)λ+detA. De manera explícita en términos de las entradas tendríamos entonces que si A=(abcd), entonces su polinomio característico es λ2(a+d)λ+(adbc).

Como ejemplo, si A=(5283), entonces su polinomio característico es λ22λ+1=(λ1)2. Su único eigenvalor sería entonces 1.

Suma y producto de eigenvalores de matrices complejas

A veces queremos referirnos al conjunto de todos los eigenvalores de una matriz.

Definición. Para A una matriz en Mn(F), el espectro de A es el conjunto de eigenvalores de A. Lo denotamos por spec(A)

Tenemos una definición análoga para el espectro de una transformación lineal. Esa definición da un poco de intuición de por qué los teoremas de diagonalización de matrices se llaman teoremas espectrales. La siguiente definición habla de un sentido en el cual un eigenvalor «se repite».

Definición. Sea A una matriz en Mn(F) y λ un eigenvalor de A. La multiplicidad algebraica de λ es el mayor entero mλ tal que (xλ)mλ divide a χA(x).

Cuando estamos en C, por el teorema fundamental del álgebra todo polinomio de grado n se puede factorizar en exactamente n términos lineales. Además, los polinomios característicos son mónicos. De este modo, si tenemos una matriz A en Mn(C), su polinomio característico se puede factorizar como sigue:

χA(λ)=j=1n(λλj),

en donde λ1,,λn son eigenvalores de A, no necesariamente distintos, pero en donde cada eigenvalor aparece en tantos términos como su multiplicidad algebraica.

Desarrollando parcialmente el producto del lado derecho, tenemos que el coeficiente de λn1 es (λ1++λn) y que el coeficiente libre es (1)nλ1λn. Combinando este resultado con el de la sección anterior y agrupando eigenvalores por multiplicidad, se demuestra el siguiente resultado importante. Los detalles de la demostración quedan como tarea moral.

Teorema. Sea A una matriz en Mn(C)

  • La traza A es igual a la suma de los eigenvalores, contando multiplicidades algebraicas, es decir: trA=λspec(A)mλλ.
  • El determinante de A es igual al producto de los eigenvalores, contando multiplicidades algebraicas, es decir: detA=λspec(A)λmλ.

Veamos un problema en donde se usa este teorema.

Problema. Sea A una matriz en Mn(C) tal que A24A+3In=0. Muestra que el determinante de A es una potencia de 3.

Solución. Sea λ un eigenvalor de A y v un eigenvector para λ. Tenemos que A2v=A(λv)=λ(Av)=λ2v. De esta forma, tendríamos que
0=(A24A+3In)v=(λ2v4λv+3v)=(λ24λ+3)v.

Como v no es el vector 0, debe suceder que λ24λ+3=0. Como λ24λ+3=(λ3)(λ1), entonces λ=1 ó λ=3. Con esto concluimos que los únicos posibles eigenvectores de A son 1 y 3.

Como A es una matriz en C, tenemos entonces que su polinomio característico es de la forma (x1)a(x3)b con a y b enteros no negativos tales que a+b=n. Pero entonces por el teorema de producto de eigenvalores, tenemos que el determinante es 1a3b=3b, con lo que queda demostrado que es una potencia de 3.

◻

Dos teoremas fundamentales de álgebra lineal (opcional)

Tenemos todo lo necesario para enunciar dos resultados de álgebra lineal. Sin embargo, las demostraciones de estos resultados requieren de más teoría, y se ven en un siguiente curso. No los demostraremos ni los usaremos en el resto de este curso, pero te pueden servir para anticipar el tipo de resultados que verás al continuar tu formación en álgebra lineal.

El primer resultado fundamental es una caracterización de las matrices que pueden diagonalizarse. Para ello necesitamos una definición adicional. Hay otro sentido en el cual un eigenvalor λ de una matriz A puede repetirse.

Definición. Sea A una matriz en Mn(F) y λ un eigenvalor de A. La multiplicidad geométrica de λ es la dimensión del kernel de la matriz λInA pensada como transformación lineal.

En estos términos, el primer teorema al que nos referimos queda enunciado como sigue.

Teorema. Una matriz A en Mn(F) es diagonalizable si y sólo si su polinomio característico χA(λ) se puede factorizar en términos lineales en F[λ] y además, para cada eigenvalor, su multiplicidad algebraica es igual a su multiplicidad geométrica.

Ejemplo. La matriz A=(0110) tiene como polinomio característico a χA(λ)=λ2+1. Este polinomio no se puede factorizar en R[x], así que A no es diagonalizable con matrices de entradas reales.

Sin embargo, en C tenemos la factorización en términos lineales λ2+1=(λ+i)(λi), que dice que i y i son eigenvalores de multiplicidad algebraica 1. Se puede mostrar que la multiplicidad geométrica también es 1. Así, A sí es diagonalizable con matrices de entradas complejas.

◻

El segundo resultado fundamental dice que «cualquier matriz se anula en su polinomio característico». Para definir correctamente esto, tenemos que decir qué quiere decir evaluar un polinomio en una matriz. La definición es más o menos natural.

Definición. Si A es una matriz en Mn(F) y p es un polinomio en F[λ] de la forma p(λ)=a0+a1λ+a2λ2++anλn, definimos a la matriz p(A) como la matriz a0In+a1A+a2A2++anAn.

En estos términos, el resultado queda enunciado como sigue.

Teorema (Cayley-Hamilton). Si A es una matriz en Mn(F) y χA(x) es su polinomio característico, entonces χA(A)=On.

Ejemplo. Tomemos de nuevo a la matriz A=(0110) del ejemplo anterior. Su polinomio característico es x2+1. En efecto, verificamos que se cumple el teorema de Cayley-Hamilton pues:
A2+I2=(0110)(0110)+(1001)=(1001)+(1001)=(0000).

◻

Más adelante…

En esta entrada estudiamos algunas propiedades de los eigenvalores y eigenvectores de transformaciones lineales y matrices; vimos cómo obtener eigenvalores de una matriz a partir del polinomio característico y enunciamos dos teoremas muy importantes como parte opcional del curso.

En la siguiente entrada haremos varios ejercicios para desarrollar un poco de práctica al obtener los eigenvalores y eigenvectores de una transformación lineal y de una matriz.

Entradas relacionadas

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Enuncia y demuestra cómo es el polinomio característico de una matriz triangular inferior.
  • Completa los detalles de la demostración del teorema de suma y producto de eigenvalores. Úsalo para encontrar la suma y producto (con multiplicidades) de los eigenvalores de la matriz (5012321200050240).
  • Sea A una matriz en Mn(F). ¿Cómo es el polinomio característico de A en términos del polinomio característico de A?
  • Tomemos A una matriz en Mn(F) y k un entero positivo. Muestra que si λ es un eigenvalor de la matriz A, entonces λk es un eigenvalor de la matriz Ak.

De la sección opcional:

  • Demuestra, haciendo todas las cuentas, el caso particular del teorema de Cayley-Hamilton para matrices de 2×2.
  • Ya sabemos calcular el polinomio característico de matrices diagonales. Muestra el teorema de Cayley-Hamilton en este caso particular.
  • Las matrices diagonales trivialmente son diagonalizables. Muestra que la multiplicidad algebraica de sus eigenvalores en efecto coincide con la multiplicidad geométrica.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»