Archivo de la etiqueta: polinomio característico

Álgebra Lineal II: Introducción a forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta última unidad usaremos las herramientas desarrolladas hasta ahora para enunciar y demostrar uno de los teoremas más hermosos y útiles en álgebra lineal: el teorema de la forma canónica de Jordan. A grandes rasgos, lo que nos dice este teorema es que cualquier matriz prácticamente se puede diagonalizar. En esta primera entrada hablaremos un poco de qué puedes esperar en el transcurso de la unidad, aunque en un orden algo distinto que te ayudará a entender mejor la motivación de presentar la teoría cómo vendrá en las siguientes notas.

Bloques de Jordan

Un bloque de Jordan de tamaño k y eigenvalor λ es una matriz en Mk(F) que se obtiene de comenzar con λIk y agregar encima de la diagonal principal puros unos. Queda algo así:

Jλ,k=(λ10000λ10000λ00000λ10000λ).

Puedes notar que esto es prácticamente una matriz diagonal, a excepción de la diagonal de unos que queda por encima de la diagonal principal. Esto debería sugerirte que los bloques de Jordan son casi tan amigables como las matrices diagonales. Como veremos en las siguientes entradas, es muy fácil calcularles su traza, determinante, polinomio característico, polinomio mínimo, eigenvalores, eigenvectores, etc.

A partir de los bloques de Jordan podemos formar matrices de bloques de Jordan pegando varios bloques de Jordan en una diagonal para obtener una matriz del siguiente estilo:

(1)(Jλ1,k10000Jλ2,k20000Jλ3,k30000Jλd,kd).

Aquí pusimos muchos ceros, pero en el fondo cada uno de estos ceros son una matriz de ceros. Por ejemplo, si tenemos los tres bloques de Jordan J3,2, J2,1 y J5,3 y pegamos estos bloques, obtenemos la siguiente matriz de bloques:

(310000030000002000000510000051000005).

Recuerda que las líneas que dibujamos en una matriz de bloques son simplemente ayuda visual. Estas matrices también son prácticamente diagonales y, como te imaginarás, también es fácil encontrar muchas de sus propiedades.

Teorema de la forma canónica de Jordan

Si recuerdas, una de las motivaciones fuertes para que nos interesara diagonalizar una matriz A es que la matriz diagonal D semejante comparte muchas propiedades con A, pero D es mucho más fácil de entender. A veces no podremos encontrar una matriz diagonal semejante a A, pero lo que nos dice el teorema de formas canónicas de Jordan es que prácticamente siempre podremos encontrar una matriz de bloques de Jordan semejante a A.

Teorema. Sea AMn(F) una matriz tal que su polinomio característico χA(X) se divide sobre F. Entonces, A es similar a una matriz de bloques de Jordan, es decir, una matriz como en \refeq{eq:Jordan}.

En realidad, cuando enunciemos el teorema lo haremos de manera más formal, y hasta diremos en qué sentido la forma canónica de Jordan es única.

¿Por qué decimos que entonces prácticamente siempre podemos diagonalizar una matriz? En cursos más avanzados se muestra que sin importar en qué campo F estemos trabajando, siempre podemos extender el campo F lo suficiente como para que cualquier polinomio se divida sobre una extensión G de F. En este campo extendido, cualquier matriz en Mn(F) se puede diagonalizar.

Transformaciones y matrices nilpotentes

Para demostrar el teorema de Jordan, primero tendremos que enunciarlo y demostrarlo para una clase muy especial de matrices: las nilpotentes. Ya hemos hablado un poco de estas matrices en ejercicios particulares y algunos problemas de la tarea moral. Pero si se te pasó, una matriz A en Mn(F) es nilpotente cuando se puede encontrar un expontente m tal que Am=On. De manera similar, si T es una transformación lineal, diremos que es nilpotente cuando Tm=Z para algún exponente m, donde Z es la transformación lineal trivial que manda todo elemento al 0. Recuerda que aquí el exponente indica cuántas veces se compone T consigo mismo. Como te imaginarás, T será nilpotente si y sólo si alguna de sus formas matriciales lo es.

Las matrices nilpotentes servirán como nuestros cimientos para demostrar el teorema de la forma canónica de Jordán. Es sencillo ver que los bloques de Jordan de la forma J0,k son nilpotentes. También es sencillo ver que cualquier matriz de bloques de Jordan con puros eigenvalores iguales a cero es nilpotente. Nuestra primera versión del teorema de la forma canónica de Jordán nos dará algo así como un «regreso» de esta afirmación. El siguiente teorema es una versión «light» de lo que demostraremos.

Teorema. Sea AMn(F) una matriz nilpotente. Entonces, A es similar a una matriz de bloques de Jordan, todos ellos con eigenvalor 0.

La demostración será muy bonita, y hará uso de la teoría de dualidad de Álgebra Lineal I. Una vez que demostremos esta versión, la combinaremos con el teorema de Cayley-Hamilton de la Unidad 1 para obtener el teorema general.

Aplicaciones del teorema de Jordan

Si conocemos la forma canónica de Jordan de una matriz, podemos encontrar a partir de ella fácilmente muchas propiedades, como la traza, determinante, etc. Además de estas aplicaciones «de cálculo de propiedades», el teorema de la forma canónica de Jordán nos permitirá decir exactamente cuándo dos matrices son similares. En particular, veremos que cualquier matriz A es similar a su transpuesta.

Tarea moral

En esta ocasión la tarea moral consistirá en un repaso de contenido anterior tanto de Álgebra Lineal I como Álgebra Lineal II, para que cuentes con todas las herramientas necesarias para aprovechar esta última unidad.

  1. Haz un repaso de la teoría de Matrices de bloques, para recordar a qué se refiere esta notación y cómo se pueden hacer operaciones cuando las matrices están escritas por bloques.
  2. Revisa la entrada de Matrices de cambio de base, para recordar por qué dos matrices similares en el fondo representan a la misma transformación lineal, pero en distintas bases.
  3. Repasa la teoría básica de dualidad en espacios vectoriales. Puedes comenzar con la entrada de Introducción a espacio dual. Concretamente, tendrás que recordar por lo menos hasta la teoría de Ortogonalidad y espacio ortogonal.
  4. Recuerda todo lo que podemos decir de las transformaciones triangularizables, revisando la entrada de Triangularizar y descomposición de Schur, y compara los resultados de ahí con lo que esperamos obtener sobre forma canónica de Jordan. ¿Cuál teorema dice algo más fuerte?
  5. Vuelve a leer todo el contenido relacionado con el teorema de Cayley-Hamilton para recordar no sólo qué dice, sino cómo está relacionado con los eigenespacios asociados a una transformación lineal. Puedes empezar con la entrada de Introducción al teorema de Cayley-Hamilton.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Triangularizar y descomposición de Schur

Por Julio Sampietro

Introducción

En esta entrada estudiaremos el concepto de triangularizar matrices. Esto simplemente quiere decir encontrar una base respecto a la cual podamos escribir a nuestra matriz como una matriz triangular superior. Esto tiene muchas ventajas, puesto que las matrices triangulares superiores son relativamente fáciles de calcular. Como veremos, el concepto de triangularización está íntimamente ligado con los ceros de polinomios.

Matrices triangulares

Recordamos que una matriz A=[aij]Mn(F) se dice triangular superior si aij=0 siempre que i>j, es decir si todas las entradas por debajo de la diagonal son cero. Las matrices triangulares gozan de algunas propiedades que ya hemos explorado. Por ejemplo, sus valores propios son fácilmente calculables: ¡son precisamente las entradas de la diagonal! Más explícitamente su polinomio característico es exactamente

χA(X)=i=1n(Xaii).

Además forman un subespacio cerrado bajo multiplicación del espacio de todas las matrices. Puesto que son matrices ‘sencillas’, es deseable poder escribir alguna otra matriz como una matriz triangular, tal vez mediante un cambio de base: esto es precisamente triangularizar. Tenemos entonces la siguiente definición.

Definición. Diremos que una matriz es triangularizable si es similar a una matriz triangular superior.

Primero, necesitaremos de un par de conceptos sobre polinomios.

Polinomios y sus raíces

Definición. Un polinomio PF[X] se divide sobre F si es de la forma

P(X)=c(Xa1)(Xan)

para algunos escalares c,a1,,anF no necesariamente distintos.

Por ejemplo el polinomio X2+1 no se divide sobre R ya que sabemos que no tiene raíces reales. Sin embargo, el mismo polinomio si se divide sobre C: en efecto

X2+1=(Xi)(X+i).

Por otro lado, el polinomio X23X+2 si se divide sobre R, puesto que lo podemos escribir como

X23X+2=(X1)(X2).

Nota que el polinomio también se divide sobre C puesto que RC. De hecho, no existe ningún polinomio con coeficientes complejos que no se divida sobre C, este es un sorprendente resultado de Gauss:

Teorema (fundamental del Álgebra). Cualquier polinomio PC[X] se divide sobre C.

Este teorema también se enuncia diciendo que C es algebraícamente cerrado. Es decir, todo polinomio con coeficientes complejos tiene al menos una raíz compleja. Es un buen ejercicio verificar que ambas versiones son equivalentes.

Por lo que mencionamos al principio, el polinomio característico de una matriz triangular superior se divide sobre el campo. Como el polinomio de matrices similares es igual, se sigue que si una matriz es triangularizable, entonces su polinomio característico se divide sobre el campo.

Problema. Da un ejemplo de una matriz AM2(R) que no sea triangularizable en M2(R).

Solución. Puesto que el polinomio característico de una matriz triangularizable se divide sobre el campo, es suficiente con encontrar una matriz cuyo polinomio característico no se divida sobre R: por ejemplo X2+1. Enseguida proponemos la matriz

A=(0110).

Entonces χA(X)=X2+1, que ya aclaramos que no se divide sobre R. Por tanto A no es triangularizable.

Un teorema sobre triangularizar

Ya vimos que si A es una matriz triangularizable su polinomio característico se divide sobre el campo. El siguiente teorema nos dice que el converso también es cierto.

Teorema. Sea AMn(F). Las siguientes afirmaciones son equivalentes:

  1. El polinomio característico de A se divide sobre F.
  2. A es similar a una matriz triangular superior.

Demostración. La discusión previa ya nos mostró que 2 implica 1. Probaremos el converso por inducción sobre n. El resultado se cumple para n=1 (pues toda matriz es triangular superior), así que podemos asumir que n2 y que el resultado se cumple para n1.

Sea λF una raíz de χA. Nota que dicha raíz existe pues estamos suponiendo que χA se divide sobre F. También escogemos un vector no-cero v tal que Av=λv, es decir, un eigenvector asociado a λ. Como v0, podemos completar a una base v=v1,,vn de V=Fn. La matriz asociada a la transformación lineal T asociada a A se ve entonces de la forma

(λ0B)

para alguna BMn1(F). Entonces podemos encontrar una matriz de cambio de base (y por tanto invertible) P1 tal que

P1AP11=(λ0B).

Puesto que matrices similares comparten el mismo polinomio característico, tenemos que

χA(X)=χP1AP11(X)=(Xλ)χB(X).

Se sigue que χB se divide sobre el campo. Además, BMn1(F), por lo que podemos aplicar la hipótesis de inducción para afirmar que existe una matriz invertible QMn1(F) tal que QBQ1 es triangular superior. Luego definiendo

P2=(100Q),

se cumple no solo que P2 es invertible (¿por qué?) pero además que

P2(P1AP11)P21=(λ0QBQ1).

Notamos que esta última matriz es triangular superior, puesto que QBQ1 lo es. Esto completa la prueba.

◻

Un corolario importante

Combinando el teorema fundamental del álgebra junto con el teorema pasado obtenemos un corolario importante, conocido como el teorema de descomposición de Schur. Lo enunciamos como teorema.

Teorema (descomposición de Schur). Para cualquier matriz AMn(C) podemos encontrar una matriz invertible PMn(C) y una matriz triangular superior TMn(C) tal que A=PTP1. Por tanto toda matriz con entradas complejas es triangularizable.

Demostración. Por el teorema fundamental del álgebra, tenemos que χA se divide sobre C. Luego usando el teorema anterior concluimos que A es triangularizable.

◻

Más adelante…

En la próxima entrada veremos un concepto parecido a triangularizar pero más fuerte: diagonalizar, que consiste en llevar a una matriz a una matriz diagonal similar.

Tarea moral

A continuación presentamos algunos ejercicios que sirven para repasar los temas vistos en esta entrada.

  1. ¿Es la matriz
    A=(121322011)
    triangularizable sobre R?
  2. Encuentra una matriz traingular superior similar a la matriz
    (1232).
  3. Encuentra una matriz triangular superior similar a la matriz
    (100210321).
  4. ¿Por qué la matriz P2 construida en la demostración del segundo teorema es invertible?
  5. Demuestra que una matriz AMn(F) es nilpotente si y sólo si es similar a una matriz triangular superior con entradas cero en la diagonal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Demostración del teorema de Cayley-Hamilton

Por Julio Sampietro

Introducción

En esta entrada demostraremos el teorema de Cayley-Hamilton. Daremos dos demostraciones de sabores muy diferentes. La primera demostración explota las propiedades de la matriz adjunta, mientras que la segunda echa mano de las familias especiales de las cuales calculamos el polinomio característico.

Primera demostración

La primera demostración del teorema de Cayley-Hamilton usa algunas propiedades de la matriz adjunta. Recordamos el teorema y lo demostramos a continuación:

Teorema. (Cayley-Hamilton)

Para cualquier matriz AMn(F) se cumple que

χA(A)=On.

Demostración. Sea AMn(F) y sea B=XInAMn(K) dónde K=F(X) es el campo de fracciones racionales en la variable X. Es decir, un elemento de K es un cociente de la forma

A(X)B(X),A(X),B(X)F[X]

con B no idénticamente cero.

Sea C la matriz adjunta de B, es decir C=adj(B). Sus entradas son (por definición) los determinantes de las matrices de tamaño (n1) cuyas entradas son a su vez polinomios de grado a lo más 1. Es decir cada entrada de C es un polinomio de grado a lo más n1. Luego, sea

cij=cij(0)+cij(1)X++cij(n1)Xn1

la (i,j)-ésima entrada de C, con cij(0),,cij(n1)F. Sea C(k) la matriz cuyas entradas son cij(k). Entonces

C=C(0)+C(1)X++C(n1)Xn1.

Ahora, recuerda que

BC=Badj(B)=det(B)In=χA(X)In.

Es decir

(XInA)(C(0)+C(1)X++C(n1)Xn1)=χA(X)In.

Por otro lado, si escribimos a χA(X) como χA(X)=Xn+un1Xn1++u0F[X], la igualdad anterior se convierte en

AC(0)+(C(0)AC(1))X+(C(1)AC(2))X2++(C(n2)AC(n1))Xn1+C(n1)Xn=u0In++un1InXn1+InXn.

Identificando los términos de cada coeficiente llegamos a

{AC(0)=u0In,C(0)AC(1)=u1In,C(n2)AC(n1)=un1In,C(n1)=In.

Comenzando con la última igualdad, tenemos que C(n1)=In. Sustituyendo en la anterior llegamos a que C(n2)=A+un1In, e inductivamente se cumple que

C(nj1)=Aj+un1Aj1++u1In.

En particular

C(0)=An1+un1An2++u1In.

Multiplicando ambos lados por A y usando que AC(0)=u0In finalmente llegamos a

An+un1An1++u0In=On.

Pero esta igualdad no es nada más que χA(A)=On, lo que concluye la prueba.

◻

Segunda demostración

Para la segunda demostración enunciaremos el teorema de una manera distinta pero equivalente (¿por qué?). Usaremos una estrategia fundada en el cálculo de polinomios característicos de familias conocidas de una entrada previa.

Teorema. (Cayley-Hamilton)

Sea V un espacio vectorial de dimensión finita sobre F y sea T:VV una transformación lineal. Entonces χT(T)=0.

Demostración. La idea es reducir el problema a transformaciones lineales para las que podemos calcular χT fácilmente. Sin embargo, los detalles son un poco complicados.

Fijemos xV. Para m0 fijamos

Wm=Span(T0(x),T1(x),,Tm(x)).

Nota como W0W1V y que dimWmdimWm+1dimV para todo m0. Entonces debe existir algún m mínimo tal que dimWm1=dimWm. Entonces como Wm1Wm se tiene que Wm1=Wm. Luego Tm(x)Wm1, es decir existe una combinación lineal

Tm(x)=k=0m1akTk(x).

Nota que esto implica que Wm1 es estable bajo T. Como m es mínimo, los vectores T0(x),,Tm1(x) deben ser linealmente independientes: en efecto, si no lo fueran existiría una relación de dependencia entre Tm1(x) y términos de grado menor y así dimWm1=dimWm2 y entonces m no sería mínimo. Por lo tanto forman una base para Wm1 y respecto a esta base la matriz asociada a T|Wm1 es

A=(0000a01000a10100a20001am1).

El polinomio característico de matrices como esta lo calculamos en esta entrada y es igual a Xmam1Xm1a0. Entonces

χT|Wm1(T)(x)=Tm(x)k=0m1akTk(x)=0.

Pero como Wm1 es Testable, el polinomio característico de T|Wm1 divide al polinomio característico de T (este es un ejercicio en la tarea moral de esta entrada) y por tanto χT(T)(x)=0. Como x fue arbitrario concluimos que χT(T) es la transformación cero.

◻

Más adelante…

En la próxima entrada veremos aplicaciones del teorema de Cayley-Hamilton.

Tarea moral

  1. Supón que T:VV es una transformación lineal y V es de dimensión finita. Demuestra que si W es un subespacio T-estable de V entonces χT|W(X) divide a χT(X). Sugerencia. Considera una base de W, extiéndela a una base de V. ¿Cómo se ve la matriz asociada a T en esta base?
  2. Explica por qué las dos versiones que dimos del teorema de Cayley-Hamilton son equivalentes.
  3. Demuestra la propiedad de la matriz adjunta que se menciona en la primera demostración.
  4. Sean A,B,CM2(C) matrices tales que AC=CB y COn. Demuestra que para cualquier polinomio P se cumple que P(A)C=CP(B). Usando esto y escogiendo un polinomio adecuado, deduce que A y B tienen un eigenvalor en común. Sugerencia: Usa el teorema de Cayley-Hamilton.
  5. Sea la matriz
    A=(020111111).
    Usa el teorema de Cayley-Hamilton para calcular A1000. Sugerencia: El teorema de Cayley-Hamilton te debería dar una relación entre algunas potencias de A.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Introducción al teorema de Cayley-Hamilton

Por Julio Sampietro

Introducción

En esta entrada introducimos el teorema de Cayley-Hamilton, otro de los teoremas importantes del curso. Intuitivamente este teorema nos dice que «el polinomio característico anula al operador lineal». Es decir, si P(λ) es el polinomio característico de una transformación lineal T, entonces P(T)=0.

Algunos ejemplos

Damos unos cuantos ejemplos para que entendamos que está pasando.

Ejemplo 1. Sea AM2(R) la matriz dada por

A=(0110).

Calculemos su polinomio característico

χA(X)=det(X11X)=X2+1.

Así, si evaluamos al polinomio χA en la matriz A tenemos que calcular

χA(A)=A2+I2.

Por un lado

A2=(0110)(0110)=(1001)=I2.

Luego

χA(A)=A2+I2=I2+I2=O2.

Es decir, ¡χA(A) es la matriz cero!

Ejemplo 2. Calculemos el polinomio característico de la matriz AM3(R) dónde A está dada por

A=(012034005.)

Notamos que A es una matriz triangular superior. Por una entrada anterior sabemos que el polinomio característico es solo el producto de los monomios (Xaii). Es decir

χA(X)=(X0)(X3)(X(5))=X(X3)(X+5).

Enseguida, evaluemos χA(A). Recordamos que esto quiere decir que tenemos que calcular

χA(A)=A(A3I3)(A+5I3).

Por un lado

A3I3=(312004008),

y por otro

A+5I3=(512084000).

Así

(A3I3)(A+5I3)=(312004008)(512084000)=(1552000000).

Finalmente

A(AI3)(A+5I3)=(012034005.)(1552000000)=O3.

Una vez más χA(A)=0.

El teorema

Los ejemplos anteriores sirven de calentamiento para enunciar el teorema de Cayley-Hamilton, que dice exactamente lo que sospechamos.

Teorema (de Cayley-Hamilton). Para cualquier matriz AMn(F) se cumple

χA(A)=On.

En otras palabras, si χA(X)=Xn+an1Xn1++a0 entonces

An+an1An1++a0In=On.

Demostraremos este teorema en la próxima entrada. Uno podría sospechar que la demostración consiste en simplemente sustituir A en la expresión de χA como sigue

χA(A)=det(AInA)=det(0)=0.

Sin embargo, esta ‘prueba’ no es correcta, ya que estamos multiplicando a A con In como si fueran matrices, mientras que la expresión de χA se refiere a escalares. Más aún, observa como el resultado de la expresión que anotamos es el escalar cero, mientras que sabemos que χA(A) debería ser la matriz cero.

Concluimos esta sección con una breve aplicación del teorema de Cayley-Hamilton.

Proposición. El polinomio mínimo de una matriz AMn(F) divide al polinomio característico.

Demostración. Por el teorema de Cayley-Hamilton, χA(A)=0. Luego por definición del polinomio mínimo se sigue que μA(X) divide a χA(X).

◻

Más adelante…

En la próxima entrada demostraremos el teorema de Cayley-Hamilton, y luego pasaremos a dar aplicaciones de este.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. En una entrada anterior calculamos el polinomio característico de una matriz nilpotente. Explica por qué el teorema de Cayley-Hamilton es compatible con dicho cálculo. De otra manera, verifica el teorema de Cayley-Hamilton en ese caso particular.
  2. Sea AM3(R) tal que Tr(A)=Tr(A2)=0. Usa el teorema de Cayley-Hamilton para demostrar que existe un αR tal que A3=αI3.
  3. Calcula el polinomio característico de AM2(C) donde
    A=(0110).
    Es decir, A es la misma matriz que en el ejemplo pero pensada como una matriz compleja. Verifica que χA(A)=O2.
  4. Verifica que χA(A)=O3 con
    A=(101111021)M3(R).
  5. Sea AMn(R) una matriz tal que A y 3A son similares. Demuestra que An=On.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Polinomio característico de familias especiales

Por Julio Sampietro

Introducción

En la entrada anterior dimos la definición de polinomio característico. Vimos que siempre es un polinomio mónico y que su grado es exactamente del tamaño de la matriz. También, vimos cómo calcular el polinomio mínimo en algunos casos particulares. En esta entrada veremos varias propiedades que nos van a facilitar el calcular el polinomio característico (y por tanto los eigenvalores) en un amplio rango de matrices diferentes.

Comenzaremos estudiando el polinomio mínimo de las triangulares superiores. Luego, veremos cómo calcular el polinomio de matrices nilpotentes. No solo nos harán la vida más fácil los resultados a continuación, si no que los usaremos en la teoría más adelante.

Matrices triangulares superiores y transpuestas

El caso de las matrices triangulares superiores es muy sencillo, como veremos a través del siguiente problema.

Problema. Sea A=[aij] una matriz triangular superior. Demuestra que

χA(X)=i=1n(Xaii).

Solución. La matriz XInA sigue siendo triangular superior, y sus entradas diagonales son precisamente Xaii. Usando que el determinante de una matriz triangular superior es el producto de sus entradas diagonales y usando la definición se sigue que

χA(X)=det(XInA)=i=1n(Xaii).

◻

Ejemplo. Si queremos calcular el polinomio característico de la matriz

A=(1π2021010003).

entonces podemos aplicar el problema anterior y deducir inmediatamente que

χA(X)=(X1)(X+2)(X3).

¡Qué complicado hubiera sido calcular el determinante a pie!

Por otro lado, recordando la demostración que dice que los eigenvalores de la transpuesta de una matriz son iguales a los de la matriz original era de esperarse que el polinomio característico también «se portara bien» bajo transposición.

Problema. Demuestra que las matrices A y tA tienen el mismo polinomio característico para cualquier AMn(F).

Solución. Notamos que t(XInA)=XIn tA. Como una matriz y su transpuesta tienen el mismo determinante se tiene que

χA(X)=det(XInA)=det( t(XInA))=det(XIn tA)=χtA(X).

◻

Estrictamente hablando, estamos haciendo un poquito de trampa en la demostración anterior (y de hecho en varias que involucran a la variable X). Las propiedades de determinantes que hemos visto (como que una matriz y su transpuesta tienen el mismo determinante) las obtuvimos partiendo de la hipótesis de que las entradas vienen de un campo F. Pero cuando agregamos a la variable X, ahora las entradas vienen más bien de un anillo: el anillo de polinomios en F[X]. Aunque esto parezca un problema, en realidad no lo es. Las propiedades que usamos pueden mostrarse también en ese contexto.

Veamos ahora cómo podemos aplicar el resultado anterior en un ejemplo concreto.

Ejemplo. Queremos calcular el polinomio característico de la matriz

A=(000490112.)

Para esto notamos que

tA=(041091002)

que es triangular superior. Usando el primer problema

χtA(X)=X(X9)(X2).

Finalmente por el último problema χA(X)=χtA(X)=X(X9)(X2).

El término de la traza

Como vimos en la entrada anterior, en el polinomio det(XA+B) aparecen los términos det(A) y det(B). El siguiente problema aplica esto al polinomio característico e incluso deducimos otro término: la traza.

Problema. Demuestra que el polinomio característico de AMn(F) es de la forma

χA(X)=XnTr(A)Xn1++(1)ndetA.

Solución. Regresemos a la definición

det(XInA)=σSnsign(σ)(Xδ1σ(1)a1σ(1))(Xδnσ(n)anσ(n)).

Haciendo la expansión salvajemente podemos recuperar al menos los primeros términos de (Xδ1σ(1)a1σ(1))(Xδnσ(n)anσ(n)), que son Xni=1nδiσ(i)Xn1j=1n(kjδkσ(k))ajσ(j)+.

Más aún, nota cómo el producto j=1nδjσ(j) es distinto de cero si y sólo si j=σ(j) para todo j: es decir si σ es la identidad. Esto muestra que χA(X) es mónico de grado n, como ya habíamos mencionado en la entrada anterior.

Además, el término constante está dado por χA(0)=det(0InA)=det(A)=(1)ndet(A). Alternativamente pudimos haber usado la primera proposición de esta entrada para concluir estos hechos.

Nos falta estudiar el término de grado n1. Si j{1,2,,n}, entonces kjδjσ(j) es distinto de cero solo si σ(k)=k para todo kj: pero σ es una permutación, en particular una biyección, lo que fuerza que σ(j)=j también y entonces σ sea la identidad. Entonces el término de Xn1 en (Xδ1σ(1)a1σ(1))(Xδnσ(n)anσ(n)) es distinto de cero sólo cuando σ es la identidad. En ese caso es precisamente j=1najj=Tr(A).

◻

Ejemplo. Si A es la matriz del primer problema de esta entrada, tenemos que

χA(X)=(X1)(X+2)(X3)=X32X2++6.

Nota cómo el término de X2 es en efecto Tr(A)=(12+3) y el último es det(A).

Matrices nilpotentes

El caso de las matrices nilpotentes es todavía más sencillo.

Problema. Sea AMn(F) una matriz nilpotente. Es decir, existe k1 tal que Ak=On.

  1. Demuestra que
    χA(X)=Xn.
  2. Demuestra que TrAm=0 para todo m1.

Solución.

  1. Sea k1 tal que Ak=On (existe pues A es nilpotente). Entonces
    XkIn=XkInAk=(XInA)(Xk1In+Xk2A++Ak1).
    Tomando el determinante de ambos lados y recordando que abre productos llegamos a
    Xnk=det(XkIn)=χA(X)det(Xk1In++Ak1).
    De aquí, concluimos que χA(X) tiene que dividir a Xnk, pero sabemos que χA(X) es mónico y de grado n. Concluimos entonces que χA(X)=Xn.
  2. Puesto que Am también es una matriz nilpotente, el inciso anterior nos dice que
    χAm(X)=Xn.
    Pero sabemos por la sección sobre la traza que el término de Xn1 es Tr(Am). Como este término no aparece, concluimos que la traza es cero.

◻

Ejemplo. Para calcular el polinomio característico de la matriz

A=(53215961064)

podríamos notar (aunque no sea obvio a simple vista) que A2=O3. Luego, por el problema anterior, χA(X)=X3.

Un último caso particular

Acabamos con una última familia de matrices con polinomio característico simple. Esta familia está descrita por su forma, y será de particular importancia para el teorema de Cayley-Hamilton.

Problema. Para escalares a0,,an1F consideramos la matriz

A=(0000a01000a10100a20001an1).

en Mn(F).

Demuestra que

χA(X)=Xnan1Xn1a0.

Solución. Sea P(X)=Xnan1Xn1a0. Considera la matriz

B=XInA=(X000a01X00a101X0a20001Xan1).

Sumando el segundo renglón multiplicado por X al primer renglón, luego sumándole también al primer renglón el tercero multiplicado por X2, el cuarto por X3, y así sucesivamente hasta sumar el último renglón multiplicado por Xn1 llegamos a la matriz

C=(0000P(X)1X00a101X0a20001Xan1).

Recordamos que el determinante es invariante bajo sumas de renglones, por lo que

χA=detB=detC.

Expandiendo el determinante de C en el primer renglón obtenemos sencillamente

detC=(1)n+1P(X)|1X0010001|=(1)n+1P(X)(1)n1=P(X).

Para la segundaigualdad usamos que el determinante es el de una matriz triangular superior con puros 1 como entradas. Para la última, usamos que n+1+n1=2n siempre es un número par, así que queda 1 elevado a un número par. Esto concluye la prueba.

◻

Una de las consecuencias de la proposición anterior es que para cualquier polinomio mónico P de grado n en F[X], existe una matriz en Mn(F) tal que su polinomio característico es P.

Más adelante…

En la próxima entrada veremos unos últimos aspectos teóricos del polinomio característico antes de lanzarnos de lleno al teorema de Cayley-Hamilton y su demostración.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz A tal que χA(X)=X55X3+X22X+2. Sugerencia: Usa el último problema.
  2. Demuestra que el polinomio característico de una matriz A=[aij] triangular inferior está dado por i=1n(Xaii).
  3. Demuestra que 0 es eigenvalor de una matriz si y sólo si su determinante es cero.
  4. Calcula el polinomio característico de la siguiente matriz con entradas reales:
    A=(555666111111). Sugerencia: ¿Quién es A2?
  5. ¿Es cierto que si F es cualquier campo y A es una matriz con entradas en F, entonces el hecho de que Tr(A)=0 implica que A sea nilpotente? Sugerencia: Piensa en F2.
  6. Da una demostración alternativa al último problema de esta entrada usando inducción matemática sobre el tamaño de la matriz.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»