Archivo del Autor: Julio Sampietro

Álgebra Lineal II: Caracterizaciones de diagonalizar

Por Julio Sampietro

Introducción

Ya dimos la definición de que una matriz sea diagonalizable y encontramos buenas razones para, dada una matriz, intentar encontrar una matriz similar que sea diagonal. En esta entrada enunciaremos y demostraremos un teorema de caracterización de matrices diagonalizables, el cual nos ayudará a entender con más profundidad la diagonalizabilidad.

El teorema de caracterización

El teorema principal de esta entrada es el siguiente.

Teorema. Sea V un espacio de dimensión finita sobre F y T:VV una transformación lineal. Las siguientes afirmaciones son equivalentes.

  1. T es diagonalizable.
  2. Existe un polinomio PF[X] que se divide sobre F y tiene raíces distintas dos a dos, tal que P(T)=0.
  3. El polinomio mínimo μT de T se divide sobre F y tiene raíces distintas dos a dos.
  4. Sea Sp(T)F el conjunto de eigenvalores de T. Entonces
    λSp(T)ker(TλId)=V.

Demostración. Demostremos primero que 1 implica 2. Escogemos una base en la que T se represente por una matriz diagonal D. Sea P el polinomio cuyas raíces son las diferentes entradas de la diagonal de D. Entonces P(T) está representada por la matriz diagonal P(D) con entradas P(dii)=0. Es decir P(T)=0.

Que 2 implica 3 se sigue de la definición del polinomio mínimo: si P cumple 2, entonces μT divide a P y por tanto cumple 3.

La implicación 34 es consecuencia del último teorema de la entrada anterior aplicado a P=μT y los factores lineales siendo los Pi.

Finalmente veamos que 4 implica 1. Sea Sp(T)={λ1,,λk} y sea v1,vn una base de V obtenida al pegar una base de ker(Tλ1Id) a una base de ker(Tλ2Id) y a una base de ker(Tλ3Id) y así sucesivamente hasta pegar una base de ker(TλnId). Entonces v1,,vn es una base de eigenvectores de V y por tanto se cumple 1.

◻

Consecuencias del teorema

Hacemos algunas observaciones que son consecuencia del teorema anterior.

Observación. Si T es una transformación lineal diagonalizable, entonces el polinomio mínimo de T es

μT(X)=λSp(T)(Xλ)

dónde el producto se toma sobre todos los valores propios, contados sin multiplicidad. El mismo producto pero tomado con multiplicidades rinde el polinomio característico de T.

Observación. Si T es cualquier transformación lineal en un espacio vectorial de dimensión finita entonces T es diagonalizable si y sólo si la suma de las dimensiones de los eigenespacios coincide con la dimensión de V, es decir si

λSp(T)dimker(TλId)=dimV.

Observación. Supongamos que T es diagonalizable. Para cada λSpT sea πλ la proyección al subespacio ker(TλId). Entonces

T=λSp(T)λπλ.

Esto se sigue de la descomposición λSp(T)ker(TλId)=V y que si

v=λSp(T)vλ,vλker(TλId),

entonces

T(v)=λSp(T)T(vλ)=λSp(T)λvλ=λSp(T)λπλ(v).

Finalmente enunciamos el teorema que demostramos en su forma matricial (que es ciertamente una consecuencia del teorema para transformaciones lineales).

Teorema. Sea AMn(F). Entonces las siguientes afirmaciones son equivalentes.

  1. A es diagonalizable en Mn(F).
  2. Si Sp(A) es el conjunto de eigenvalores de A, entonces
    λSp(A)ker(λInA)=Fn.
  3. El polinomio mínimo μA de A se divide sobre F con raíces distintas dos a dos.
  4. Existe un polinomio PF[X] que se divide sobre F con raíces distintas dos a dos tal que P(A)=On.

Problemas para practicar

Terminamos esta entrada con unos cuantos problemas para aplicar los resultados vistos.

Problema 1. Considera la matriz

A=(010001100).

¿Es A diagonalizable en M3(C)? ¿ En M3(R)?

Solución. El polinomio característico de A está dado por χA(X)=X31. Este polinomio se divide sobre C con raíces distintas, ya que tenemos 3 soluciones dadas por las raíces de la unidad. Por el teorema de Cayley-Hamilton sabemos que χA(A)=O3. Usando el teorema de esta entrada concluimos que A es diagonalizable sobre C.

Sin embargo, dado que el polinomio característico no se divide sobre R podemos deducir que A no es diagonalizable en M3(R).

Problema 2. ¿Es la matriz

A=(010440212)M3(R)

diagonalizable?

Solución. Comenzamos calculando el polinomio característico de A:

χA(X)=|X104X4021X2|=(X2)|X14X4|=(X2)(X24X+4)=(X2)3.

Por tanto 2 es un eigenvalor con multiplicidad algebraíca 3. Si A fuese diagonalizable, entonces 2 tendría multiplicidad geométrica 3, es decir ker(A2I3) sería 3-dimensional: ¡pero entonces sería todo R3! Esto implicaría que A2I3=0, de otra manera que A=2I3, lo que claramente no es cierto.

Más adelante…

En las siguientes entradas estudiaremos formas bilineales, lo que forma el segundo bloque del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para repasar lo visto en esta entrada.

  1. Encuentra todos los valores de aR tales que la matriz
    A=(2121a1111)M3(R)
    sea diagonalizable.
  2. Explicita el por qué el teorema para operadores lineales implica el teorema para matrices.
  3. Calcula la n-ésima potencia de
    A=(133313331).
    Sugerencia. Diagonaliza a A.
  4. Demuestra que si T:VV es una transformación lineal con V un espacio vectorial de dimensión finita sobre C tal que T2 diagonalizable y kerT=kerT2 entonces T es diagonalizable.
  5. Si V es un espacio de dimensión finita sobre F y T:VV es una transformación lineal diagonalizable fija, entonces cualquier otra transformación lineal S:VV satisface ST=TS si y sólo si S deja invariante cada eigenespacio de T.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Diagonalizar

Por Julio Sampietro

Introducción

En la entrada anterior estudiamos la triangularización de matrices, que consistía en llevar matrices a una forma triangular superior. En esta fortaleceremos esta idea, y buscaremos maneras de llevar una matriz a una matriz diagonal: a este proceso se le conoce como diagonalizar.

Matrices y transformaciones diagonalizables

A lo largo de esta sección fijamos F un campo. Todos los espacios vectoriales se asumirán de dimensión finita.

Definición. Una matriz AMn(F) es llamada diagonalizable si es similar a una matriz diagonal en Mn(F).

Una transformación lineal T:VV sobre un espacio vectorial V se llama diagonalizable si existe una base de V tal que la matriz de T respecto a esa base sea diagonal.

Es decir una matriz AMn(F) es diagonalizable si y sólo si podemos escribir

A=PDP1

para alguna matriz invertible PMn(F) y una matriz diagonal D=[dij]Mn(F). Nota que la definición implica que cualquier matriz similar a una matriz diagonalizable es a su vez diagonalizable. De misma manera, una transformación lineal es diagonalizable si su representación es diagonalizable respecto a cualquier base (aunque no será necesariamente diagonal en cualquier base).

Damos la siguiente caracterización de transformaciones diagonalizables.

Teorema. Una transformación lineal T:VV es diagonalizable si y sólo si V tiene una base compuesta por eigenvectores de T.

Demostración. Supongamos que T es diagonalizable. Por tanto existe una base v1,,vn de V tal que la matriz asociada a T en esta base es diagonal. Si (aii)i=1n son las entradas diagonales de A, entonces por definición T(vi)=aiivi para todo i=1,,n. Luego v1,,vn es una base de V compuesta por eigenvectores de T.

Conversamente, supongamos que T tiene una base v1,,vn compuesta por eigenvectores de T. Si T(vi)=divi entonces la matriz respecto a v1,,vn de T es diagonal con entradas di.

◻

Primeras propiedades

Tenemos dos observaciones inmediatas.

Observación. El teorema nos proporciona una manera de diagonalizar explícitamente una matriz. Si AMn(F) es diagonalizable, entonces encontramos una base de V=Fn formada por eigenvectores y los acomodamos como columnas de una matriz P. Entonces P1AP=D es diagonal y A=PDP1.

Observación. Supongamos que A es diagonalizable y que A=PDP1 para alguna matriz diagonal D y una matriz invertible P.

  1. El polinomio característico de A y de D es el mismo, puesto que son matrices similares. De esto deducimos que
    i=1n(Xdii)=χA(X).
    En particular, los eigenvalores de A son las entradas diagonales de D (contados con multiplicidad).
  2. Sea λF un eigenvalor de A. Entonces la multiplicidad algebraica es igual al número de índices i=1,,n tales que dii=λ (esto por el inciso anterior). Por otro lado, la dimensión geométrica de λ como eigenvalor de A o D es la misma puesto que la asignación XP1X induce un isomorfismo entre ker(λInA) y ker(λInD). Pero además la multiplicidad geométrica de λ como eigenvalor de D también coincide con el número de índices i=1,,n tales que λii=n, ya que el sistema DX=λX es equivalente a (diiλ)xi=0. Concluimos que en una matriz diagonalizable, la multiplicidad algebraíca y la multiplicidad geométrica coinciden.

Un par de problemas

A continuación resolvemos un par de problemas: el primero sirve para aplicar lo que hemos visto hasta ahora, y el segundo nos será útil más adelante.

Problema 1. Demuestra que la matriz

A=(1a01)

no es diagonalizable si a0.

Solución. Supongamos que A es diagonalizable y escribamos A=PDP1 con P invertible y D diagonal. Como A es triangular superior con entradas diagonales iguales a 1, deducimos que 1 es el único eigenvalor de A. Por la observación anterior tenemos que las entradas diagonales de D son 1, por tanto D=In. Pero entonces A=PInP1=In una contradicción si a0.

◻

El siguiente problema es más técnico, y nos servirá para demostrar uno de los teoremas fundamentales que caracteriza a las matrices diagonalizables.

Problema 2. Sea k>1 y sean P1,,Pk polinomios primos relativos dos a dos. Si P=P1P2Pk es su producto y Qi=PPi, demuestra que los Q1,,Qk son primos relativos (es decir, no existe un polinomio que los divida a todos simultáneamente).

Solución. Supongamos que existe un polinomio Q irreducible que divide a todos los Qi. Puesto que QQ1=P2Pk deducimos que Q divide a Pj para algún j{2,,k}. Pero como Q divide también a Qj, esto quiere decir que Q divide a Pi para algún ij, lo que contradice que los Pi son primos relativos dos a dos.

◻

Un teorema de descomposición

Terminamos esta entrada con un teorema algo técnico que será de mucha utilidad en la próxima entrada, cuando caractericemos a las matrices diagonalizables.

Teorema. Sea T una transformación lineal de algún espacio V en si mismo (no necesariamente de dimensión finita). Entonces para cualesquiera polinomios P1,,PkF[X] primos relativos dos a dos se cumple que

kerP(T)=i=1kkerPi(T),

dónde P=P1Pk.

Demostración. Consideramos a los polinomios Qi=PPi como en el problema anterior. Como son primos relativos, el teorema de Bezout nos dice que existen polinomios R1,,Rk tales que

Q1R1++QkRk=1.

Como Pi divide a P, se sigue que kerPi(T)kerP(T) para todo i{1,,k}. Por otro lado si xkerP(T) y escribimos xi=(QiRi)(T)(x), la relación anterior nos dice que

x=x1++xk

Más aún Pi(T)(xi)=(PiQiRi)(T)(x) y PiQiRi es un múltiplo de P. Dado que xkerP(T)ker(PiQiRi)(T), se sigue que xikerPi(T), y como x=x1++xk concluimos que

kerP(T)=i=1kkerPi(T).

Queda por demostrar que si xikerPi(T) y x1++xk=0 entonces xi=0 para todo i{1,,k}. Tenemos que

Q1(T)(x1)+Q1(T)(x2)++Q1(T)(xk)=0.

Pero Q1(T)(x2)==Q1(T)(xk)=0 dado que Q1 es un múltiplo de P2,,Pk y P2(T)(x2)==Pk(T)(xk)=0. Entonces Q1(T)(x)=0 y similarmente Qj(T)(xj)=0 para j{1,,k}. Pero entonces

x1=(R1Q1)(T)(x1)++(RkQk)(T)(xk)=0

y similarmente se demuestra que x2==xk=0. Queda demostrado el teorema.

◻

Más adelante…

En la próxima entrada usaremos lo demostrado en esta entrada para dar una caracterización de las matrices diagonalizables, como hicimos con las matrices triangularizables.

Tarea moral

Estos ejercicios no forman parte de la evaluación del curso, pero son útiles para practicar los conceptos vistos en esta entrada.

  1. Diagonaliza la matriz
    A=(1241)M2(C).
  2. ¿Es la siguiente matriz diagonalizable?
    B=(500050105)M3(R).
  3. Sea V un espacio vectorial de dimensión finita y T:VV lineal. Demuestra que si T es diagonalizable, entonces T2 también lo es y además kerT=kerT2.
  4. Sean A,BMn(F) dos matrices tales que A es invertible y AB es diagonalizable. Demuestra que BA también lo es.
  5. Sea AMn(C) tal que existe d>0 con Ad=In. Demuestra que A es diagonalizable.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Triangularizar y descomposición de Schur

Por Julio Sampietro

Introducción

En esta entrada estudiaremos el concepto de triangularizar matrices. Esto simplemente quiere decir encontrar una base respecto a la cual podamos escribir a nuestra matriz como una matriz triangular superior. Esto tiene muchas ventajas, puesto que las matrices triangulares superiores son relativamente fáciles de calcular. Como veremos, el concepto de triangularización está íntimamente ligado con los ceros de polinomios.

Matrices triangulares

Recordamos que una matriz A=[aij]Mn(F) se dice triangular superior si aij=0 siempre que i>j, es decir si todas las entradas por debajo de la diagonal son cero. Las matrices triangulares gozan de algunas propiedades que ya hemos explorado. Por ejemplo, sus valores propios son fácilmente calculables: ¡son precisamente las entradas de la diagonal! Más explícitamente su polinomio característico es exactamente

χA(X)=i=1n(Xaii).

Además forman un subespacio cerrado bajo multiplicación del espacio de todas las matrices. Puesto que son matrices ‘sencillas’, es deseable poder escribir alguna otra matriz como una matriz triangular, tal vez mediante un cambio de base: esto es precisamente triangularizar. Tenemos entonces la siguiente definición.

Definición. Diremos que una matriz es triangularizable si es similar a una matriz triangular superior.

Primero, necesitaremos de un par de conceptos sobre polinomios.

Polinomios y sus raíces

Definición. Un polinomio PF[X] se divide sobre F si es de la forma

P(X)=c(Xa1)(Xan)

para algunos escalares c,a1,,anF no necesariamente distintos.

Por ejemplo el polinomio X2+1 no se divide sobre R ya que sabemos que no tiene raíces reales. Sin embargo, el mismo polinomio si se divide sobre C: en efecto

X2+1=(Xi)(X+i).

Por otro lado, el polinomio X23X+2 si se divide sobre R, puesto que lo podemos escribir como

X23X+2=(X1)(X2).

Nota que el polinomio también se divide sobre C puesto que RC. De hecho, no existe ningún polinomio con coeficientes complejos que no se divida sobre C, este es un sorprendente resultado de Gauss:

Teorema (fundamental del Álgebra). Cualquier polinomio PC[X] se divide sobre C.

Este teorema también se enuncia diciendo que C es algebraícamente cerrado. Es decir, todo polinomio con coeficientes complejos tiene al menos una raíz compleja. Es un buen ejercicio verificar que ambas versiones son equivalentes.

Por lo que mencionamos al principio, el polinomio característico de una matriz triangular superior se divide sobre el campo. Como el polinomio de matrices similares es igual, se sigue que si una matriz es triangularizable, entonces su polinomio característico se divide sobre el campo.

Problema. Da un ejemplo de una matriz AM2(R) que no sea triangularizable en M2(R).

Solución. Puesto que el polinomio característico de una matriz triangularizable se divide sobre el campo, es suficiente con encontrar una matriz cuyo polinomio característico no se divida sobre R: por ejemplo X2+1. Enseguida proponemos la matriz

A=(0110).

Entonces χA(X)=X2+1, que ya aclaramos que no se divide sobre R. Por tanto A no es triangularizable.

Un teorema sobre triangularizar

Ya vimos que si A es una matriz triangularizable su polinomio característico se divide sobre el campo. El siguiente teorema nos dice que el converso también es cierto.

Teorema. Sea AMn(F). Las siguientes afirmaciones son equivalentes:

  1. El polinomio característico de A se divide sobre F.
  2. A es similar a una matriz triangular superior.

Demostración. La discusión previa ya nos mostró que 2 implica 1. Probaremos el converso por inducción sobre n. El resultado se cumple para n=1 (pues toda matriz es triangular superior), así que podemos asumir que n2 y que el resultado se cumple para n1.

Sea λF una raíz de χA. Nota que dicha raíz existe pues estamos suponiendo que χA se divide sobre F. También escogemos un vector no-cero v tal que Av=λv, es decir, un eigenvector asociado a λ. Como v0, podemos completar a una base v=v1,,vn de V=Fn. La matriz asociada a la transformación lineal T asociada a A se ve entonces de la forma

(λ0B)

para alguna BMn1(F). Entonces podemos encontrar una matriz de cambio de base (y por tanto invertible) P1 tal que

P1AP11=(λ0B).

Puesto que matrices similares comparten el mismo polinomio característico, tenemos que

χA(X)=χP1AP11(X)=(Xλ)χB(X).

Se sigue que χB se divide sobre el campo. Además, BMn1(F), por lo que podemos aplicar la hipótesis de inducción para afirmar que existe una matriz invertible QMn1(F) tal que QBQ1 es triangular superior. Luego definiendo

P2=(100Q),

se cumple no solo que P2 es invertible (¿por qué?) pero además que

P2(P1AP11)P21=(λ0QBQ1).

Notamos que esta última matriz es triangular superior, puesto que QBQ1 lo es. Esto completa la prueba.

◻

Un corolario importante

Combinando el teorema fundamental del álgebra junto con el teorema pasado obtenemos un corolario importante, conocido como el teorema de descomposición de Schur. Lo enunciamos como teorema.

Teorema (descomposición de Schur). Para cualquier matriz AMn(C) podemos encontrar una matriz invertible PMn(C) y una matriz triangular superior TMn(C) tal que A=PTP1. Por tanto toda matriz con entradas complejas es triangularizable.

Demostración. Por el teorema fundamental del álgebra, tenemos que χA se divide sobre C. Luego usando el teorema anterior concluimos que A es triangularizable.

◻

Más adelante…

En la próxima entrada veremos un concepto parecido a triangularizar pero más fuerte: diagonalizar, que consiste en llevar a una matriz a una matriz diagonal similar.

Tarea moral

A continuación presentamos algunos ejercicios que sirven para repasar los temas vistos en esta entrada.

  1. ¿Es la matriz
    A=(121322011)
    triangularizable sobre R?
  2. Encuentra una matriz traingular superior similar a la matriz
    (1232).
  3. Encuentra una matriz triangular superior similar a la matriz
    (100210321).
  4. ¿Por qué la matriz P2 construida en la demostración del segundo teorema es invertible?
  5. Demuestra que una matriz AMn(F) es nilpotente si y sólo si es similar a una matriz triangular superior con entradas cero en la diagonal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Demostración del teorema de Cayley-Hamilton

Por Julio Sampietro

Introducción

En esta entrada demostraremos el teorema de Cayley-Hamilton. Daremos dos demostraciones de sabores muy diferentes. La primera demostración explota las propiedades de la matriz adjunta, mientras que la segunda echa mano de las familias especiales de las cuales calculamos el polinomio característico.

Primera demostración

La primera demostración del teorema de Cayley-Hamilton usa algunas propiedades de la matriz adjunta. Recordamos el teorema y lo demostramos a continuación:

Teorema. (Cayley-Hamilton)

Para cualquier matriz AMn(F) se cumple que

χA(A)=On.

Demostración. Sea AMn(F) y sea B=XInAMn(K) dónde K=F(X) es el campo de fracciones racionales en la variable X. Es decir, un elemento de K es un cociente de la forma

A(X)B(X),A(X),B(X)F[X]

con B no idénticamente cero.

Sea C la matriz adjunta de B, es decir C=adj(B). Sus entradas son (por definición) los determinantes de las matrices de tamaño (n1) cuyas entradas son a su vez polinomios de grado a lo más 1. Es decir cada entrada de C es un polinomio de grado a lo más n1. Luego, sea

cij=cij(0)+cij(1)X++cij(n1)Xn1

la (i,j)-ésima entrada de C, con cij(0),,cij(n1)F. Sea C(k) la matriz cuyas entradas son cij(k). Entonces

C=C(0)+C(1)X++C(n1)Xn1.

Ahora, recuerda que

BC=Badj(B)=det(B)In=χA(X)In.

Es decir

(XInA)(C(0)+C(1)X++C(n1)Xn1)=χA(X)In.

Por otro lado, si escribimos a χA(X) como χA(X)=Xn+un1Xn1++u0F[X], la igualdad anterior se convierte en

AC(0)+(C(0)AC(1))X+(C(1)AC(2))X2++(C(n2)AC(n1))Xn1+C(n1)Xn=u0In++un1InXn1+InXn.

Identificando los términos de cada coeficiente llegamos a

{AC(0)=u0In,C(0)AC(1)=u1In,C(n2)AC(n1)=un1In,C(n1)=In.

Comenzando con la última igualdad, tenemos que C(n1)=In. Sustituyendo en la anterior llegamos a que C(n2)=A+un1In, e inductivamente se cumple que

C(nj1)=Aj+un1Aj1++u1In.

En particular

C(0)=An1+un1An2++u1In.

Multiplicando ambos lados por A y usando que AC(0)=u0In finalmente llegamos a

An+un1An1++u0In=On.

Pero esta igualdad no es nada más que χA(A)=On, lo que concluye la prueba.

◻

Segunda demostración

Para la segunda demostración enunciaremos el teorema de una manera distinta pero equivalente (¿por qué?). Usaremos una estrategia fundada en el cálculo de polinomios característicos de familias conocidas de una entrada previa.

Teorema. (Cayley-Hamilton)

Sea V un espacio vectorial de dimensión finita sobre F y sea T:VV una transformación lineal. Entonces χT(T)=0.

Demostración. La idea es reducir el problema a transformaciones lineales para las que podemos calcular χT fácilmente. Sin embargo, los detalles son un poco complicados.

Fijemos xV. Para m0 fijamos

Wm=Span(T0(x),T1(x),,Tm(x)).

Nota como W0W1V y que dimWmdimWm+1dimV para todo m0. Entonces debe existir algún m mínimo tal que dimWm1=dimWm. Entonces como Wm1Wm se tiene que Wm1=Wm. Luego Tm(x)Wm1, es decir existe una combinación lineal

Tm(x)=k=0m1akTk(x).

Nota que esto implica que Wm1 es estable bajo T. Como m es mínimo, los vectores T0(x),,Tm1(x) deben ser linealmente independientes: en efecto, si no lo fueran existiría una relación de dependencia entre Tm1(x) y términos de grado menor y así dimWm1=dimWm2 y entonces m no sería mínimo. Por lo tanto forman una base para Wm1 y respecto a esta base la matriz asociada a T|Wm1 es

A=(0000a01000a10100a20001am1).

El polinomio característico de matrices como esta lo calculamos en esta entrada y es igual a Xmam1Xm1a0. Entonces

χT|Wm1(T)(x)=Tm(x)k=0m1akTk(x)=0.

Pero como Wm1 es Testable, el polinomio característico de T|Wm1 divide al polinomio característico de T (este es un ejercicio en la tarea moral de esta entrada) y por tanto χT(T)(x)=0. Como x fue arbitrario concluimos que χT(T) es la transformación cero.

◻

Más adelante…

En la próxima entrada veremos aplicaciones del teorema de Cayley-Hamilton.

Tarea moral

  1. Supón que T:VV es una transformación lineal y V es de dimensión finita. Demuestra que si W es un subespacio T-estable de V entonces χT|W(X) divide a χT(X). Sugerencia. Considera una base de W, extiéndela a una base de V. ¿Cómo se ve la matriz asociada a T en esta base?
  2. Explica por qué las dos versiones que dimos del teorema de Cayley-Hamilton son equivalentes.
  3. Demuestra la propiedad de la matriz adjunta que se menciona en la primera demostración.
  4. Sean A,B,CM2(C) matrices tales que AC=CB y COn. Demuestra que para cualquier polinomio P se cumple que P(A)C=CP(B). Usando esto y escogiendo un polinomio adecuado, deduce que A y B tienen un eigenvalor en común. Sugerencia: Usa el teorema de Cayley-Hamilton.
  5. Sea la matriz
    A=(020111111).
    Usa el teorema de Cayley-Hamilton para calcular A1000. Sugerencia: El teorema de Cayley-Hamilton te debería dar una relación entre algunas potencias de A.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Introducción al teorema de Cayley-Hamilton

Por Julio Sampietro

Introducción

En esta entrada introducimos el teorema de Cayley-Hamilton, otro de los teoremas importantes del curso. Intuitivamente este teorema nos dice que «el polinomio característico anula al operador lineal». Es decir, si P(λ) es el polinomio característico de una transformación lineal T, entonces P(T)=0.

Algunos ejemplos

Damos unos cuantos ejemplos para que entendamos que está pasando.

Ejemplo 1. Sea AM2(R) la matriz dada por

A=(0110).

Calculemos su polinomio característico

χA(X)=det(X11X)=X2+1.

Así, si evaluamos al polinomio χA en la matriz A tenemos que calcular

χA(A)=A2+I2.

Por un lado

A2=(0110)(0110)=(1001)=I2.

Luego

χA(A)=A2+I2=I2+I2=O2.

Es decir, ¡χA(A) es la matriz cero!

Ejemplo 2. Calculemos el polinomio característico de la matriz AM3(R) dónde A está dada por

A=(012034005.)

Notamos que A es una matriz triangular superior. Por una entrada anterior sabemos que el polinomio característico es solo el producto de los monomios (Xaii). Es decir

χA(X)=(X0)(X3)(X(5))=X(X3)(X+5).

Enseguida, evaluemos χA(A). Recordamos que esto quiere decir que tenemos que calcular

χA(A)=A(A3I3)(A+5I3).

Por un lado

A3I3=(312004008),

y por otro

A+5I3=(512084000).

Así

(A3I3)(A+5I3)=(312004008)(512084000)=(1552000000).

Finalmente

A(AI3)(A+5I3)=(012034005.)(1552000000)=O3.

Una vez más χA(A)=0.

El teorema

Los ejemplos anteriores sirven de calentamiento para enunciar el teorema de Cayley-Hamilton, que dice exactamente lo que sospechamos.

Teorema (de Cayley-Hamilton). Para cualquier matriz AMn(F) se cumple

χA(A)=On.

En otras palabras, si χA(X)=Xn+an1Xn1++a0 entonces

An+an1An1++a0In=On.

Demostraremos este teorema en la próxima entrada. Uno podría sospechar que la demostración consiste en simplemente sustituir A en la expresión de χA como sigue

χA(A)=det(AInA)=det(0)=0.

Sin embargo, esta ‘prueba’ no es correcta, ya que estamos multiplicando a A con In como si fueran matrices, mientras que la expresión de χA se refiere a escalares. Más aún, observa como el resultado de la expresión que anotamos es el escalar cero, mientras que sabemos que χA(A) debería ser la matriz cero.

Concluimos esta sección con una breve aplicación del teorema de Cayley-Hamilton.

Proposición. El polinomio mínimo de una matriz AMn(F) divide al polinomio característico.

Demostración. Por el teorema de Cayley-Hamilton, χA(A)=0. Luego por definición del polinomio mínimo se sigue que μA(X) divide a χA(X).

◻

Más adelante…

En la próxima entrada demostraremos el teorema de Cayley-Hamilton, y luego pasaremos a dar aplicaciones de este.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. En una entrada anterior calculamos el polinomio característico de una matriz nilpotente. Explica por qué el teorema de Cayley-Hamilton es compatible con dicho cálculo. De otra manera, verifica el teorema de Cayley-Hamilton en ese caso particular.
  2. Sea AM3(R) tal que Tr(A)=Tr(A2)=0. Usa el teorema de Cayley-Hamilton para demostrar que existe un αR tal que A3=αI3.
  3. Calcula el polinomio característico de AM2(C) donde
    A=(0110).
    Es decir, A es la misma matriz que en el ejemplo pero pensada como una matriz compleja. Verifica que χA(A)=O2.
  4. Verifica que χA(A)=O3 con
    A=(101111021)M3(R).
  5. Sea AMn(R) una matriz tal que A y 3A son similares. Demuestra que An=On.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»