Archivo de la etiqueta: diagonalizar

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal T:RnRn. Si λR es uno de estos eigenvalores, queremos poder encontrar vectores v¯0¯ tales que T(v¯)=λv¯. Esto sucede si y sólo si λv¯T(v¯)=0¯, lo cual sucede si y sólo si (λIdT)(v¯)=0¯, en donde Id:RnRn es la transformación identidad de Rn en Rn. Tenemos de esta manera que v¯ es un eigenvector si y sólo si v¯ker(λIdT).

Si existe v¯0¯ tal que v¯ker(λIdT); entonces ker(λIdT){0¯} por lo cual la transformación λIdT no es invertible, pues no es inyectiva. Así, en ninguna base Matβ(λIdT) es invertible, y por tanto su determinante es 0. Estos pasos son reversibles. Concluimos entonces que λR es un eigenvalor de T si y sólo si en alguna base β se cumple que det(Matβ(λIdT))=0. Esto motiva la siguiente definición.

Definición. Sea T:RnRn una transformación lineal. Llamamos a det(Matβ(λIdT)) al polinomio característico de T en la base β.

Por la discusión anterior, los escalares que cumplen det(Matβ(λIdT))=0 son los eigenvalores T. Para obtener los correspondientes eigenvectores, basta con resolver Matβ(T)X=λX, lo cual es un sistema de ecuaciones en el vector de variables X. Las soluciones X nos darán las representaciones matriciales de vectores propios v¯Rn en la base β.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos T:R3R3 dada por T(x,y,z)=(2x+z,y+x,z). Calculemos su representación matricial con respecto a la base canónica β. Para ello, realizamos las siguientes evaluaciones:
T(1,0,0)=(2,1,0)T(0,1,0)=(0,1,0)T(0,0,1)=(1,0,1),

de donde: Matβ=(201110001).

Calculando el polinomio característico obtenemos: det(λ2011λ1000λ+1)=(λ2)(λ1)(λ+1).

Las raíces de (λ2)(λ1)(λ+1) son λ1=2, λ2=1 y λ3=1. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor λ=2. Para que (x,y,z) represente a un eigenvector en la base canónica, debe pasar que:

(201110001)(xyz)=2(xyz),

lo cual sucede si y sólo si:

(201110001)(xyz)2(xyz)=(000);

[(201110001)2(100010001)](xyz)=(000);

(001110003)(xyz)=(000).

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

(110001000)(xyz)=(000).

En esta forma es sencillo leer las soluciones. Tenemos que z es variable pivote con z=0, que y es variable libre, y que x es variable pivote dada por x=y. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor 2 son de la forma (y,y,0), es decir E2={(y,y,0):yR}.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores 1 y 1.

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea T:RnRn una transformación lineal y sean β1={e¯1,,e¯n}, β2={u¯1,,u¯n} dos bases (ordenadas) de Rn. Supongamos que:

A=Matβ1(T)=[aij]B=Matβ2(T)=[bij].

Por cómo se construyen las matrices A y B, tenemos que:

T(e¯j)=i=1naije¯ipara j=1,,nT(u¯k)=j=1nbjku¯jpara k=1,,n.

Como β1 es base, podemos poner a cada un de los u¯k de β2 en términos de la base β1 mediante combinaciones lineales, digamos:

(1)u¯k=j=1ncjke¯j

en donde los cjk son escalares para j=1,,n y k=1,,n. La matriz C de n×n, con entradas cjk representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que CB=AC. Para ello, tomaremos una k en [n] y expresaremos T(u¯k) de dos formas distintas.

Por un lado, usando (1) y por como es cada T(e¯k) en la base β1 tenemos que:

T(u¯k)=j=1ncjkT(e¯j)=j=1ncjki=1naije¯i=j=1ni=1n(cjkaije¯i)=i=1nj=1n(cjkaije¯i)=i=1n(j=1naijcjk)e¯i.

Por otro lado, usando (1) y por como es cada T(u¯k) en la base β2:

T(u¯k)=j=1nbjku¯j=j=1nbjki=1ncjie¯j=j=1ni=1n(bjkcije¯i)=i=1nj=1n(bjkcije¯i)=i=1n(j=1ncijbjk)e¯i.

Comparemos ambas expresiones para T(u¯k). La primera es una combinación lineal de los e¯i y la segunda también. Como T(u¯k) tiene una única expresión como combinación lineal de los e¯i, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada i se cumple:

j=1naijcjk=j=1ncijbjk.

Pero esto precisamente nos dice que la entrada (i,k) de la matriz AC es igual a la entrada (i,k) de la matriz CB. Con esto concluimos que AC=CB, como queríamos.

En resumen, obtuvimos que para dos matrices A y B que representan a la misma transformación lineal, existe una matriz invertible C tal que: B=C1AC. Además C es la matriz con entradas dadas por (1).

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices A y B se llamarán similares (o semejantes), cuando existe otra matriz C invertible tal que B=C1AC.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean A y B matrices similares. Entonces A y B representan a una misma transformación lineal T, quizás bajo distintas bases.

Demostración: Supongamos que las matrices A y B son similares con B=C1AC, donde las matrices A, B, C están dadas por entradas A=[aij] B=[bij], C=[cjk]. Tomemos una base ordenada β={e¯1,,e¯n} de Rn. Consideremos la transformación lineal TL(Rn,Rn) dada por T(e¯j)=i=1naije¯i.

De esta manera T tiene forma matricial A en la base β.

Construyamos ahora una nueva base ordenada de Rn dada por vectores u¯k para k=1,,n construidos como sigue:

u¯k=j=1ncjke¯j.

Como C es invertible, en efecto tenemos que β:={u¯1,,u¯n} también es base de Rn. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de T en la base β será B.

Así, hemos exhibido una transformación T que en una base tiene representación A y en otra tiene representación B.

◻

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices A y B en Mn(R) son similares si y sólo si representan a una misma transformación lineal T:RnRn, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea T:RnRn una transformación lineal en un espacio sobre R de dimensión finita. Sean β y β bases de Rn. Entonces se obtiene lo mismo calculando el polinomio característico de T en la base β, que en la base β.

Demostración. Tomemos A=Matβ(T) y B=Matβ(T). Como A y B representan a la misma transformación lineal T, entonces son similares y por lo tanto existe C invertible con B=C1AC.

Para encontrar el polinomio característico de T en la base β, necesitamos Matβ(λIdT), que justo es λIA. Así mismo, en la base β tenemos λIB. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

det(λIB)=det(λC1CC1AC)=det(C1(λIA)C)=det(C1)det(λIA)det(C)=det(C1)det(C)det(λIA)=det(I)det(λIA)=det(λIA).

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con det, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

◻

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea T:RnRn una transformación lineal. Supongamos que el polinomio característico de T tiene raíces distintas λ1,,λn. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector u¯i para cada eigenvalor λi, entonces u¯1,,u¯n forman una base β para Rn.
  2. Con dicha base β, se cumple que Matβ(T) es una matriz diagonal con entradas λ1,,λn en su diagonal.
  3. Si β es otra base de Rn y A=Matβ(T), entonces Matβ(T)=C1AC para una matriz invertible C con entradas dadas por (1).

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación T: 1) la transformamos en una matriz A, 2) encontramos el polinomio característico mediante det(λIA), 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones (λIA)X=0 dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de Rn a sí mismo sea diagonalizable es que tenga n eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de Rn a Rm son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal T(x,y,z)=(2x+z,y+x,z) de R3 en R3. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base {(1,1,1),(1,2,3),(0,1,1)} de R3. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si A y B son dos representaciones matriciales de una misma transformación lineal T, entonces det(A)=det(B).
  4. Sea T:R3R3 dada por T(x,y,z)=(x+y+z,x,y). Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base β en la cual Matβ(T) es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas

Álgebra Lineal II: Introducción a forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta última unidad usaremos las herramientas desarrolladas hasta ahora para enunciar y demostrar uno de los teoremas más hermosos y útiles en álgebra lineal: el teorema de la forma canónica de Jordan. A grandes rasgos, lo que nos dice este teorema es que cualquier matriz prácticamente se puede diagonalizar. En esta primera entrada hablaremos un poco de qué puedes esperar en el transcurso de la unidad, aunque en un orden algo distinto que te ayudará a entender mejor la motivación de presentar la teoría cómo vendrá en las siguientes notas.

Bloques de Jordan

Un bloque de Jordan de tamaño k y eigenvalor λ es una matriz en Mk(F) que se obtiene de comenzar con λIk y agregar encima de la diagonal principal puros unos. Queda algo así:

Jλ,k=(λ10000λ10000λ00000λ10000λ).

Puedes notar que esto es prácticamente una matriz diagonal, a excepción de la diagonal de unos que queda por encima de la diagonal principal. Esto debería sugerirte que los bloques de Jordan son casi tan amigables como las matrices diagonales. Como veremos en las siguientes entradas, es muy fácil calcularles su traza, determinante, polinomio característico, polinomio mínimo, eigenvalores, eigenvectores, etc.

A partir de los bloques de Jordan podemos formar matrices de bloques de Jordan pegando varios bloques de Jordan en una diagonal para obtener una matriz del siguiente estilo:

(2)(Jλ1,k10000Jλ2,k20000Jλ3,k30000Jλd,kd).

Aquí pusimos muchos ceros, pero en el fondo cada uno de estos ceros son una matriz de ceros. Por ejemplo, si tenemos los tres bloques de Jordan J3,2, J2,1 y J5,3 y pegamos estos bloques, obtenemos la siguiente matriz de bloques:

(310000030000002000000510000051000005).

Recuerda que las líneas que dibujamos en una matriz de bloques son simplemente ayuda visual. Estas matrices también son prácticamente diagonales y, como te imaginarás, también es fácil encontrar muchas de sus propiedades.

Teorema de la forma canónica de Jordan

Si recuerdas, una de las motivaciones fuertes para que nos interesara diagonalizar una matriz A es que la matriz diagonal D semejante comparte muchas propiedades con A, pero D es mucho más fácil de entender. A veces no podremos encontrar una matriz diagonal semejante a A, pero lo que nos dice el teorema de formas canónicas de Jordan es que prácticamente siempre podremos encontrar una matriz de bloques de Jordan semejante a A.

Teorema. Sea AMn(F) una matriz tal que su polinomio característico χA(X) se divide sobre F. Entonces, A es similar a una matriz de bloques de Jordan, es decir, una matriz como en \refeq{eq:Jordan}.

En realidad, cuando enunciemos el teorema lo haremos de manera más formal, y hasta diremos en qué sentido la forma canónica de Jordan es única.

¿Por qué decimos que entonces prácticamente siempre podemos diagonalizar una matriz? En cursos más avanzados se muestra que sin importar en qué campo F estemos trabajando, siempre podemos extender el campo F lo suficiente como para que cualquier polinomio se divida sobre una extensión G de F. En este campo extendido, cualquier matriz en Mn(F) se puede diagonalizar.

Transformaciones y matrices nilpotentes

Para demostrar el teorema de Jordan, primero tendremos que enunciarlo y demostrarlo para una clase muy especial de matrices: las nilpotentes. Ya hemos hablado un poco de estas matrices en ejercicios particulares y algunos problemas de la tarea moral. Pero si se te pasó, una matriz A en Mn(F) es nilpotente cuando se puede encontrar un expontente m tal que Am=On. De manera similar, si T es una transformación lineal, diremos que es nilpotente cuando Tm=Z para algún exponente m, donde Z es la transformación lineal trivial que manda todo elemento al 0. Recuerda que aquí el exponente indica cuántas veces se compone T consigo mismo. Como te imaginarás, T será nilpotente si y sólo si alguna de sus formas matriciales lo es.

Las matrices nilpotentes servirán como nuestros cimientos para demostrar el teorema de la forma canónica de Jordán. Es sencillo ver que los bloques de Jordan de la forma J0,k son nilpotentes. También es sencillo ver que cualquier matriz de bloques de Jordan con puros eigenvalores iguales a cero es nilpotente. Nuestra primera versión del teorema de la forma canónica de Jordán nos dará algo así como un «regreso» de esta afirmación. El siguiente teorema es una versión «light» de lo que demostraremos.

Teorema. Sea AMn(F) una matriz nilpotente. Entonces, A es similar a una matriz de bloques de Jordan, todos ellos con eigenvalor 0.

La demostración será muy bonita, y hará uso de la teoría de dualidad de Álgebra Lineal I. Una vez que demostremos esta versión, la combinaremos con el teorema de Cayley-Hamilton de la Unidad 1 para obtener el teorema general.

Aplicaciones del teorema de Jordan

Si conocemos la forma canónica de Jordan de una matriz, podemos encontrar a partir de ella fácilmente muchas propiedades, como la traza, determinante, etc. Además de estas aplicaciones «de cálculo de propiedades», el teorema de la forma canónica de Jordán nos permitirá decir exactamente cuándo dos matrices son similares. En particular, veremos que cualquier matriz A es similar a su transpuesta.

Tarea moral

En esta ocasión la tarea moral consistirá en un repaso de contenido anterior tanto de Álgebra Lineal I como Álgebra Lineal II, para que cuentes con todas las herramientas necesarias para aprovechar esta última unidad.

  1. Haz un repaso de la teoría de Matrices de bloques, para recordar a qué se refiere esta notación y cómo se pueden hacer operaciones cuando las matrices están escritas por bloques.
  2. Revisa la entrada de Matrices de cambio de base, para recordar por qué dos matrices similares en el fondo representan a la misma transformación lineal, pero en distintas bases.
  3. Repasa la teoría básica de dualidad en espacios vectoriales. Puedes comenzar con la entrada de Introducción a espacio dual. Concretamente, tendrás que recordar por lo menos hasta la teoría de Ortogonalidad y espacio ortogonal.
  4. Recuerda todo lo que podemos decir de las transformaciones triangularizables, revisando la entrada de Triangularizar y descomposición de Schur, y compara los resultados de ahí con lo que esperamos obtener sobre forma canónica de Jordan. ¿Cuál teorema dice algo más fuerte?
  5. Vuelve a leer todo el contenido relacionado con el teorema de Cayley-Hamilton para recordar no sólo qué dice, sino cómo está relacionado con los eigenespacios asociados a una transformación lineal. Puedes empezar con la entrada de Introducción al teorema de Cayley-Hamilton.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Caracterizaciones de diagonalizar

Por Julio Sampietro

Introducción

Ya dimos la definición de que una matriz sea diagonalizable y encontramos buenas razones para, dada una matriz, intentar encontrar una matriz similar que sea diagonal. En esta entrada enunciaremos y demostraremos un teorema de caracterización de matrices diagonalizables, el cual nos ayudará a entender con más profundidad la diagonalizabilidad.

El teorema de caracterización

El teorema principal de esta entrada es el siguiente.

Teorema. Sea V un espacio de dimensión finita sobre F y T:VV una transformación lineal. Las siguientes afirmaciones son equivalentes.

  1. T es diagonalizable.
  2. Existe un polinomio PF[X] que se divide sobre F y tiene raíces distintas dos a dos, tal que P(T)=0.
  3. El polinomio mínimo μT de T se divide sobre F y tiene raíces distintas dos a dos.
  4. Sea Sp(T)F el conjunto de eigenvalores de T. Entonces
    λSp(T)ker(TλId)=V.

Demostración. Demostremos primero que 1 implica 2. Escogemos una base en la que T se represente por una matriz diagonal D. Sea P el polinomio cuyas raíces son las diferentes entradas de la diagonal de D. Entonces P(T) está representada por la matriz diagonal P(D) con entradas P(dii)=0. Es decir P(T)=0.

Que 2 implica 3 se sigue de la definición del polinomio mínimo: si P cumple 2, entonces μT divide a P y por tanto cumple 3.

La implicación 34 es consecuencia del último teorema de la entrada anterior aplicado a P=μT y los factores lineales siendo los Pi.

Finalmente veamos que 4 implica 1. Sea Sp(T)={λ1,,λk} y sea v1,vn una base de V obtenida al pegar una base de ker(Tλ1Id) a una base de ker(Tλ2Id) y a una base de ker(Tλ3Id) y así sucesivamente hasta pegar una base de ker(TλnId). Entonces v1,,vn es una base de eigenvectores de V y por tanto se cumple 1.

◻

Consecuencias del teorema

Hacemos algunas observaciones que son consecuencia del teorema anterior.

Observación. Si T es una transformación lineal diagonalizable, entonces el polinomio mínimo de T es

μT(X)=λSp(T)(Xλ)

dónde el producto se toma sobre todos los valores propios, contados sin multiplicidad. El mismo producto pero tomado con multiplicidades rinde el polinomio característico de T.

Observación. Si T es cualquier transformación lineal en un espacio vectorial de dimensión finita entonces T es diagonalizable si y sólo si la suma de las dimensiones de los eigenespacios coincide con la dimensión de V, es decir si

λSp(T)dimker(TλId)=dimV.

Observación. Supongamos que T es diagonalizable. Para cada λSpT sea πλ la proyección al subespacio ker(TλId). Entonces

T=λSp(T)λπλ.

Esto se sigue de la descomposición λSp(T)ker(TλId)=V y que si

v=λSp(T)vλ,vλker(TλId),

entonces

T(v)=λSp(T)T(vλ)=λSp(T)λvλ=λSp(T)λπλ(v).

Finalmente enunciamos el teorema que demostramos en su forma matricial (que es ciertamente una consecuencia del teorema para transformaciones lineales).

Teorema. Sea AMn(F). Entonces las siguientes afirmaciones son equivalentes.

  1. A es diagonalizable en Mn(F).
  2. Si Sp(A) es el conjunto de eigenvalores de A, entonces
    λSp(A)ker(λInA)=Fn.
  3. El polinomio mínimo μA de A se divide sobre F con raíces distintas dos a dos.
  4. Existe un polinomio PF[X] que se divide sobre F con raíces distintas dos a dos tal que P(A)=On.

Problemas para practicar

Terminamos esta entrada con unos cuantos problemas para aplicar los resultados vistos.

Problema 1. Considera la matriz

A=(010001100).

¿Es A diagonalizable en M3(C)? ¿ En M3(R)?

Solución. El polinomio característico de A está dado por χA(X)=X31. Este polinomio se divide sobre C con raíces distintas, ya que tenemos 3 soluciones dadas por las raíces de la unidad. Por el teorema de Cayley-Hamilton sabemos que χA(A)=O3. Usando el teorema de esta entrada concluimos que A es diagonalizable sobre C.

Sin embargo, dado que el polinomio característico no se divide sobre R podemos deducir que A no es diagonalizable en M3(R).

Problema 2. ¿Es la matriz

A=(010440212)M3(R)

diagonalizable?

Solución. Comenzamos calculando el polinomio característico de A:

χA(X)=|X104X4021X2|=(X2)|X14X4|=(X2)(X24X+4)=(X2)3.

Por tanto 2 es un eigenvalor con multiplicidad algebraíca 3. Si A fuese diagonalizable, entonces 2 tendría multiplicidad geométrica 3, es decir ker(A2I3) sería 3-dimensional: ¡pero entonces sería todo R3! Esto implicaría que A2I3=0, de otra manera que A=2I3, lo que claramente no es cierto.

Más adelante…

En las siguientes entradas estudiaremos formas bilineales, lo que forma el segundo bloque del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para repasar lo visto en esta entrada.

  1. Encuentra todos los valores de aR tales que la matriz
    A=(2121a1111)M3(R)
    sea diagonalizable.
  2. Explicita el por qué el teorema para operadores lineales implica el teorema para matrices.
  3. Calcula la n-ésima potencia de
    A=(133313331).
    Sugerencia. Diagonaliza a A.
  4. Demuestra que si T:VV es una transformación lineal con V un espacio vectorial de dimensión finita sobre C tal que T2 diagonalizable y kerT=kerT2 entonces T es diagonalizable.
  5. Si V es un espacio de dimensión finita sobre F y T:VV es una transformación lineal diagonalizable fija, entonces cualquier otra transformación lineal S:VV satisface ST=TS si y sólo si S deja invariante cada eigenespacio de T.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Diagonalizar

Por Julio Sampietro

Introducción

En la entrada anterior estudiamos la triangularización de matrices, que consistía en llevar matrices a una forma triangular superior. En esta fortaleceremos esta idea, y buscaremos maneras de llevar una matriz a una matriz diagonal: a este proceso se le conoce como diagonalizar.

Matrices y transformaciones diagonalizables

A lo largo de esta sección fijamos F un campo. Todos los espacios vectoriales se asumirán de dimensión finita.

Definición. Una matriz AMn(F) es llamada diagonalizable si es similar a una matriz diagonal en Mn(F).

Una transformación lineal T:VV sobre un espacio vectorial V se llama diagonalizable si existe una base de V tal que la matriz de T respecto a esa base sea diagonal.

Es decir una matriz AMn(F) es diagonalizable si y sólo si podemos escribir

A=PDP1

para alguna matriz invertible PMn(F) y una matriz diagonal D=[dij]Mn(F). Nota que la definición implica que cualquier matriz similar a una matriz diagonalizable es a su vez diagonalizable. De misma manera, una transformación lineal es diagonalizable si su representación es diagonalizable respecto a cualquier base (aunque no será necesariamente diagonal en cualquier base).

Damos la siguiente caracterización de transformaciones diagonalizables.

Teorema. Una transformación lineal T:VV es diagonalizable si y sólo si V tiene una base compuesta por eigenvectores de T.

Demostración. Supongamos que T es diagonalizable. Por tanto existe una base v1,,vn de V tal que la matriz asociada a T en esta base es diagonal. Si (aii)i=1n son las entradas diagonales de A, entonces por definición T(vi)=aiivi para todo i=1,,n. Luego v1,,vn es una base de V compuesta por eigenvectores de T.

Conversamente, supongamos que T tiene una base v1,,vn compuesta por eigenvectores de T. Si T(vi)=divi entonces la matriz respecto a v1,,vn de T es diagonal con entradas di.

◻

Primeras propiedades

Tenemos dos observaciones inmediatas.

Observación. El teorema nos proporciona una manera de diagonalizar explícitamente una matriz. Si AMn(F) es diagonalizable, entonces encontramos una base de V=Fn formada por eigenvectores y los acomodamos como columnas de una matriz P. Entonces P1AP=D es diagonal y A=PDP1.

Observación. Supongamos que A es diagonalizable y que A=PDP1 para alguna matriz diagonal D y una matriz invertible P.

  1. El polinomio característico de A y de D es el mismo, puesto que son matrices similares. De esto deducimos que
    i=1n(Xdii)=χA(X).
    En particular, los eigenvalores de A son las entradas diagonales de D (contados con multiplicidad).
  2. Sea λF un eigenvalor de A. Entonces la multiplicidad algebraica es igual al número de índices i=1,,n tales que dii=λ (esto por el inciso anterior). Por otro lado, la dimensión geométrica de λ como eigenvalor de A o D es la misma puesto que la asignación XP1X induce un isomorfismo entre ker(λInA) y ker(λInD). Pero además la multiplicidad geométrica de λ como eigenvalor de D también coincide con el número de índices i=1,,n tales que λii=n, ya que el sistema DX=λX es equivalente a (diiλ)xi=0. Concluimos que en una matriz diagonalizable, la multiplicidad algebraíca y la multiplicidad geométrica coinciden.

Un par de problemas

A continuación resolvemos un par de problemas: el primero sirve para aplicar lo que hemos visto hasta ahora, y el segundo nos será útil más adelante.

Problema 1. Demuestra que la matriz

A=(1a01)

no es diagonalizable si a0.

Solución. Supongamos que A es diagonalizable y escribamos A=PDP1 con P invertible y D diagonal. Como A es triangular superior con entradas diagonales iguales a 1, deducimos que 1 es el único eigenvalor de A. Por la observación anterior tenemos que las entradas diagonales de D son 1, por tanto D=In. Pero entonces A=PInP1=In una contradicción si a0.

◻

El siguiente problema es más técnico, y nos servirá para demostrar uno de los teoremas fundamentales que caracteriza a las matrices diagonalizables.

Problema 2. Sea k>1 y sean P1,,Pk polinomios primos relativos dos a dos. Si P=P1P2Pk es su producto y Qi=PPi, demuestra que los Q1,,Qk son primos relativos (es decir, no existe un polinomio que los divida a todos simultáneamente).

Solución. Supongamos que existe un polinomio Q irreducible que divide a todos los Qi. Puesto que QQ1=P2Pk deducimos que Q divide a Pj para algún j{2,,k}. Pero como Q divide también a Qj, esto quiere decir que Q divide a Pi para algún ij, lo que contradice que los Pi son primos relativos dos a dos.

◻

Un teorema de descomposición

Terminamos esta entrada con un teorema algo técnico que será de mucha utilidad en la próxima entrada, cuando caractericemos a las matrices diagonalizables.

Teorema. Sea T una transformación lineal de algún espacio V en si mismo (no necesariamente de dimensión finita). Entonces para cualesquiera polinomios P1,,PkF[X] primos relativos dos a dos se cumple que

kerP(T)=i=1kkerPi(T),

dónde P=P1Pk.

Demostración. Consideramos a los polinomios Qi=PPi como en el problema anterior. Como son primos relativos, el teorema de Bezout nos dice que existen polinomios R1,,Rk tales que

Q1R1++QkRk=1.

Como Pi divide a P, se sigue que kerPi(T)kerP(T) para todo i{1,,k}. Por otro lado si xkerP(T) y escribimos xi=(QiRi)(T)(x), la relación anterior nos dice que

x=x1++xk

Más aún Pi(T)(xi)=(PiQiRi)(T)(x) y PiQiRi es un múltiplo de P. Dado que xkerP(T)ker(PiQiRi)(T), se sigue que xikerPi(T), y como x=x1++xk concluimos que

kerP(T)=i=1kkerPi(T).

Queda por demostrar que si xikerPi(T) y x1++xk=0 entonces xi=0 para todo i{1,,k}. Tenemos que

Q1(T)(x1)+Q1(T)(x2)++Q1(T)(xk)=0.

Pero Q1(T)(x2)==Q1(T)(xk)=0 dado que Q1 es un múltiplo de P2,,Pk y P2(T)(x2)==Pk(T)(xk)=0. Entonces Q1(T)(x)=0 y similarmente Qj(T)(xj)=0 para j{1,,k}. Pero entonces

x1=(R1Q1)(T)(x1)++(RkQk)(T)(xk)=0

y similarmente se demuestra que x2==xk=0. Queda demostrado el teorema.

◻

Más adelante…

En la próxima entrada usaremos lo demostrado en esta entrada para dar una caracterización de las matrices diagonalizables, como hicimos con las matrices triangularizables.

Tarea moral

Estos ejercicios no forman parte de la evaluación del curso, pero son útiles para practicar los conceptos vistos en esta entrada.

  1. Diagonaliza la matriz
    A=(1241)M2(C).
  2. ¿Es la siguiente matriz diagonalizable?
    B=(500050105)M3(R).
  3. Sea V un espacio vectorial de dimensión finita y T:VV lineal. Demuestra que si T es diagonalizable, entonces T2 también lo es y además kerT=kerT2.
  4. Sean A,BMn(F) dos matrices tales que A es invertible y AB es diagonalizable. Demuestra que BA también lo es.
  5. Sea AMn(C) tal que existe d>0 con Ad=In. Demuestra que A es diagonalizable.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si A es una matriz de m×n, su transpuesta tA es la matriz de n×m que se obtiene de reflejar a las entradas de A en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos A=[aij], entonces tA=[aji]. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y tA=A1. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si A es una matriz de n×n con entradas reales y simétrica, entonces:

  • Sus eigenvalores λ1,,λn (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal P de n×n y con entradas reales tal que si tomamos a D la matriz diagonal de n×n cuyas entradas en la diagonal principal son λ1,,λn, entonces A=P1DP.

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si A=P1DP como en el teorema anterior, entonces
A2=(P1DP)(P1DP)=P1DDP=P1D2P,

y de manera inductiva se puede probar que Ak=P1DkP. Elevar la matriz D a la k-ésima potencia es sencillo, pues como es una matriz diagonal, su k-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la k.

Problema. Sea A una matriz de n×n simétrica y de entradas reales. Muestra que si Ak=On para algún entero positivo k, entonces A=On.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de A. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como A es simétrica y de entradas reales, entonces sus eigenvalores λ1,,λn son reales y es diagonalizable. Digamos que su diagonalización es P1DP. Tenemos que On=Ak=P1DkP. Multiplicando por la matriz P a la izquierda, y la matriz P1 a la derecha, tenemos que Dk=On. Las entradas de Dk son λ1k,,λnk, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo, λ1==λn=0.

Concluimos que D=On, y que por lo tanto A=P1OnP=On.

◻

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz A=(0111). Calcula las primeras potencias de A a mano. Conjetura y muestra cómo es An en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el n-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz A obtenemos:

A=(0111),A2=(1112),A3=(1223),A4=(2335),A5=(3558).

Al parecer, en las entradas de A van apareciendo los números de Fibonacci. Seamos más concretos. Definimos F0=0, F1=1 y para n0 definimos Fn+2=Fn+Fn+1. La conjetura es que para todo entero n1, se tiene que An=(Fn1FnFnFn+1).

Esto se puede probar por inducción. Arriba ya hicimos el caso n=1. Supongamos la conjetura cierta hasta un entero n dado, y consideremos la matriz An+1. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

An+1=AAn=(0111)(Fn1FnFnFn+1)=(FnFn+1Fn1+FnFn+Fn+1)=(FnFn+1Fn+1Fn+2).

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz A es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de A. Su polinomio característico es |λ11λ1|=λ2λ1.

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de A) son 1±52. Por el momento, para simplificar la notación, llamemos α a la de signo más y β a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible P de 2×2 tal que A=P1(α00β)P.

De esta forma, An=P1(αn00βn)P.

Aquí no es tan importante determinar concretamente P ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de αn y βn y de que los coeficientes de esta combinación lineal ya no dependen de n, sino sólo de las entradas de P. En particular, la entrada superior derecha de An por un lado es Fn, y por otro lado es rαn+sβn.

¿Cómo obtenemos los valores de α y β? Basta substituir n=1 y n=2 para obtener un sistema de ecuaciones en α y β. Aquí abajo usamos que como α y β son raíces de x2x1, entonces α2=α+1, β2=β+1 y α+β=1.

{1=F1=rα+sβ1=F2=rα2+sβ2=r+s+1.

De aquí, obtenemos la solución
r=1αβ=15s=r=15.

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es Fn=(1+52)n(152)n5.

◻

Matrices positivas y positivas definidas

Por definición, una matriz simétrica A de n×n con entradas reales es positiva si para cualquier vector (columna) v en Rn se tiene que tvAv0. Aquí tv es la transposición de v, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector v=0, entonces decimos que A es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz A=(1111), pues para cualquier vector v=(x,y) se tiene que tvAv=x22xy+y2=(xy)20. Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como (1,1). Como puedes verificar, un ejemplo de matriz positiva definida es B=(3004).

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en Rn. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B2 para alguna matriz simétrica B en Mn(R).
  4. A=tCC para alguna matriz C en Mn(R).

Hay un resultado análogo para cuando se quiere determinar si una matriz A es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos 3 y 4 se necesita además que B y C sean invertibles.

Problema. Sea A una matriz de n×n con entradas reales, simétrica y positiva. Muestra que si tr(A)=ndet(A)n, entonces A conmuta con cualquier matriz de n×n.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que A se puede diagonalizar con matrices A=P1DP, donde D es la matriz diagonal que tiene en su diagonal principal a los eigenvalores λ1,,λn de A, y P1 es una matriz invertible. Como A y D son similares, se tiene que
tr(A)=tr(D)=λ1++λndet(A)=det(D)=λ1λn.

Como A es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

λ1++λnnλ1λnn.

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor λ, y entonces D=λIn. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de n×n, tendríamos entonces que

A=P1DP=P1(λIn)P=(λIn)(P1P)=λIn.

Con esto probamos que A es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de n×n.

◻

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.