Archivo de la etiqueta: eigenvalores

Álgebra Lineal II: Unicidad de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan y demostramos la existencia de dicha forma bajo ciertas hipótesis. Como corolario, quedó pensar cuál es la versión para matrices. En esta entrada enunciamos la versión para matrices (totalmente equivalente a la de transformaciones lineales) y nos enfocamos en mostrar la unicidad de la forma canónica de Jordan.

Unicidad de la forma canónica de Jordan

El siguiente teorema es totalmente análogo al enunciado en la entrada anterior. Recuerda que es un orden total fijo de F (en R, es el orden usual).

Teorema. Sea A una matriz Mn(F) cuyo polinomio característico χA(X) se divide en F. Entonces, existen únicos valores λ1λn en F y únicos enteros k1,,kd tales que k1+k2++kd=n,k1k2kd, para los cuales A es similar a la siguiente matriz de bloques de Jordan:

(Jλ1,k1000Jλ2,k2000Jλd,kd).

Usaremos esta versión para demostrar la unicidad, lo cual también implicará la unicidad para la versión de transformaciones lineales.

Mediante la demostración de existencia de la entrada anterior, llegamos a que si el polinomio característico de A es

χA(X)=(Xλ1)m1(Xλ2)m2(Xλr)mr,

entonces A es similar a una matriz conformada por matrices de bloques de Jordan J1,J2,,Jr, en donde cada Ji es de tamaño mi y de bloques de Jordan de eigenvalor λi.

Si A fuera similar a otra matriz K de bloques de Jordan, podríamos agrupar por eigenvalores de los bloques κ1<<κs en matrices de bloques de Jordan tamaños o1,,os, digamos K1,,Ks. El polinomio característico de K sería entonces

χK(X)=(Xκ1)o1(Xκ2)o2(Xκs)os.

Pero K es similar a A, y entonces deben tener el mismo polinomio característico, así que conciden en raíces y multiplicidad. Esto demuestra que r=s y como los λi y los κi están ordenados, también demuestra las igualdades λi=κi y mi=oi para todo i{1,,r}.

Sólo nos queda argumentar la igualdad entre cada Ji y Ki para i{1,,r}. Pero ambas una forma canónica de Jordan para la transformación nilpotente que se obtiene de restringir TAλiI a ker(TAλiImi). Por la unicidad que demostramos para la forma canónica de Jordan para transformaciones nilpotentes, concluimos que Ji=Ki. Esto termina la demostración de la unicidad de la forma canónica de Jordan.

◻

Una receta para encontrar la forma canónica de Jordan

Ya con el teorema demostrado, ¿cómo juntamos todas las ideas para encontrar la forma canónica de Jordan de una matriz A en Mn(F) cuyo polinomio característico se divida en F? Podemos proceder como sigue.

  1. Encontramos el polinomio característico χA(X) y su factorización, digamos χA(X)=(Xλ1)m1(Xλ2)m2(Xλr)mr.
  2. Nos enfocamos en encontrar las matrices de bloque de Jordan Ji para cada eigenvalor λi. Sabemos que la matriz Ji será de tamaño mi.
  3. Para saber exactamente cuál matriz de bloques de Jordan es Ji, pensaremos en que tiene b1,b2,,bmi bloques de Jordan de eigenvalor λi de tamaños 1,2,,mi. Consideramos la matriz Ai=AλiI. Los b1,,bmi son la solución al siguiente sistema de ecuaciones en las variables x1,,xmi.
    mi=1x1+2x2+3x3++mixmimin+rango(AiλiI)=0x1+1x2+2x3++(mi1)xmimin+rango(AiλiI2)=0x1+0x2+1x3++(mi2)xmimin+rango(AiλiI3)=0x1+0x2+0x3++(mi3)xmimin+rango(AiλiImi1)=0x1+0x2+0x3++1xmi.
  4. Juntamos todos los Ji en una misma matriz y los ordenamos apropiadamente.

El paso número 3 está motivado por lo que sabemos de las matrices nilpotentes, y es bueno que pienses por qué se estudia específicamente ese sistema de ecuaciones para cada eigenvalor λi y multiplicidad mi.

Ejemplo de obtener la forma canónica de Jordan

Veamos un ejemplo del procedimiento descrito en la sección anterior.

Ejemplo. Encontraremos la forma canónica de Jordan de la siguiente matriz: A=(2261024639246234232364623619820192411959310122101223853039374396).

Con herramientas computacionales, podemos darnos cuenta de que el polinomio característico de esta matriz es χA(X)=X511X4+46X390X2+81X27.

Este polinomio se puede factorizar como (X1)2(X3)3. Así, la submatriz de bloques de Jordan J1 de eigenvalor 1 tendrá tamaño 2 y la J3 de eigenvalor 3 tendrá tamaño 3. Pero, ¿de qué tamaño son cada uno de los bloques de Jordan en cada una de estas matrices?

Para respondernos esto para J1, notamos que sus bloques son de tamaño 1 y 2 solamente. Si hay b1 bloques de tamaño 1 y b2 bloques de tamaño 2, por la teoría desarrollada arriba tendremos:

b1+2b2=2b2=25+rango(AI)=25+4=1.

El rango de AI lo obtuvimos computacionalmente, pero recuerda que también puede ser obtenido con reducción gaussiana. Resolviendo el sistema, b2=1 y entonces b1=0. Concluimos que en J1 hay un bloque de Jordan de tamaño 2.

Para J3, reciclemos las variables bi (para no introducir nuevas). Los bloques pueden ser de tamaño 1,2,3. Supongamos que de estos tamaños respectivamente hay b1,b2,b3 bloques. Los bi cumplen:

b1+2b2+3b3=3b2+2b3=35+rango(A3I)=35+3=1b3=35+rango((A3I)2)=35+2=0.

Así, b3=0, y en consecuencia b2=1 y entonces b1=1. Concluimos que J3 tiene un bloque de tamaño 1 y uno de tamaño 3. Por lo tanto, la forma canónica de Jordan de A es:

(J100J3)=(J1,2000J3,1000J3,2)=(1100001000003000003100003)

Otro problema sobre forma canónica de Jordan

La receta anterior funciona en general y da la forma canónica de Jordan. Esto es algo que probablemente en la práctica en aplicaciones no tendrás que hacer manualmente nunca, pues hay herramientas computacionales que te pueden ayudar. Sin embargo, es importante entender con profundidad el teorema y la receta de manera teórica, pues hay problemas conceptuales en los que no podrás usar herramientas computacionales. A continuación veremos un ejemplo.

Problema. Sea A una matriz en M6(R) con polinomio característico χA(X)=X62X4+X2.

  • ¿Cuántas posibilidades hay para la forma canónica de Jordan de A?
  • Demuestra que si el rango de A es 5, entonces A no es diagonalizable.

Solución. Podemos factorizar el polinomio característico de A como sigue:

χA(X)=X2(X+1)2(X1)2.

Así, la forma canónica de Jordan está conformada por una matriz de bloques de Jordan J0 de eigenvalor 0 y tamaño 2; una J1 de eigenvalor 1 y tamaño 2; y una J1 de eigenvalor 1 y tamaño 2.

Cada Ji tiene dos chances: o es un bloque de Jordan de tamaño 2, o son dos bloques de Jordan de tamaño 1. Así, en total tenemos 222=8 posibilidades.

Si A es de rango 5, entonces tendríamos en las cuentas de cantidad de bloques b1 y b2 para eigenvalor 0 que

b1+2b2=2b2=26+rango(A)=26+5=1,

de donde en J0 tendría 1 bloque de tamaño 2 y ninguno de tamaño 1. Si A fuera diagonalizable, su diagonalización sería una forma canónica de Jordan donde para eigenvalor 0 se tendrían 2 bloques de tamaño 1 y ninguno de tamaño 2. Así, A tendría dos formas canónicas de Jordan distintas, lo cual es imposible.

◻

Más adelante…

Con esta entrada terminamos de demostrar el teorema de la forma canónica de Jordan, uno de los teoremas más bonitos de álgebra lineal. ¿Te das cuenta de todo lo que utilizamos en su demostración? Forma matricial de transformaciones lineales, el teorema de Cayley-Hamilton, polinomio característico, subespacios estables, teoría de dualidad, sistemas de ecuaciones lineales, resultados auxiliares de polinomios, etc. Es un resultado verdaderamente integrador.

En la siguiente entrada, la última del curso, hablaremos de algunas de las consecuencias del teorema de la forma canónica de Jordan. Discutiremos cómo lo podemos utilizar para clasificar a las matrices por similaridad. Veremos una aplicación con respecto a una matriz y su transpuesta. También, esbozaremos un poco de por qué en cierto sentido el resultado no sólo vale para las matrices cuyo polinomio se divide sobre el campo, sino que para cualquier matriz. Con ello terminaremos el curso.

Tarea moral

  1. Calcula la forma canónica de Jordan J de la matriz A=(103116125). Además de encontrar J, encuentra de manera explícita una matriz invertible P tal que A=P1JP.
  2. Calcula la forma canónica de Jordan de la matriz (1100012000100002)
  3. Explica y demuestra cómo obtener lo siguiente para una matriz de bloques de Jordan:
    • Su polinomio característico.
    • Su polinomio mínimo.
    • Su determinante.
    • Su traza.
    • Sus eigenespacios.
  4. Justifica con más detalle por qué la receta que se propone para calcular la forma canónica de Jordan en efecto funciona. Necesitarás varios de los argumentos que dimos en la entrada anterior.
  5. Demuestra que una matriz AMn(F) para la cual su polinomio característico se divide en F es diagonalizable si y sólo si cada bloque de cada matriz de bloques de la forma canónica de Jordan tiene tamaño 1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Cálculo Diferencial e Integral III: Formas cuadráticas

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior hablamos de formas bilineales. A partir de esta noción podemos introducir otra más: la de formas cuadráticas. Las formas cuadráticas son cruciales, pues es a partir de ellas que podemos hacer geometría en espacios vectoriales.

Formas bilineales simétricas

Hay unas formas bilineales que son especiales pues al intercambiar los vectores argumento no cambian de valor.

Definición. Una forma bilineal bB(Rn) es simétrica si b(u¯,v¯)=b(v¯,u¯) para todos los u¯,v¯Rn.

Cuando una forma bilineal es simétrica, la matriz que la representa también. En efecto, si A es una representación matricial de la forma bilineal b en la base β, podemos escribir: b(u¯,v¯)=[u¯]tA[v¯]=([u¯]tA[v¯])t=[v¯]tAt[u¯].

En la igualdad de en medio usamos que [u¯]tA[v¯]R para obtener que este producto matricial es igual a su transpuesta (¿por qué?). Así pues, si b es simétrica: [v¯]tAt[u¯]=b(u¯,v¯)=b(v¯,u¯)=[v¯]tA[u¯],

para todo u¯,v¯Rn. En particular, al evaluar b(e¯i,e¯j) para e¯i,e¯j una pareja de elementos de la base β obtenemos que A y At coinciden en cualquier entrada (i,j). Por lo tanto A=At, entonces A es simétrica.

Formas cuadráticas y su forma polar

Una forma cuadrática se obtiene de evaluar una forma bilineal usando el mismo vector para ambas entradas. Formalmente, tenemos lo siguiente.

Definición. Una función q:RnR es una forma cuadrática si existe una forma bilineal b:Rn×RnR tal que q(v¯)=b(v¯,v¯) para todo v¯ en Rn. A q le llamamos la forma cuadrática asociada a b.

Es posible que una misma forma cuadrática pueda ser creada por dos formas bilineales distintas.

Ejemplo. Tomemos la forma bilineal b1((x1,x2),(y1,y2))=0 para todos u¯,v¯R2 y la forma bilineal b2((x1,x2),(y1,y2))=x1y2x2y1. Si q1 es la forma cuadrática asociada a b1 y q2 es la forma cuadrática asociada a b2, se tiene que q1((x1,x2))=0 para todo (x1,x2) en R2, y también se tiene que q2((x1,x2))=0 para todo (x1,x2) en R2 (verifícalo). Así, aunque b1b2, se tiene que q1=q2.

Si agregamos la hipótesis adicional de que la forma bilineal que se usa sea simétrica, entonces sí tenemos unicidad. De hecho, podemos saber exactamente de qué forma bilineal simétrica b viene una forma cuadrática dada q. Este es el contenido del siguiente teorema, que se llama el teorema de la identidad de polarización.

Teorema. Si q es una forma cuadrática en Rn, entonces existe una única forma bilineal b simétrica tal que q(v¯)=b(v¯,v¯) para todo v¯Rn. Más aún, (1)b(u¯,v¯)=12(q(u¯+v¯)q(u¯)q(v¯))..

Demostración. Haremos sólo parte de la demostración: la de la unicidad. El resto puede consultarse, por ejemplo, en la entrada Formas cuadráticas, propiedades, polarización y teorema de Gauss. Supongamos que q es forma cuadrática y que viene de la forma bilineal simétrica B. Desarrollando el lado derecho de la ecuación tenemos

12(q(u¯+v¯)q(u¯)q(v¯))=12(B(u¯+v¯,u¯+v¯)B(u¯,u¯)B(v¯,v¯))=12(B(u¯+v¯,u¯)+B(u¯+v¯,v¯)B(u¯,u¯)B(v¯,v¯))=12(B(u¯,u¯)+B(v¯,u¯)+B(u¯,v¯)+B(v¯,v¯)B(u¯,u¯)B(v¯,v¯))=12(2B(u¯,v¯))=B(u¯,v¯).

Esto muestra que la expresión del teorema es la única que podría servir para obtener la forma bilineal simétrica de la que viene q. El resto de la demostración consiste en ver que, en efecto, la expresión propuesta es bilineal y es simétrica.

◻

Por el teorema de la identidad de polarización, podemos siempre suponer que una forma cuadrática viene de una forma bilineal simétrica b, a la que le llamaremos su forma polar.

Forma matricial de una forma cuadrática

Definición. Sea q una forma cuadrática de Rn y β una base de Rn. La forma matricial de q en la base β será la forma matricial de su forma polar en la base β.

Por lo visto anteriormente, si b es simétrica, se representa por una matriz simétrica A=aij. Así, las formas matriciales de formas cuadráticas siempre son simétricas. Para evaluar q, podemos hacer lo siguiente:

q(v¯)=b(v¯,v¯)=[v¯]tA[v¯]=(x1xn)(a11a1nan1ann)(x1xn)

Desarrollando el producto obtenemos q(v¯)=a11x12+a22x22++annxn2+2i<jaijxixj.

Esta última ecuación en las variables xi se denomina el polinomio cuadrático correspondiente a la matriz simétrica A.

Nota que si la matriz A es diagonal, entonces q tendrá el siguiente polinomio cuadrático: (2)q(v¯)=[v¯]tA[v¯]=a11x12+a22x22++annxn2.

Este es un polinomio muy sencillo: no tendrá términos con «productos cruzados».

Teorema de Gauss para formas cuadráticas

Enseguida presentamos un teorema muy importante de formas cuadráticas. Su importancia radica en que siempre deseamos simplificar los objetos que tenemos.

Teorema. Sea b una forma bilineal simétrica en V, un espacio vectorial de dimensión finita n sobre R. Entonces V tiene una base {v¯1,,v¯n} en la que b se representa por una matriz diagonal, es decir, b(v¯i,v¯j)=0 para ij.

Demostración. Procederemos por inducción sobre n=dimV. Si dimV=1, se cumple claramente (¿Por qué?). Por tanto, podemos suponer dimV>1. Si b=0, también la afirmación es cierta inmediatamente, pues b se representa por una matriz de puros ceros. Si q(v¯)=b(v¯,v¯)=0 para todo v¯V, al escribir b en su forma polar se obtiene que b=0 . Por esta razón se puede suponer que existe un vector v¯1V tal que b(v¯1,v¯1)0. Sean U el subespacio generado por v¯1 y W el conjunto de aquellos vectores v¯V para los que b(v¯1,v¯)=0. Afirmamos que V=UW.

  1. UW={0¯}. Supongamos u¯UW. Como u¯U, u¯=kv¯1 para algún escalar kR. Como u¯W, 0=b(v¯1,u¯)=b(v¯1,kv¯1)=kb(v¯1,v¯1). Pero b(v¯1,v¯1)0; luego k=0 y por consiguiente u¯=0¯. Así UW={0¯}.
  2. Veamos que V=U+W. Sea v¯V. Consideremos w¯ definido como: w¯=v¯b(v¯1,v¯)b(v¯1,v¯1)v¯1. Entonces b(v¯1,w¯)=b(v¯1,v¯)b(v¯1,v¯)b(v¯1,v¯1)b(v¯1,v¯1)=0. Así w¯W. Por tanto v¯ es la suma de un elemento de U y uno de W. Entonces se cumple V=U+W.
    Ahora b restringida a W es una forma bilineal simétrica en W. Pero dimW=n1, luego existe una base {v¯2,,v¯n} de W tal que b(v¯i,v¯j)=0 para ij y 2i,jn. Por la propia definición de W, b(v¯1,v¯j)=0 para j=2,n. Por tanto, la base {v¯1,,v¯n} de V tiene la propiedad requerida de que b(v¯i,v¯j)=0 para ij.

◻

Tenemos pues que para toda forma bilineal simétrica tenemos una representación matricial diagonal. Dicho en otras palabras, para cualquier matriz simétrica A en Mn(R), se tiene que es congruente a alguna matriz diagonal. También de aquí se tiene que para toda forma cuadrática tenemos una representación matricial diagonal.

Formas cuadráticas positivas y positivas definidas

Otra noción importante para formas cuadráticas es la siguiente.

Definición. Diremos que una forma cuadrática q:RnR es positiva si se cumple que q(x¯)0 para todo x¯Rn. Diremos que es positiva definida si se cumple que q(x¯)>0 para todo x¯Rn{0¯}.

Si b es la forma bilineal simétrica que define a q y A es una matriz que represente a b en alguna base β, se puede ver que q es positiva si y sólo si XtAX0 para todo XRn. Así mismo, es positiva definida si y sólo si XtAX>0 para todo X0 en Rn. Esto motiva la siguiente definición para matrices.

Definición. Sea ARn una matriz simétrica. Diremos que es positiva si se cumple que XtAX0 para todo XRn. Diremos que es, es positiva definida si y sólo si XtAX>0 para todo X0 en Rn.

Una propiedad importante que queda como tarea moral es que la propiedad de ser positiva (o positiva definida) es invariante bajo congruencia de matrices.

Hay otras maneras de saber si una matriz es positiva, o positiva definida. De hecho, en la entrada de Matrices positivas y congruencia de matrices de nuestro curso de Álgebra Lineal II puedes encontrar la siguiente caracterización:

Teorema. Sea A una matriz simétrica en Mn(R). Las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. A es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. A puede ser escrita de la forma BtB para alguna matriz BMn(R).

Hay otro resultado más que relaciona a las matrices positivas definidas con sus eigenvalores.

Teorema. Si A es una matriz simétrica en Mn(R) y es positiva definida, entonces todos sus eigenvalores son positivos.

Matriz Hessiana

Veamos cómo se aplican algunas de las ideas vistas en cálculo. Retomemos la discusión de la entrada Polinomio de Taylor para campos escalares. Hacia el final de la entrada enunciamos el teorema de Taylor en el caso especial de grado 2. Al tomar un campo escalar f y un punto a¯, el polinomio de Taylor de grado 2 estaba dado como sigue:

T2,a¯(a¯+v¯)=f(a¯)+(v¯)f(a¯)1!+(v¯)2f(a¯)2!.

Donde

(v¯)2f(a¯)2!=i=1nj=1nvivj2fxjxi(a¯).

Observa que este sumando se puede pensar como una forma cuadrática:

q(v¯)=(v1vn)(2fx12(a)2fx1xn(a¯)2fxnx1(a¯)2fxn2(a¯))(v1vn)

La matriz de esta forma cuadrática tiene una importancia especial en el cálculo de varias variables, y por ello tiene su propia definición.

Definición. Sea f un campo escalar definido sobre algún subconjunto abierto de Rn. Si f tiene derivadas parciales de segundo orden en el punto a¯, a la siguiente matriz la llamamos la matriz hessiana de f en a¯:

Hf(a¯)=(2fx12(a¯)2fx1xn(a¯)2fxnx1(a¯)2fxn2(a¯)).

Cuando hablemos de optimización, esta matriz tomará un significado especial. Por ahora, enfoquémonos en entender cómo obtenerla.

Ejemplo. Encontraremos la matriz Hessiana del campo escalar f(x,y)=sin(xy) en el punto (1,π4). Para ello, calculamos las siguientes derivadas parciales de orden 1 y 2:

fx=ycos(xy),2fx2=y2sin(xy),2fyx=cos(xy)xysin(xy)

fy=xcos(xy),2fy2=x2sin(xy),2fxy=cos(xy)xysin(xy).

Por lo tanto

H(x,y)=(y2sin(xy)cos(xy)xysin(xy)cos(xy)xysin(xy)x2sin(xy)).

Evaluando en el punto (1,π4),

H(1,π4)=(π2162222(1π4)22(1π4)22).

Mas adelante…

Con esto terminamos nuestro repaso de álgebra lineal, y con ello tenemos las herramientas necesarias para poder retomar nuestro estudio de las funciones en varias variables. En la siguiente entrada comenzaremos con el concepto de diferenciabilidad. A lo largo de las siguientes entradas, iremos viendo por qué las herramientas de álgebra lineal que desarrollamos son importantes.

Así mismo, cuando lleves un curso de Cálculo Diferencial e Integral IV también retomaras una parte importante de la teoría que hemos repasado.

Tarea moral

  1. Responder en la primer definición porque [u¯]tA[v¯]R.
  2. Demostrar que el espacio W del último teorema es un subespacio vectorial de V.
  3. Explicar en la demostración del último teorema por qué éste se cumple cuando b=0 o dimV=1.
  4. Explicar porque dimW=n1.
  5. Verifica que si una matriz A es positiva definida, entonces cualquier matriz B congruente a A también es positiva definida.
  6. Demuestra el último teorema de esta entrada, es decir, que las matrices simétricas positivas definidas tienen eigenvalores positivos.

Entradas relacionadas

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal T:RnRn. Si λR es uno de estos eigenvalores, queremos poder encontrar vectores v¯0¯ tales que T(v¯)=λv¯. Esto sucede si y sólo si λv¯T(v¯)=0¯, lo cual sucede si y sólo si (λIdT)(v¯)=0¯, en donde Id:RnRn es la transformación identidad de Rn en Rn. Tenemos de esta manera que v¯ es un eigenvector si y sólo si v¯ker(λIdT).

Si existe v¯0¯ tal que v¯ker(λIdT); entonces ker(λIdT){0¯} por lo cual la transformación λIdT no es invertible, pues no es inyectiva. Así, en ninguna base Matβ(λIdT) es invertible, y por tanto su determinante es 0. Estos pasos son reversibles. Concluimos entonces que λR es un eigenvalor de T si y sólo si en alguna base β se cumple que det(Matβ(λIdT))=0. Esto motiva la siguiente definición.

Definición. Sea T:RnRn una transformación lineal. Llamamos a det(Matβ(λIdT)) al polinomio característico de T en la base β.

Por la discusión anterior, los escalares que cumplen det(Matβ(λIdT))=0 son los eigenvalores T. Para obtener los correspondientes eigenvectores, basta con resolver Matβ(T)X=λX, lo cual es un sistema de ecuaciones en el vector de variables X. Las soluciones X nos darán las representaciones matriciales de vectores propios v¯Rn en la base β.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos T:R3R3 dada por T(x,y,z)=(2x+z,y+x,z). Calculemos su representación matricial con respecto a la base canónica β. Para ello, realizamos las siguientes evaluaciones:
T(1,0,0)=(2,1,0)T(0,1,0)=(0,1,0)T(0,0,1)=(1,0,1),

de donde: Matβ=(201110001).

Calculando el polinomio característico obtenemos: det(λ2011λ1000λ+1)=(λ2)(λ1)(λ+1).

Las raíces de (λ2)(λ1)(λ+1) son λ1=2, λ2=1 y λ3=1. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor λ=2. Para que (x,y,z) represente a un eigenvector en la base canónica, debe pasar que:

(201110001)(xyz)=2(xyz),

lo cual sucede si y sólo si:

(201110001)(xyz)2(xyz)=(000);

[(201110001)2(100010001)](xyz)=(000);

(001110003)(xyz)=(000).

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

(110001000)(xyz)=(000).

En esta forma es sencillo leer las soluciones. Tenemos que z es variable pivote con z=0, que y es variable libre, y que x es variable pivote dada por x=y. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor 2 son de la forma (y,y,0), es decir E2={(y,y,0):yR}.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores 1 y 1.

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea T:RnRn una transformación lineal y sean β1={e¯1,,e¯n}, β2={u¯1,,u¯n} dos bases (ordenadas) de Rn. Supongamos que:

A=Matβ1(T)=[aij]B=Matβ2(T)=[bij].

Por cómo se construyen las matrices A y B, tenemos que:

T(e¯j)=i=1naije¯ipara j=1,,nT(u¯k)=j=1nbjku¯jpara k=1,,n.

Como β1 es base, podemos poner a cada un de los u¯k de β2 en términos de la base β1 mediante combinaciones lineales, digamos:

(3)u¯k=j=1ncjke¯j

en donde los cjk son escalares para j=1,,n y k=1,,n. La matriz C de n×n, con entradas cjk representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que CB=AC. Para ello, tomaremos una k en [n] y expresaremos T(u¯k) de dos formas distintas.

Por un lado, usando (3) y por como es cada T(e¯k) en la base β1 tenemos que:

T(u¯k)=j=1ncjkT(e¯j)=j=1ncjki=1naije¯i=j=1ni=1n(cjkaije¯i)=i=1nj=1n(cjkaije¯i)=i=1n(j=1naijcjk)e¯i.

Por otro lado, usando (3) y por como es cada T(u¯k) en la base β2:

T(u¯k)=j=1nbjku¯j=j=1nbjki=1ncjie¯j=j=1ni=1n(bjkcije¯i)=i=1nj=1n(bjkcije¯i)=i=1n(j=1ncijbjk)e¯i.

Comparemos ambas expresiones para T(u¯k). La primera es una combinación lineal de los e¯i y la segunda también. Como T(u¯k) tiene una única expresión como combinación lineal de los e¯i, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada i se cumple:

j=1naijcjk=j=1ncijbjk.

Pero esto precisamente nos dice que la entrada (i,k) de la matriz AC es igual a la entrada (i,k) de la matriz CB. Con esto concluimos que AC=CB, como queríamos.

En resumen, obtuvimos que para dos matrices A y B que representan a la misma transformación lineal, existe una matriz invertible C tal que: B=C1AC. Además C es la matriz con entradas dadas por (3).

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices A y B se llamarán similares (o semejantes), cuando existe otra matriz C invertible tal que B=C1AC.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean A y B matrices similares. Entonces A y B representan a una misma transformación lineal T, quizás bajo distintas bases.

Demostración: Supongamos que las matrices A y B son similares con B=C1AC, donde las matrices A, B, C están dadas por entradas A=[aij] B=[bij], C=[cjk]. Tomemos una base ordenada β={e¯1,,e¯n} de Rn. Consideremos la transformación lineal TL(Rn,Rn) dada por T(e¯j)=i=1naije¯i.

De esta manera T tiene forma matricial A en la base β.

Construyamos ahora una nueva base ordenada de Rn dada por vectores u¯k para k=1,,n construidos como sigue:

u¯k=j=1ncjke¯j.

Como C es invertible, en efecto tenemos que β:={u¯1,,u¯n} también es base de Rn. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de T en la base β será B.

Así, hemos exhibido una transformación T que en una base tiene representación A y en otra tiene representación B.

◻

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices A y B en Mn(R) son similares si y sólo si representan a una misma transformación lineal T:RnRn, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea T:RnRn una transformación lineal en un espacio sobre R de dimensión finita. Sean β y β bases de Rn. Entonces se obtiene lo mismo calculando el polinomio característico de T en la base β, que en la base β.

Demostración. Tomemos A=Matβ(T) y B=Matβ(T). Como A y B representan a la misma transformación lineal T, entonces son similares y por lo tanto existe C invertible con B=C1AC.

Para encontrar el polinomio característico de T en la base β, necesitamos Matβ(λIdT), que justo es λIA. Así mismo, en la base β tenemos λIB. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

det(λIB)=det(λC1CC1AC)=det(C1(λIA)C)=det(C1)det(λIA)det(C)=det(C1)det(C)det(λIA)=det(I)det(λIA)=det(λIA).

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con det, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

◻

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea T:RnRn una transformación lineal. Supongamos que el polinomio característico de T tiene raíces distintas λ1,,λn. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector u¯i para cada eigenvalor λi, entonces u¯1,,u¯n forman una base β para Rn.
  2. Con dicha base β, se cumple que Matβ(T) es una matriz diagonal con entradas λ1,,λn en su diagonal.
  3. Si β es otra base de Rn y A=Matβ(T), entonces Matβ(T)=C1AC para una matriz invertible C con entradas dadas por (3).

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación T: 1) la transformamos en una matriz A, 2) encontramos el polinomio característico mediante det(λIA), 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones (λIA)X=0 dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de Rn a sí mismo sea diagonalizable es que tenga n eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de Rn a Rm son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal T(x,y,z)=(2x+z,y+x,z) de R3 en R3. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base {(1,1,1),(1,2,3),(0,1,1)} de R3. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si A y B son dos representaciones matriciales de una misma transformación lineal T, entonces det(A)=det(B).
  4. Sea T:R3R3 dada por T(x,y,z)=(x+y+z,x,y). Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base β en la cual Matβ(T) es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas

Cálculo Diferencial e Integral III: Representaciones matriciales, eigenvalores y eigenvectores

Por Alejandro Antonio Estrada Franco

Introducción

Como se ha mencionado anteriormente el objetivo de introducir ideas de álgebra lineal en cálculo diferencial es poder establecer una transformación lineal que sea la mejor aproximación lineal en un punto a una función dada. Esto nos ayudará a entender a la función dada en el punto en términos de otra función «más simple». Pero así mismo, las transformaciones lineales pueden ellas mismas pensarse en términos de transformaciones más sencillas. En esta entrada revisaremos esta idea y la conectaremos con la noción de eigenvectores.

Por un lado, recordaremos cómo es que una transformación lineal puede ser representada mediante una matriz una vez que se ha elegido una base del espacio vectorial. Luego, hablaremos de cómo elegir, de entre todas las bases, aquella que nos de una representación matricial lo más sencilla posible.

Representación matricial de las transformaciones lineales

Comencemos esta entrada repasando la importante relación entre transformaciones lineales y matrices. Denotaremos como L(Rn,Rm) al espacio vectorial de transformaciones lineales de Rn a Rm.

Si tomamos cualquier transformación lineal TL(Rn,Rm), entonces los valores de T en cualquier vector de Rn quedan totalmente determinados por los valores de T en los elementos de alguna base β para Rn. Tomemos γ={w¯1,,w¯m} una base ordenada para Rm, y β={e¯1,,e¯n} una base ordenada para Rn. Para cada e¯k tenemos:

(4)T(e¯k)=i=1mtikw¯i,

para algunos escalares t1k,,tmk que justo son las componentes de T(e¯k) en la base γ. Con estos escalares, podemos considerar la matriz: Matγ,β(T)=(t11t1ntm1tmn)

Esta es llamada la representación matricial de la transformación T con respecto a las bases β y γ. Esta matriz ayuda a calcular T en cualquier vector de Rn como explicamos a continuación.

Para cada v¯Rn, podemos expresarlo como combinación lineal de elementos de la base β digamos que v¯=i=1nvie¯i. Mediante estos coeficientes, podemos entonces asociar a v¯ al siguiente vector columna de Rn [v¯]β=(v1vn),

al que llamamos el vector de coordenadas de v¯ con respecto a la base β.

Realicemos por un lado el siguiente cálculo:

Matγ,β(T)[v¯]β=(t11t1ntm1tmn)(v1vn)=(k=1nt1kvkk=1ntmkvk.)

Por otro lado tenemos lo siguiente:

T(v¯)=T(k=1nvke¯k)=k=1nvkT(e¯k)=k=1nvkT(i=1mtikw¯i)=i=1m(k=1nvktik)w¯i.

Juntando ambos cálculos: [T(v¯)]γ=(k=1nvkt1kk=1nvktmk)=Matγ,β(T)[v¯]β.

En otras palabras, aplicar T a un vector v¯ equivale a multiplicar Matγ,β por el vector columna asociado a v¯ en la base β, en el sentido de que tras hacer este producto recuperamos el vector de coordenadas para T(v¯) en la base γ.

Isomorfismo entre transformaciones lineales y matrices

Con las operaciones de suma y multiplicación por escalar que vimos en la entrada de Matrices, se tiene que Mm,n(R) es un espacio vectorial sobre R. De igual manera L(Rn,Rm) es un espacio vectorial sobre R con las siguientes operaciones:

  • Si T y U son dos transformaciones, la transformación T+U es aquella que envía a todo vector v¯Rn al vector T(v¯)+U(v¯).
  • Si rR la transformación rT es la que a todo v¯Rn lo envía al vector rT(v¯).

Queda como ejercicio que verifiques que esto dota efectivamente a L(Rn,Rm) de la estructura de espacio vectorial.

A continuación veremos que estos dos espacios vectoriales son, prácticamente, el mismo. Lo que haremos es construir una función Φ:Mm,n(R)L(Rn,Rm) que sea biyectiva y que preserve las operaciones de suma y de producto escalar.

Para ello, tomemos una base β={e¯1,,e¯n} de Rn y una base γ={u¯1,,u¯m} de Rm. Tomemos una matriz AMm,n(R). Explicaremos a continuación cómo construir la transformación Φ(A), para lo cual diremos qué hace con cada elemento de la base β. Tomaremos aquella transformación lineal TAL(Rn,Rm) tal que

TA(e¯j)=i=1naiju¯i.

Tomamos entonces Φ(A)=TA. Veamos que Φ tiene todas las propiedades que queremos.

  • Φ es suprayectiva. Si tenemos una transformación T:RnRm, entonces por la construcción anterior se tiene que su forma matricial A:=Matγ,β(T) justo cumple TA=T, de modo que Φ(A)=T.
  • Φ es inyectiva. Si A y B son matrices distintas, entonces difieren en alguna entrada, digamos (i,j). Pero entonces TA y TB difieren ya que TA(e¯j)TB(e¯j) ya que en las combinaciones lineales creadas hay un coeficiente distinto. Así, Φ(A)Φ(B).
  • Φ es lineal. Para rR, A y B matrices con entradas aij y bij, respectivamente, se cumple que Φ(rA+B)=T(rA+B) y entonces se satisface para cada j=1,,n lo siguiente:
    (rA+B)[e¯j]β=rA[e¯j]β+B[e¯j]β=r[TA(e¯i)]γ+[TB(e¯i)]γ.
    Por tanto para cada e¯i tenemos que T(rA+B)(e¯i)=rTA(e¯i)+TB(e¯i) y en consecuencia T(rA+B)=rTA+TB. Así Φ(rA+B)=rΦ(A)+Φ(B).

Todo lo anterior implica que Mm,n(R)L(Rn,Rm), es decir, que ambos espacios vectoriales son isomorfos.

En búsqueda de una matriz sencilla

Por lo que hemos platicado hasta ahora, a cada transformación lineal le corresponde una matriz, y viceversa. De hecho, esta asociación respeta operaciones como la suma y el producto por escalar. Esta equivalencia está dada a partir de la función Φ encontrada en la sección anterior.

Si Φ es biyectiva, ¿por qué hablamos entonces de encontrar una representación matricial simple para una transformación lineal T? Esto parecería no tener sentido, pues a cada transformación le corresponde una y sólo una matriz. Sin embargo, esto es cierto únicamente tras haber fijado las bases β y γ para Rn y Rm, respectivamente. Así, dependiendo de la elección de las bases las representaciones matriciales cambian y si tenemos una transformación lineal T, es posible que querramos encontrar bases β y γ en donde la representación matricial sea sencilla.

Nos enfocaremos únicamente en transformaciones lineales que van de un espacio vectorial a sí mismo. Tomemos entonces T:RnRn y una base β de Rn. Por simplicidad, escribiremos Matβ,β(T) simplemente como Matβ(T). Hay propiedades de T que podemos leer en su matriz Matβ(T) y que no dependen de la base β que hayamos elegido. Si con una base β especial resulta que Matβ(T) es muy sencilla, entonces podremos leer estas propiedades de T muy fácilmente. Un ejemplo es la siguiente proposición, la cual queda como tarea moral.

Proposición. La transformación lineal T:RnRn es invertible si y sólo si Matβ(T) es invertible.

Si A=Matβ(T) fuera muy muy sencilla, por ejemplo, si fuera una matriz diagonal, entonces podríamos saber la invertibilidad de T sabiendo la invertibilidad de A, y la de A sería muy fácil de ver pues por ser matriz diagonal bastaría hacer el producto de las entradas de su diagonal para obtener su determinante y estudiar si es distinto de cero.

Motivados por el ejemplo anterior, estudiemos la siguiente pregunta: ¿toda transformación lineal se puede representar con una matriz diagonal? Si una transformación lineal se puede representar de esta manera, diremos que es diagonalizable.

Eigenvalores, eigenvectores y eigenespacios

En lo que sigue repasaremos el aparato conceptual que nos permitirá dar una respuesta parcial de cuándo una matriz es diagonalizable. Un tratamiento mucho más detallado se puede encontrar aquí en el blog, en el curso de Álgebra Lineal II, comenzando con la entrada Eigenvectores y eigenvalores.

Para nuestro repaso, debemos introducir algunos conceptos y estudiarlos.

Definición. Sea T:RnRn una transformación lineal. Diremos que un escalar rR es un eigenvalor de T si existe v¯Rn{0¯} tal que T(v¯)=rv¯. A dicho vector v¯ le llamaremos un eigenvector de T con eigenvalor asociado r.

Dado un eigenvector v¯Rn, sólo hay un eigenvalor correspondiente a éste. Si T(v¯)=rv¯ y T(v¯)=tv¯, entonces rv¯=tv¯ de donde (rt)v¯=0¯. Como v¯0¯, se sigue que r=t.

Por otro lado, para un eigenvalor r puede haber más de un eigenvector con eigenvalor asociado r. Consideremos para un eigenvalor r el conjunto E(r)={v¯V|T(v¯)=rv¯}. Notemos que 0¯E(r) y también todos los eigenvectores de r están en E(r). Además, E(r) es un subespacio de Rn, pues si u¯,v¯E(r), y aR, tenemos

T(au¯+v¯)=aT(u¯)+T(v¯)=a(ru¯)+(rv¯)=r(au¯+v¯),

lo cual implica que au¯+v¯E(r).

Definición. Para una transformación lineal T:RnRn y un eigenvalor r de T llamaremos a

E(r)={v¯V|T(v¯)=rv¯}

el eigenespacio de T correspondiente a r.

Cuando tenemos eigenvectores correspondientes a eigenvalores distintos, cumplen algo especial.

Proposición. Si v¯1,,v¯l son eigenvectores de una transformación lineal T:RnRn con eigenvalores correspondientes r1,,rl distintos entonces v¯1,,v¯l son linealmente independientes.

Demostración. La ruta para establecer la demostración de este teorema será por inducción sobre l. Para un conjunto con sólo un eigenvector el resultado es evidente (¿por qué?). Supongamos cierto para cualquier subconjunto de l1 eigenvectores que pertenecen a eigenespacios distintos. Sean v¯1,,v¯l eigenvectores en distintos eigenespacios y consideremos α1,,αl escalares tales que:

(5)k=1lαkv¯k=0¯.

Aplicamos T a la igualdad anterior. Usando que cada v¯k es eigenvector correspondiente al eigenvalor rk obtenemos:

0¯=T(0¯)=T(k=1lαkv¯k)=k=1lαkT(v¯k)=k=1lαkrkv¯k.

Es decir,

(6)0=k=1lαkrkv¯k

Multipliquemos (5) por rl y restemos el resultado de (6) para obtener que

0¯=0¯0¯=k=1lαkrkv¯krlk=1lαkv¯k=k=1l1αk(rkrl)v¯k.

Tenemos entonces:

k=1l1αk(rkrl)v¯k=0¯.

Ya que por hipótesis de inducción v¯1,,v¯l1 son linealmente independientes entonces αk(rkrl)=0 para todo k, pero los eigenvalores son todos distintos entre sí por lo tanto para todo k de 1 a l1 se tiene rkrl0 y así αk=0. Finalmente, usando (5) obtenemos αl=0. Por lo tanto v¯1,,v¯l son linealmente independientes.

◻

Eigenvectores y transformaciones diagonalizables

Recuerda que dijimos que una transformación lineal T:RnRn es diagonalizable si existe una base β de Rn tal que Matβ(T) es una matriz diagonal. El siguiente resultado conecta las dos ideas que hemos estado explorando: los eigenvectores y la representabilidad sencilla de T.

Teorema. Sea T:RnRn transformación lineal. Una matriz T es diagonalizable si y sólo si existe una base de Rn conformada por eigenvectores de T.

En realidad la demostración consiste únicamente en entender correctamente cómo se construyen las matrices para una base dada.

Demostración. ) Supongamos que T tiene una representación matricial que es una matriz diagonal A:=Matβ(T)=diag(r1,,rn) con respecto a la base β={v¯1,,v¯n}. Afirmamos que para cada j=1,,n se tiene v¯j es eigevector de eigenvalor rj. En efecto, la forma en la que se construyó la matriz A nos dice que

T(e¯j)=i=1naije¯i=ajje¯j=rje¯j,

en donde estamos usando que las entradas aij de la matriz son cero si ij (por ser diagonal), y son rj si i=j. Por supuesto, como e¯j forma parte de una base, tampoco es el vector cero. Así, e¯j es eigenvector de eigenvalor e¯j.

) Supongamos ahora que v¯1,,v¯n son una base β de Rn conformada por eigenvectores de T con eigenvalores asociados, digamos, r1,,rn. Aquí se puede mostrar que Matβ(T) es diagonal. Queda como tarea moral hacer las cuentas.

◻

Hay una situación particular en la que podemos aprovechar el teorema anterior de manera inmediata: cuando la transformación tiene n eigenvalores distintos. Esta consecuencia queda establecida en el siguiente resultado.

Corolario. Toda transformación lineal T:RnRn tiene a lo más n eigenvalores distintos. Si T tiene exactamente n eigenvalores distintos, entonces los eigenvectores correspondientes forman una base para Rn y la matriz de T relativa a esa base es una matriz diagonal con los eigenvalores como elementos diagonales.

Demostración. Queda como tarea moral. Como sugerencia, recuerda que mostramos arriba que los eigenvectores de eigenvalores distintos son linealmente independientes.

◻

Al parecer los eigenvalores, eigenvectores y eigenespacios de una transformación lineal son cruciales para poder expresarla de manera sencilla. ¿Cómo los encontramos? Esto lo veremos en la siguiente entrada.

Antes de concluir, mencionamos que hay otro teorema crucial sobre diagonalización de matrices. Diremos que una matriz PMn(R) es ortogonal si PtP=I.

Teorema (el teorema espectral). Sea AMn(R) una matriz simétrica. Entonces, existe una matriz ortogonal P tal que PAPt es una matriz diagonal.

El teorema anterior nos dice no únicamente que la matriz A es diagonalizable, sino que además es diagonalizable mediante un tipo muy especial de matrices. Un estudio y demostración de este teorema queda fuera de los alcances de nuestro curso, pero puedes revisar, por ejemplo la entrada teorema espectral del curso de Álgebra Lineal I que tenemos en el blog.

Más adelante

Lo que haremos en la siguiente entrada es desarrollar un método para conocer los eigenvalores de una matriz. A partir de ellos podremos encontrar sus eigenvectores. Y en ciertos casos especiales, esto nos permitirá mostrar que la transformación es diagonalizable y, de hecho, nos dará la base para la cual la matriz asociada es diagonal.

Tarea moral

  1. Considera la transformación lineal de R3 en R2, dada como T(x,y,z)=(x+y,z+y). Encuentra su representación matricial con las bases canónicas de R3 y R2. Luego, encuentra su representación matricial con las bases {(1,2,3),(1,0,1),(0,1,0)} de R3 y {(1,1),(1,1)} de R2.
  2. Considera la siguiente matriz: (10230102) Da una transformación lineal T:R4R2 y ciertas bases β de R4 y γ de R2 para las cuales esta matriz sea la representación matricial de T en las bases β y γ.
  3. Fija bases β, γ y δ para Rn, Rm y Rl. Considera dos transformaciones lineales T:RnRm y S:RmRl. Demuestra que:
    Matδ,β(ST)=Matδ,γ(S)Matγ,β(T).
    En otras palabras que la «composición de transformaciones corresponde al producto de sus matrices».
  4. Sea T:RnRn una transformación lineal y β una base de Rn. Demuestra que T es biyectiva si y sólo si Matβ(T) es invertible.
  5. Verifica que los vectores v¯1,,v¯n dados en el último teorema en efecto ayudan a dar una representación matricial diagonal para T.
  6. La demostración del último corolario es un conjunto de sencillas consecuencias de las definiciones y teoremas desarrollados en esta entrada con respecto a los eigenvalores y eigenvectores. Realiza esta demostración.

Entradas relacionadas

Álgebra Lineal II: Matrices y transformaciones nilpotentes

Por Elizabeth Chalnique Ríos Alvarado

Introducción

Hemos estudiado varias clases importantes de matrices y transformaciones lineales: diagonales, triangulares superiores, simétricas, ortogonales, normales, etc. Es momento de aprender sobre otro tipo fundamental de matrices y transformaciones lineales: las transformaciones nilpotentes. Nos hemos encontrado con estas matrices ocasionalmente a lo largo del primer curso de álgebra lineal y de éste. Ahora las trataremos de manera más sistemática.

Matrices y transformaciones nilpotentes

En la última unidad estuvimos trabajando únicamente en R o en C. Los resultados que presentaremos a continuación son válidos para espacios vectoriales sobre cualquier campo F.

Definición. Sea A una matriz en Mn(F). Diremos que A es nilpotente si Am=On para algún entero positivo m. Al menor entero positivo m para el cual suceda esto le llamamos el índice de A.

Ejemplo 1. La matriz A=(3913) es nilpotente. En efecto, tenemos que A2=(0000). Como A10, entonces el índice de A es igual a dos.

Tenemos una definición correspondiente para transformaciones lineales.

Definición. Sea V un espacio vectorial sobre un campo F y sea T:VV una transformación lineal. Diremos que que T es nilpotente si Tm es la transformación lineal cero para algún entero positivo m. Al menor entero positivo m para el cual suceda esto le llamamos el índice de T.

Recuerda que por definición Tm es la transformación T compuesta consigo misma m veces.

Ejemplo 2. Si estamos trabajando en el espacio V=Rn[x] de polinomios reales de grado a lo más n, entonces la transformación derivada D:VV para la cual D(p)=p es una transformación lineal nilpotente. En efecto, tras aplicarla n+1 veces a cualquier polinomio de grado a lo más n obtenemos al polinomio 0. Su índice es exactamente n+1 pues derivar n veces no anula al polinomio xn de V.

Si estuviéramos trabajando en el espacio vectorial R[x] de todos los polinomios reales, entonces la transformación derivada ya no sería nilpotente. En efecto, para cualquier m siempre existe un polinomio tal que al derivarlo m veces no se anula.

Bloques de Jordan de eigenvalor cero

Hay una familia importante de matrices nilpotentes.

Definición. Sea F un campo. El bloque de Jordan de eigenvalor 0 y tamaño k es la matriz J0,k en Mk(F) cuyas entradas son todas cero, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, J0,k=[aij] con aij={1si j=i+10en otro caso.

También podemos expresarlo de la siguiente manera:

J0,k=(0100000100000000000100000), en donde estamos pensando que la matriz es de k×k.

Ejemplo 3. A continuación tenemos la matriz J0,4:

J0,4=(0100001000010000)

Esta es una matriz nilpotente. En efecto, haciendo las cuentas de matrices correspondientes tenemos que:

J0,42=(0100001000010000)(0100001000010000)=(0010000100000000)

Luego que

J0,43=J0,4J0,42=(0100001000010000)(0010000100000000)=(0001000000000000)

Y finalmente que

J0,44=J0,4J0,43=(0100001000010000)(0001000000000000)=(0000000000000000)

De esta manera, hay una potencia de J0,4 que se hace igual a cero. Como la mínima potencia es 4, entonces J0,4 es nilpotente de índice 4. Observa cómo la diagonal de unos «se va recorriendo hacia arriba a la derecha».

Todos los bloques de Jordan son nilpotentes

El siguiente resultado generaliza el ejemplo anterior y nos da una mejor demostración, interpretando a la matriz como transformación lineal.

Teorema. La matriz J0,k es nilpotente de índice k.

Demostración. Veamos qué hace la matriz J0,k cuando la multiplicamos por un vector: J0,k(x1x2x3xk1xk)=(0100000100000000000100000)(x1x2x3xk1xk)=(x2x3x4xk0).

En otras palabras, la matriz J0,k «recorre» las entradas del vector hacia arriba «empujando» con ceros desde abajo. Al hacer esto k veces, claramente llegamos al vector 0, así, J0,kk está asociada a la transformación lineal cero y por lo tanto es la matriz Ok. Y J0,kk1 no es la matriz cero pues al aplicarla en ek, el k-ésimo vector de la base canónica de Fk tenemos por las mismas ideas de arriba que J0,kk1en=e1.

◻

Una caracterización de matrices y transformaciones nilpotentes

El siguiente resultado nos da algunas equivalencias para que una transformación sea nilpotente.

Proposición. Sea AMn(F) una matriz. Todo lo siguiente es equivalente:

  1. A es nilpotente.
  2. El polinomio mínimo de A es de la forma μA(X)=Xk.
  3. El polinomio característico de A es χA(X)=Xn.

Demostración. 1)2). Si A es nilpotente, entonces hay un entero m tal que Am=On. Entonces, el polinomio p(X)=Xm anula a la matriz A. Pero el polinomio mínimo divide a cualquier polinomio que anule a A, entonces μA(X)|Xm, de donde μA(X) debe ser también de la forma Xk. De hecho, no puede suceder que k<m pues en dicho caso como el polinomio mínimo anula a la matriz, tendríamos que Ak=On, pero esto es imposible pues m es el menor entero tal que Am=On. Así, en este caso k es justo el índice de A.

2)3). Supongamos que el polinomio mínimo de A es de la forma μA(X)=Xk. Como el polinomio mínimo anula a la matriz tenemos que Ak=On. Tomemos un escalar λ en F fijo. Tenemos que:

λkIn=λkInAk=(λInA)(λk1In+λk2A++λAk2+Ak1)

Al tomar determinante de ambos lados y usando en la derecha la multiplicatividad del determinante, tenemos:

det(λkIn)=det(λInA)det(λk1In+λk2A++λAk2+Ak1).

Del lado izquierdo tenemos det(λkIn)=λnk. Del lado derecho tenemos χA(λ) multiplicado por otra expresión polinomial en λ, digamos P(λ). Como esto se vale para todo escalar λ, se vale polinomialmente que Xnk=χA(X)P(X). Así, χA(X)|Xnk y como el polinomio característico es de grado exactamente n, obtenemos que χA(X)=Xn.

3)1). Si el polinomio característico de A es χA(X)=Xn, entonces por el teorema de Cayley-Hamilton tenemos que An=On, de donde A es nilpotente.

◻

Como consecuencia del teorema anterior, obtenemos los siguientes resultados.

Corolario. Si A es una matriz nilpotente en Mn(F), entonces An=On y por lo tanto el índice de A es menor o igual a n. Análogamente, si T:VV es nilpotente y dim(V)=n, entonces el índice de T es menor o igual a n.

Corolario. Si A es una matriz nilpotente en Mn(F), entonces su traza, su determinante y cualquier eigenvalor son todos iguales a cero.

Más adelante…

En esta entrada definimos a las matrices y transformaciones nilpotentes. También enunciamos algunas de sus propiedades. En la siguiente entrada enunciaremos nuestra primer versión del teorema de Jordan, en donde nos enfocaremos únicamente en lo que nos dice para las matrices nilpotentes. Esto servirá más adelante como uno de los peldaños que usaremos para demostrar el teorema de Jordan en general.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz nilpotente de índice 2 en M7(R). En general, para cualquier entero positivo n y cualquier entero k con 1kn, da una forma de construir una matriz nilpotente de índice n en Mn(R).
  2. Encuentra una matriz con determinante cero y que no sea una matriz nilpotente. Encuentra una matriz con traza cero y que no sea una matriz nilpotente.
  3. Sea V un espacio vectorial de dimensión finita n. Demuestra que las siguientes afirmaciones son equivalentes:
    1. Una transformación T:VV es nilpotente de índice k.
    2. Alguna forma matricial de T es nilpotente de índice k.
    3. Todas las formas matriciales de T son nilpotentes de índice k.
    4. Tn es la transformación lineal 0.
  4. Demuestra los dos corolarios al final de la entrada. Como sugerencia para el segundo, recuerda que la traza, determinante y los eigenvalores de una matriz están muy relacionados con su polinomio característico.
  5. Prueba que la única matriz nilpotente diagonalizable en Mn(F) es On.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»