Archivo de la etiqueta: transformaciones lineales

Cálculo Diferencial e Integral III: Representaciones matriciales, eigenvalores y eigenvectores

Por Alejandro Antonio Estrada Franco

Introducción

Como se ha mencionado anteriormente el objetivo de introducir ideas de álgebra lineal en cálculo diferencial es poder establecer una transformación lineal que sea la mejor aproximación lineal en un punto a una función dada. Esto nos ayudará a entender a la función dada en el punto en términos de otra función «más simple». Pero así mismo, las transformaciones lineales pueden ellas mismas pensarse en términos de transformaciones más sencillas. En esta entrada revisaremos esta idea y la conectaremos con la noción de eigenvectores.

Por un lado, recordaremos cómo es que una transformación lineal puede ser representada mediante una matriz una vez que se ha elegido una base del espacio vectorial. Luego, hablaremos de cómo elegir, de entre todas las bases, aquella que nos de una representación matricial lo más sencilla posible.

Representación matricial de las transformaciones lineales

Comencemos esta entrada repasando la importante relación entre transformaciones lineales y matrices. Denotaremos como L(Rn,Rm) al espacio vectorial de transformaciones lineales de Rn a Rm.

Si tomamos cualquier transformación lineal TL(Rn,Rm), entonces los valores de T en cualquier vector de Rn quedan totalmente determinados por los valores de T en los elementos de alguna base β para Rn. Tomemos γ={w¯1,,w¯m} una base ordenada para Rm, y β={e¯1,,e¯n} una base ordenada para Rn. Para cada e¯k tenemos:

(1)T(e¯k)=i=1mtikw¯i,

para algunos escalares t1k,,tmk que justo son las componentes de T(e¯k) en la base γ. Con estos escalares, podemos considerar la matriz: Matγ,β(T)=(t11t1ntm1tmn)

Esta es llamada la representación matricial de la transformación T con respecto a las bases β y γ. Esta matriz ayuda a calcular T en cualquier vector de Rn como explicamos a continuación.

Para cada v¯Rn, podemos expresarlo como combinación lineal de elementos de la base β digamos que v¯=i=1nvie¯i. Mediante estos coeficientes, podemos entonces asociar a v¯ al siguiente vector columna de Rn [v¯]β=(v1vn),

al que llamamos el vector de coordenadas de v¯ con respecto a la base β.

Realicemos por un lado el siguiente cálculo:

Matγ,β(T)[v¯]β=(t11t1ntm1tmn)(v1vn)=(k=1nt1kvkk=1ntmkvk.)

Por otro lado tenemos lo siguiente:

T(v¯)=T(k=1nvke¯k)=k=1nvkT(e¯k)=k=1nvkT(i=1mtikw¯i)=i=1m(k=1nvktik)w¯i.

Juntando ambos cálculos: [T(v¯)]γ=(k=1nvkt1kk=1nvktmk)=Matγ,β(T)[v¯]β.

En otras palabras, aplicar T a un vector v¯ equivale a multiplicar Matγ,β por el vector columna asociado a v¯ en la base β, en el sentido de que tras hacer este producto recuperamos el vector de coordenadas para T(v¯) en la base γ.

Isomorfismo entre transformaciones lineales y matrices

Con las operaciones de suma y multiplicación por escalar que vimos en la entrada de Matrices, se tiene que Mm,n(R) es un espacio vectorial sobre R. De igual manera L(Rn,Rm) es un espacio vectorial sobre R con las siguientes operaciones:

  • Si T y U son dos transformaciones, la transformación T+U es aquella que envía a todo vector v¯Rn al vector T(v¯)+U(v¯).
  • Si rR la transformación rT es la que a todo v¯Rn lo envía al vector rT(v¯).

Queda como ejercicio que verifiques que esto dota efectivamente a L(Rn,Rm) de la estructura de espacio vectorial.

A continuación veremos que estos dos espacios vectoriales son, prácticamente, el mismo. Lo que haremos es construir una función Φ:Mm,n(R)L(Rn,Rm) que sea biyectiva y que preserve las operaciones de suma y de producto escalar.

Para ello, tomemos una base β={e¯1,,e¯n} de Rn y una base γ={u¯1,,u¯m} de Rm. Tomemos una matriz AMm,n(R). Explicaremos a continuación cómo construir la transformación Φ(A), para lo cual diremos qué hace con cada elemento de la base β. Tomaremos aquella transformación lineal TAL(Rn,Rm) tal que

TA(e¯j)=i=1naiju¯i.

Tomamos entonces Φ(A)=TA. Veamos que Φ tiene todas las propiedades que queremos.

  • Φ es suprayectiva. Si tenemos una transformación T:RnRm, entonces por la construcción anterior se tiene que su forma matricial A:=Matγ,β(T) justo cumple TA=T, de modo que Φ(A)=T.
  • Φ es inyectiva. Si A y B son matrices distintas, entonces difieren en alguna entrada, digamos (i,j). Pero entonces TA y TB difieren ya que TA(e¯j)TB(e¯j) ya que en las combinaciones lineales creadas hay un coeficiente distinto. Así, Φ(A)Φ(B).
  • Φ es lineal. Para rR, A y B matrices con entradas aij y bij, respectivamente, se cumple que Φ(rA+B)=T(rA+B) y entonces se satisface para cada j=1,,n lo siguiente:
    (rA+B)[e¯j]β=rA[e¯j]β+B[e¯j]β=r[TA(e¯i)]γ+[TB(e¯i)]γ.
    Por tanto para cada e¯i tenemos que T(rA+B)(e¯i)=rTA(e¯i)+TB(e¯i) y en consecuencia T(rA+B)=rTA+TB. Así Φ(rA+B)=rΦ(A)+Φ(B).

Todo lo anterior implica que Mm,n(R)L(Rn,Rm), es decir, que ambos espacios vectoriales son isomorfos.

En búsqueda de una matriz sencilla

Por lo que hemos platicado hasta ahora, a cada transformación lineal le corresponde una matriz, y viceversa. De hecho, esta asociación respeta operaciones como la suma y el producto por escalar. Esta equivalencia está dada a partir de la función Φ encontrada en la sección anterior.

Si Φ es biyectiva, ¿por qué hablamos entonces de encontrar una representación matricial simple para una transformación lineal T? Esto parecería no tener sentido, pues a cada transformación le corresponde una y sólo una matriz. Sin embargo, esto es cierto únicamente tras haber fijado las bases β y γ para Rn y Rm, respectivamente. Así, dependiendo de la elección de las bases las representaciones matriciales cambian y si tenemos una transformación lineal T, es posible que querramos encontrar bases β y γ en donde la representación matricial sea sencilla.

Nos enfocaremos únicamente en transformaciones lineales que van de un espacio vectorial a sí mismo. Tomemos entonces T:RnRn y una base β de Rn. Por simplicidad, escribiremos Matβ,β(T) simplemente como Matβ(T). Hay propiedades de T que podemos leer en su matriz Matβ(T) y que no dependen de la base β que hayamos elegido. Si con una base β especial resulta que Matβ(T) es muy sencilla, entonces podremos leer estas propiedades de T muy fácilmente. Un ejemplo es la siguiente proposición, la cual queda como tarea moral.

Proposición. La transformación lineal T:RnRn es invertible si y sólo si Matβ(T) es invertible.

Si A=Matβ(T) fuera muy muy sencilla, por ejemplo, si fuera una matriz diagonal, entonces podríamos saber la invertibilidad de T sabiendo la invertibilidad de A, y la de A sería muy fácil de ver pues por ser matriz diagonal bastaría hacer el producto de las entradas de su diagonal para obtener su determinante y estudiar si es distinto de cero.

Motivados por el ejemplo anterior, estudiemos la siguiente pregunta: ¿toda transformación lineal se puede representar con una matriz diagonal? Si una transformación lineal se puede representar de esta manera, diremos que es diagonalizable.

Eigenvalores, eigenvectores y eigenespacios

En lo que sigue repasaremos el aparato conceptual que nos permitirá dar una respuesta parcial de cuándo una matriz es diagonalizable. Un tratamiento mucho más detallado se puede encontrar aquí en el blog, en el curso de Álgebra Lineal II, comenzando con la entrada Eigenvectores y eigenvalores.

Para nuestro repaso, debemos introducir algunos conceptos y estudiarlos.

Definición. Sea T:RnRn una transformación lineal. Diremos que un escalar rR es un eigenvalor de T si existe v¯Rn{0¯} tal que T(v¯)=rv¯. A dicho vector v¯ le llamaremos un eigenvector de T con eigenvalor asociado r.

Dado un eigenvector v¯Rn, sólo hay un eigenvalor correspondiente a éste. Si T(v¯)=rv¯ y T(v¯)=tv¯, entonces rv¯=tv¯ de donde (rt)v¯=0¯. Como v¯0¯, se sigue que r=t.

Por otro lado, para un eigenvalor r puede haber más de un eigenvector con eigenvalor asociado r. Consideremos para un eigenvalor r el conjunto E(r)={v¯V|T(v¯)=rv¯}. Notemos que 0¯E(r) y también todos los eigenvectores de r están en E(r). Además, E(r) es un subespacio de Rn, pues si u¯,v¯E(r), y aR, tenemos

T(au¯+v¯)=aT(u¯)+T(v¯)=a(ru¯)+(rv¯)=r(au¯+v¯),

lo cual implica que au¯+v¯E(r).

Definición. Para una transformación lineal T:RnRn y un eigenvalor r de T llamaremos a

E(r)={v¯V|T(v¯)=rv¯}

el eigenespacio de T correspondiente a r.

Cuando tenemos eigenvectores correspondientes a eigenvalores distintos, cumplen algo especial.

Proposición. Si v¯1,,v¯l son eigenvectores de una transformación lineal T:RnRn con eigenvalores correspondientes r1,,rl distintos entonces v¯1,,v¯l son linealmente independientes.

Demostración. La ruta para establecer la demostración de este teorema será por inducción sobre l. Para un conjunto con sólo un eigenvector el resultado es evidente (¿por qué?). Supongamos cierto para cualquier subconjunto de l1 eigenvectores que pertenecen a eigenespacios distintos. Sean v¯1,,v¯l eigenvectores en distintos eigenespacios y consideremos α1,,αl escalares tales que:

(2)k=1lαkv¯k=0¯.

Aplicamos T a la igualdad anterior. Usando que cada v¯k es eigenvector correspondiente al eigenvalor rk obtenemos:

0¯=T(0¯)=T(k=1lαkv¯k)=k=1lαkT(v¯k)=k=1lαkrkv¯k.

Es decir,

(3)0=k=1lαkrkv¯k

Multipliquemos (2) por rl y restemos el resultado de (3) para obtener que

0¯=0¯0¯=k=1lαkrkv¯krlk=1lαkv¯k=k=1l1αk(rkrl)v¯k.

Tenemos entonces:

k=1l1αk(rkrl)v¯k=0¯.

Ya que por hipótesis de inducción v¯1,,v¯l1 son linealmente independientes entonces αk(rkrl)=0 para todo k, pero los eigenvalores son todos distintos entre sí por lo tanto para todo k de 1 a l1 se tiene rkrl0 y así αk=0. Finalmente, usando (2) obtenemos αl=0. Por lo tanto v¯1,,v¯l son linealmente independientes.

◻

Eigenvectores y transformaciones diagonalizables

Recuerda que dijimos que una transformación lineal T:RnRn es diagonalizable si existe una base β de Rn tal que Matβ(T) es una matriz diagonal. El siguiente resultado conecta las dos ideas que hemos estado explorando: los eigenvectores y la representabilidad sencilla de T.

Teorema. Sea T:RnRn transformación lineal. Una matriz T es diagonalizable si y sólo si existe una base de Rn conformada por eigenvectores de T.

En realidad la demostración consiste únicamente en entender correctamente cómo se construyen las matrices para una base dada.

Demostración. ) Supongamos que T tiene una representación matricial que es una matriz diagonal A:=Matβ(T)=diag(r1,,rn) con respecto a la base β={v¯1,,v¯n}. Afirmamos que para cada j=1,,n se tiene v¯j es eigevector de eigenvalor rj. En efecto, la forma en la que se construyó la matriz A nos dice que

T(e¯j)=i=1naije¯i=ajje¯j=rje¯j,

en donde estamos usando que las entradas aij de la matriz son cero si ij (por ser diagonal), y son rj si i=j. Por supuesto, como e¯j forma parte de una base, tampoco es el vector cero. Así, e¯j es eigenvector de eigenvalor e¯j.

) Supongamos ahora que v¯1,,v¯n son una base β de Rn conformada por eigenvectores de T con eigenvalores asociados, digamos, r1,,rn. Aquí se puede mostrar que Matβ(T) es diagonal. Queda como tarea moral hacer las cuentas.

◻

Hay una situación particular en la que podemos aprovechar el teorema anterior de manera inmediata: cuando la transformación tiene n eigenvalores distintos. Esta consecuencia queda establecida en el siguiente resultado.

Corolario. Toda transformación lineal T:RnRn tiene a lo más n eigenvalores distintos. Si T tiene exactamente n eigenvalores distintos, entonces los eigenvectores correspondientes forman una base para Rn y la matriz de T relativa a esa base es una matriz diagonal con los eigenvalores como elementos diagonales.

Demostración. Queda como tarea moral. Como sugerencia, recuerda que mostramos arriba que los eigenvectores de eigenvalores distintos son linealmente independientes.

◻

Al parecer los eigenvalores, eigenvectores y eigenespacios de una transformación lineal son cruciales para poder expresarla de manera sencilla. ¿Cómo los encontramos? Esto lo veremos en la siguiente entrada.

Antes de concluir, mencionamos que hay otro teorema crucial sobre diagonalización de matrices. Diremos que una matriz PMn(R) es ortogonal si PtP=I.

Teorema (el teorema espectral). Sea AMn(R) una matriz simétrica. Entonces, existe una matriz ortogonal P tal que PAPt es una matriz diagonal.

El teorema anterior nos dice no únicamente que la matriz A es diagonalizable, sino que además es diagonalizable mediante un tipo muy especial de matrices. Un estudio y demostración de este teorema queda fuera de los alcances de nuestro curso, pero puedes revisar, por ejemplo la entrada teorema espectral del curso de Álgebra Lineal I que tenemos en el blog.

Más adelante

Lo que haremos en la siguiente entrada es desarrollar un método para conocer los eigenvalores de una matriz. A partir de ellos podremos encontrar sus eigenvectores. Y en ciertos casos especiales, esto nos permitirá mostrar que la transformación es diagonalizable y, de hecho, nos dará la base para la cual la matriz asociada es diagonal.

Tarea moral

  1. Considera la transformación lineal de R3 en R2, dada como T(x,y,z)=(x+y,z+y). Encuentra su representación matricial con las bases canónicas de R3 y R2. Luego, encuentra su representación matricial con las bases {(1,2,3),(1,0,1),(0,1,0)} de R3 y {(1,1),(1,1)} de R2.
  2. Considera la siguiente matriz: (10230102) Da una transformación lineal T:R4R2 y ciertas bases β de R4 y γ de R2 para las cuales esta matriz sea la representación matricial de T en las bases β y γ.
  3. Fija bases β, γ y δ para Rn, Rm y Rl. Considera dos transformaciones lineales T:RnRm y S:RmRl. Demuestra que:
    Matδ,β(ST)=Matδ,γ(S)Matγ,β(T).
    En otras palabras que la «composición de transformaciones corresponde al producto de sus matrices».
  4. Sea T:RnRn una transformación lineal y β una base de Rn. Demuestra que T es biyectiva si y sólo si Matβ(T) es invertible.
  5. Verifica que los vectores v¯1,,v¯n dados en el último teorema en efecto ayudan a dar una representación matricial diagonal para T.
  6. La demostración del último corolario es un conjunto de sencillas consecuencias de las definiciones y teoremas desarrollados en esta entrada con respecto a los eigenvalores y eigenvectores. Realiza esta demostración.

Entradas relacionadas

Álgebra Lineal II: Matrices y transformaciones nilpotentes

Por Elizabeth Chalnique Ríos Alvarado

Introducción

Hemos estudiado varias clases importantes de matrices y transformaciones lineales: diagonales, triangulares superiores, simétricas, ortogonales, normales, etc. Es momento de aprender sobre otro tipo fundamental de matrices y transformaciones lineales: las transformaciones nilpotentes. Nos hemos encontrado con estas matrices ocasionalmente a lo largo del primer curso de álgebra lineal y de éste. Ahora las trataremos de manera más sistemática.

Matrices y transformaciones nilpotentes

En la última unidad estuvimos trabajando únicamente en R o en C. Los resultados que presentaremos a continuación son válidos para espacios vectoriales sobre cualquier campo F.

Definición. Sea A una matriz en Mn(F). Diremos que A es nilpotente si Am=On para algún entero positivo m. Al menor entero positivo m para el cual suceda esto le llamamos el índice de A.

Ejemplo 1. La matriz A=(3913) es nilpotente. En efecto, tenemos que A2=(0000). Como A10, entonces el índice de A es igual a dos.

Tenemos una definición correspondiente para transformaciones lineales.

Definición. Sea V un espacio vectorial sobre un campo F y sea T:VV una transformación lineal. Diremos que que T es nilpotente si Tm es la transformación lineal cero para algún entero positivo m. Al menor entero positivo m para el cual suceda esto le llamamos el índice de T.

Recuerda que por definición Tm es la transformación T compuesta consigo misma m veces.

Ejemplo 2. Si estamos trabajando en el espacio V=Rn[x] de polinomios reales de grado a lo más n, entonces la transformación derivada D:VV para la cual D(p)=p es una transformación lineal nilpotente. En efecto, tras aplicarla n+1 veces a cualquier polinomio de grado a lo más n obtenemos al polinomio 0. Su índice es exactamente n+1 pues derivar n veces no anula al polinomio xn de V.

Si estuviéramos trabajando en el espacio vectorial R[x] de todos los polinomios reales, entonces la transformación derivada ya no sería nilpotente. En efecto, para cualquier m siempre existe un polinomio tal que al derivarlo m veces no se anula.

Bloques de Jordan de eigenvalor cero

Hay una familia importante de matrices nilpotentes.

Definición. Sea F un campo. El bloque de Jordan de eigenvalor 0 y tamaño k es la matriz J0,k en Mk(F) cuyas entradas son todas cero, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, J0,k=[aij] con aij={1si j=i+10en otro caso.

También podemos expresarlo de la siguiente manera:

J0,k=(0100000100000000000100000), en donde estamos pensando que la matriz es de k×k.

Ejemplo 3. A continuación tenemos la matriz J0,4:

J0,4=(0100001000010000)

Esta es una matriz nilpotente. En efecto, haciendo las cuentas de matrices correspondientes tenemos que:

J0,42=(0100001000010000)(0100001000010000)=(0010000100000000)

Luego que

J0,43=J0,4J0,42=(0100001000010000)(0010000100000000)=(0001000000000000)

Y finalmente que

J0,44=J0,4J0,43=(0100001000010000)(0001000000000000)=(0000000000000000)

De esta manera, hay una potencia de J0,4 que se hace igual a cero. Como la mínima potencia es 4, entonces J0,4 es nilpotente de índice 4. Observa cómo la diagonal de unos «se va recorriendo hacia arriba a la derecha».

Todos los bloques de Jordan son nilpotentes

El siguiente resultado generaliza el ejemplo anterior y nos da una mejor demostración, interpretando a la matriz como transformación lineal.

Teorema. La matriz J0,k es nilpotente de índice k.

Demostración. Veamos qué hace la matriz J0,k cuando la multiplicamos por un vector: J0,k(x1x2x3xk1xk)=(0100000100000000000100000)(x1x2x3xk1xk)=(x2x3x4xk0).

En otras palabras, la matriz J0,k «recorre» las entradas del vector hacia arriba «empujando» con ceros desde abajo. Al hacer esto k veces, claramente llegamos al vector 0, así, J0,kk está asociada a la transformación lineal cero y por lo tanto es la matriz Ok. Y J0,kk1 no es la matriz cero pues al aplicarla en ek, el k-ésimo vector de la base canónica de Fk tenemos por las mismas ideas de arriba que J0,kk1en=e1.

◻

Una caracterización de matrices y transformaciones nilpotentes

El siguiente resultado nos da algunas equivalencias para que una transformación sea nilpotente.

Proposición. Sea AMn(F) una matriz. Todo lo siguiente es equivalente:

  1. A es nilpotente.
  2. El polinomio mínimo de A es de la forma μA(X)=Xk.
  3. El polinomio característico de A es χA(X)=Xn.

Demostración. 1)2). Si A es nilpotente, entonces hay un entero m tal que Am=On. Entonces, el polinomio p(X)=Xm anula a la matriz A. Pero el polinomio mínimo divide a cualquier polinomio que anule a A, entonces μA(X)|Xm, de donde μA(X) debe ser también de la forma Xk. De hecho, no puede suceder que k<m pues en dicho caso como el polinomio mínimo anula a la matriz, tendríamos que Ak=On, pero esto es imposible pues m es el menor entero tal que Am=On. Así, en este caso k es justo el índice de A.

2)3). Supongamos que el polinomio mínimo de A es de la forma μA(X)=Xk. Como el polinomio mínimo anula a la matriz tenemos que Ak=On. Tomemos un escalar λ en F fijo. Tenemos que:

λkIn=λkInAk=(λInA)(λk1In+λk2A++λAk2+Ak1)

Al tomar determinante de ambos lados y usando en la derecha la multiplicatividad del determinante, tenemos:

det(λkIn)=det(λInA)det(λk1In+λk2A++λAk2+Ak1).

Del lado izquierdo tenemos det(λkIn)=λnk. Del lado derecho tenemos χA(λ) multiplicado por otra expresión polinomial en λ, digamos P(λ). Como esto se vale para todo escalar λ, se vale polinomialmente que Xnk=χA(X)P(X). Así, χA(X)|Xnk y como el polinomio característico es de grado exactamente n, obtenemos que χA(X)=Xn.

3)1). Si el polinomio característico de A es χA(X)=Xn, entonces por el teorema de Cayley-Hamilton tenemos que An=On, de donde A es nilpotente.

◻

Como consecuencia del teorema anterior, obtenemos los siguientes resultados.

Corolario. Si A es una matriz nilpotente en Mn(F), entonces An=On y por lo tanto el índice de A es menor o igual a n. Análogamente, si T:VV es nilpotente y dim(V)=n, entonces el índice de T es menor o igual a n.

Corolario. Si A es una matriz nilpotente en Mn(F), entonces su traza, su determinante y cualquier eigenvalor son todos iguales a cero.

Más adelante…

En esta entrada definimos a las matrices y transformaciones nilpotentes. También enunciamos algunas de sus propiedades. En la siguiente entrada enunciaremos nuestra primer versión del teorema de Jordan, en donde nos enfocaremos únicamente en lo que nos dice para las matrices nilpotentes. Esto servirá más adelante como uno de los peldaños que usaremos para demostrar el teorema de Jordan en general.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz nilpotente de índice 2 en M7(R). En general, para cualquier entero positivo n y cualquier entero k con 1kn, da una forma de construir una matriz nilpotente de índice n en Mn(R).
  2. Encuentra una matriz con determinante cero y que no sea una matriz nilpotente. Encuentra una matriz con traza cero y que no sea una matriz nilpotente.
  3. Sea V un espacio vectorial de dimensión finita n. Demuestra que las siguientes afirmaciones son equivalentes:
    1. Una transformación T:VV es nilpotente de índice k.
    2. Alguna forma matricial de T es nilpotente de índice k.
    3. Todas las formas matriciales de T son nilpotentes de índice k.
    4. Tn es la transformación lineal 0.
  4. Demuestra los dos corolarios al final de la entrada. Como sugerencia para el segundo, recuerda que la traza, determinante y los eigenvalores de una matriz están muy relacionados con su polinomio característico.
  5. Prueba que la única matriz nilpotente diagonalizable en Mn(F) es On.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Unicidad de la forma de Jordan para nilpotentes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan para matrices nilpotentes. Demostramos una parte: la existencia de la forma canónica de Jordan. Para ello, nos enfocamos en el teorema en su versión en términos de transformaciones lineales. En esta entrada nos enfocaremos en demostrar la unicidad de la forma canónica de Jordan. Curiosamente, en este caso será un poco más cómodo trabajar con la forma matricial del teorema. Para recordar lo que queremos probar, volvemos a poner el enunciado del teorema a continuación. Lo que buscamos es ver que los enteros k1,,kd que menciona el teorema son únicos.

Teorema. Sea A una matriz nilpotente en Mn(F). Entonces existen únicos enteros k1,,kd tales que k1+k2++kd=n,k1k2kd, y para los cuales A es similar a la siguiente matriz de bloques: (J0,k1000J0,k2000J0,kd).

Nuestra estrategia para mostrar la unicidad será el estudio del rango de las potencias de A. Si A es similar una matriz en forma canónica J, entonces existe P invertible tal que A=P1JP, de donde se puede mostrar indutivamente que Ak=P1JkP, mostrando que Ak y Jk son similares. Además, sabemos por teoría anterior que matrices similares tienen el mismo rango. De modo que si A es similar a J entonces todas las potencias de A tienen el mismo rango que todas las potencias de J. Con esta idea en mente estudiaremos cómo es el rango de matrices de bloques de Jordan de eigenvalor cero.

Rango de potencias de bloques de Jordan

Claramente el rango del bloque de Jordan J0,n es n1, pues ya está en forma escalonada reducida y tiene n1 vectores distintos de cero. El siguiente resultado generaliza esta observación.

Proposición. Sea n un entero positivo, F un campo y J0,n el bloque de Jordan de eigenvalor 0 y tamaño n en Mn(F). Para k=1,,n se tiene que el rango de J0,nk es igual a nk. Para valores de k más grandes, el rango es igual a cero.

Demostración. Si e1,,en es la base canónica de Fn, tenemos que J0,nei=ei1 para i=2,,n y J0,ne1=0. De manera intuitiva, la multiplicación matricial por J0,n va «desplazando los elementos de la base e1,,en a la izquierda, hasta sacarlos». De este modo, J0,nk para k=1,,n hace lo siguiente:

J0,nkei={0para kieikpara ki1.

Así, J0,nk manda a la base e1,,en a los vectores e1,,enk y a k copias del vector cero. Como los primeros son nk vectores linealmente independientes, obtenemos que el rango de J0,nk es nk.

Para valores de k más grandes la potencia se hace la matriz cero, así que su rango es cero.

◻

Rango de potencias de matrices de bloques de Jordan

¿Qué sucede si ahora estudiamos el rango de las potencias de una matriz de bloques de Jordan? Consideremos, por ejemplo, la siguiente matriz, en donde k1,,kd son enteros positivos de suma n y con k1kd:

J=(J0,k1000J0,k2000J0,kd).

Por un lado, es sencillo elevar esta matriz a potencias, pues simplemente los bloques se elevan a las potencias correspondientes. En símbolos:

Jr=(J0,k1r000J0,k2r000J0,kdr).

¿Cuál es el rango de esta potencia? Nos conviene cambiar un poco de notación. En vez de considerar a los ki por separado, los agruparemos de acuerdo a su valor, que puede ir de 1 a n. Así, para cada j=1,,n definimos mj como la cantidad de valores ki iguales a j. Bajo esta notación, la igualdad k1++kd=n se puede reescribir como m1+2m2+3m3++nmn=n.

Una primera observación es que el rango de J es simplemente la suma de los rangos de cada una de las J0,ki. Cada una de éstas contribuye con rango ki1. Así, en términos de las mj tenemos lo siguiente:

rango(J)=i=1d(ki1)=j=1n(j1)mj=0m1+1m2+2m3++(n1)mn.

De manera similar,

rango(Jr)=i=1drango(J0,kir)=j=1nmjrango(J0,jr).

El término rango(J0,jr) lo podemos calcular con la proposición de la sección anterior, cuidando la restricción entre el tamaño y las potencias que queremos. De aquí y de la restricción original para la las mj salen todas las siguientes igualdades:

n=1m1+2m2+3m3++nmnrango(J)=0m1+1m2+2m3++(n1)mnrango(J2)=0m1+0m2+1m3++(n2)mnrango(J3)=0m1+0m2+0m3++(n3)mnrango(Jn1)=0m1+0m2+0m3++1mn.

A partir de aquí el rango de Jn es 0. Esto nos da una manera de entender con mucha precisión el rango de cualquier potencia de una matriz diagonal por bloques hecha con bloques de Jordan.

Unicidad de la forma canónica de Jordan

Estamos listos para justificar la unicidad de la forma canónica de Jordan. Una matriz diagonal por bloques hecha por bloques de Jordan queda totalmente determinada por los valores de mj de la sección anterior. Supongamos que A tiene como forma canónica de Jordan tanto a una matriz J con valores mj, como a otra matriz J con valores mj.

Como dos matrices similares cumplen que sus potencias son todas del mismo rango, entonces para cualquier r de 1 a n1 se cumple que rango(Jr)=rango(Ar)=rango(Jr). Así, tanto (m1,,mn) como (m1,,mn) son soluciones al siguiente sistema de ecuaciones en variables x1,,xn.

n=1x1+2x2+3x3++nxnrango(A)=0x1+1x2+2x3++(n1)xnrango(A2)=0x1+0x2+1x3++(n2)xnrango(A3)=0x1+0x2+0x3++(n3)xnrango(An1)=0x1+0x2+0x3++1xn.

Pero este es un sistema de n ecuaciones en n variables y con matriz asociada de determinante 1, así que su solución es única. Esto muestra que (m1,,mn)=(m1,,mn). Entonces, en J y J aparecen la misma cantidad de bloques de cada tamaño. Como además los bloques van de tamaño menor a mayor tanto en J como en J, concluimos que J=J.

Como consecuencia de toda esta discusión, obtenemos de hecho lo siguiente.

Corolario. Dos matrices nilpotentes son semejantes si y sólo si tienen la misma forma canónica de Jordan. Distintas formas canónicas de Jordan dan distintas clases de semejanza.

Una receta para encontrar la forma canónica de Jordan de nilpotentes

La demostración anterior no sólo demuestra la unicidad de la forma canónica de Jordan. Además, nos dice exactamente cómo obtenerla. Para ello:

  1. Calculamos todas las potencias de A hasta n1.
  2. Usando reducción gaussiana (o de otro modo), calculamos el rango de cada una de estas potencias.
  3. Resolvemos el sistema de ecuaciones en variables xj de la sección anterior.
  4. La forma canónica de Jordan de A tiene xj bloques de tamaño j, que debemos colocar en orden creciente de tamaño.

Ejemplo. Consideremos la siguiente matriz en M7(R): C=(2726613713512553217156311833125110203612361784188161512123458511102512282980159113311498878690232197140988191151952348230160517910013161031440)

Sus números son muy complicados, sin embargo, nos podemos auxiliar de herramientas computacionales para encontrar sus potencias. Soprendentemente esta es una matriz nilpotente de índice 3 pues:

C2=(0102093403680668061020900146914897979497941469100273991318261826273900722124074814481472210014193473194629462141930010956365273047304109560011952398479687968119520)

y

C3=(0000000000000000000000000000000000000000000000000).

Usando reducción gaussiana, o herramientas computacionales, obtenemos que el rango de C es 4 y que el rango de C2 es 2. A partir de k3 obtenemos que rango(Ck)=rango(O7)=0. Si queremos encontrar la forma canónica de Jordan de C, necesitamos entonces resolver el siguiente sistema de ecuaciones, que nos dirá cuántos bloques xj de tamaño j hay:

7=x1+2x2+3x3+4x4+5x5+6x6+7x74=x2+2x3+3x4+4x5+5x6+6x72=x3+2x4+3x5+4x6+5x70=x4+2x5+3x6+4x70=x5+2x6+3x70=x6+2x70=x7

Para resolverlo lo mejor es proceder «de abajo hacia arriba». Las últimas cuatro ecuaciones nos dicen que x7=x6=x5=x4=0. Así, el sistema queda un poco más simple, como:

7=x1+2x2+3x34=x2+2x32=x3.

De la última igualdad, tenemos x3=2, lo que nos dice que la forma canónica de Jordan tendría dos bloques de tamaño 3. Sustituyendo en la penúltima igualdad obtenemos que 4=x2+4, de donde x2=0. Así, no tendremos ningún bloque de tamaño 2. Finalmente, sustituyendo ambos valores en la primera igualdad obtenemos que 7=x1+0+6. De aquí obtenemos x1=1, así que la forma canónica de Jordan tendrá un bloque de tamaño 1. En resumen, la forma canónica de Jordan es la matriz (J0,1000J0,3000J0,3). Explícitamente, ésta es la siguiente matriz:

(0000000001000000010000000000000001000000010000000).

Para verla un poco más «como de bloques» la podemos reescribir de la siguiente manera:

(0000000001000000010000000000000001000000010000000).

Más adelante…

Hemos demostrado la existencia y unicidad de la forma canónica de Jordan para matrices nilpotentes. Este es un resultado interesante por sí mismo. Sin embargo, también es un paso intermedio para un resultado más general. En las siguientes entradas hablaremos de una versión más general del teorema de Jordan, para matrices tales que su polinomio característico se descomponga totalmente en el campo en el que estemos trabajando.

Tarea moral

  1. Considera la siguiente matriz: M=(11111111111133337777).
    1. Muestra que M es una matriz nilpotente y determina su índice.
    2. ¿Cuál es la forma canónica de Jordan de M?
  2. Describe las posibles formas canónicas de Jordan para una matriz nilpotente AM5(F) de índice 2.
  3. Describe las posibles formas canónicas de Jordan para una matriz nilpotente AM7(F) de rango 5.
  4. Encuentra de manera explícita la inversa de la siguiente matriz en Mn(R) y usa esto para dar de manera explícita la solución al sistema de ecuación en las variables xi que aparece en la entrada: (123n1n012n2n1001n3n20001200001).
  5. Sea A una matriz nilpotente en Mn(R). Muestra que las matrices A y 5A son similares entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz A en Mn(F) tiene polinomio característico χA(x)=xn+an1xn1++a1x+a0. Como a0=det(A), si a0=0 entonces la matriz no es invertible. Supongamos entonces que a00. Por el teorema de Cayley-Hamilton tenemos que An+an1An1++a1A+a0In=On. De aquí podemos despejar la matriz identidad como sigue:

In=1a0(An+an1An1++a1A)=1a0(An1+an1An2++a1I)A.

Estos cálculos muestran que la inversa de A es la matriz 1a0(An1+an1An2++a1I).

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz A=(220010111). Su polinomio característico es λ32λ2λ+2. Usando la fórmula de arriba, tenemos que

A1=12(A22AI).

Necesitamos entonces A2, que es:

A2=(420010321).

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

A1=(12100101201).

Puedes verificar que en efecto esta es la inversa de A realizando la multiplicación correspondiente.

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si A es una matriz con entradas en los enteros y determinante 1 ó 1, entonces A1 tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor λ ya vimos que λ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor xλ en el polinomio mínimo para cada eigenvalor λ.

Ejemplo 1. Encontramos el polinomio mínimo de la siguiente matriz:

B=(204311002).

Una cuenta estándar muestra que el polinomio característico es (x2)2(x+1). El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor (x2) y un factor (x+1). Sólo hay dos polinomios con esas condiciones: (x2)(x+1) y (x2)2(x+1). Si (x2)(x+1) anula a B, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

(B2I3)(B+I3)=(004331000)(304301003)=(00120012000).

Así, (x2)(x+1) no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico (x2)2(x+1).

Ejemplo 2. Consideremos la matriz C=(300030003). Su polinomio característico es (x3)3. Así, su polinomio mínimo es x3, (x3)2 ó (x3)3. Nos damos cuenta rápidamente que x3 sí anula a la matriz pues A3I3=O3. De este modo, el polinomio mínimo es x3.

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en Mn(R) que son su propia inversa? La condición algebraica es A2=I2. Si el polinomio característico de A es x2+bx+c, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que O2=A2+bA+cI2=bA+(c+1)I2. De aquí tenemos un par de casos:

  • Si b0, podemos despejar a A como A=c+1bI2, es decir A debe ser un múltiplo de la identidad. Simplificando la notación, A=xI2. Así, la condición A2=I2 se convierte en x2I2=I2, de donde x2=1 y por lo tanto x=±1. Esto nos da las soluciones A=I2 y A=I2.
  • Si b=0, entonces O2=(c+1)I2, de donde c=1. De este modo, el polinomio característico es x21=(x+1)(x1). Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz (1001), y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz (3100030000210002).
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: (011112221).
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es 1 ó 1.
  4. ¿Cómo son todas las matrices en M2(R) tales que A2=A?
  5. ¿Cómo son todas las matrices en M3(R) de determinante 0 tales que A3=O3?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Adjunciones complejas y transformaciones unitarias

Por Ayax Calderón

Introducción

Lo que hemos trabajado en esta unidad tiene su análogo para espacios hermitianos. En esta entrada haremos una recapitulación de los resultados que demostramos en el caso real, pero ahora los enunciaremos para el caso complejo. Las demostraciones son similares al caso real, pero haremos el énfasis correspondiente cuando haya distinciones para el caso complejo.

Adjunciones en espacios hermitianos

Uno de los ejercicios de la entrada Dualidad y representación de Riesz en espacios euclideanos consiste en enunciar y demostrar el teorema de representación de Riesz para espacios hermitianos. Si recuerdas, eso es justo lo que se necesita para hablar de la adjunción, de modo que en espacios hermitianos también podemos definir la adjunción como sigue.

Definición. Sea V un espacio hermitiano con producto interior hermitiano ,. Sea T:VV una transformación lineal. Definimos a la adjunta de T, como la única transformación lineal T:VV que cumple la siguiente condición para todos x,y en V:

T(x),y=x,T(y)

En el caso real la matriz de la transformación adjunta en una base ortonormal era la transpuesta. En el caso complejo debemos tomar la transpuesta conjugada.

Proposición. Sea V un espacio hermitiano con producto interior hermitiano ,. Sea T:VV una transformación lineal. Sea B una base ortonormal de V. Se tiene que MatB(T)=MatB(T).

La demostración queda como ejercicio.

Transformaciones unitarias e isometrías

En espacios hermitianos también podemos hablar de las transformaciones lineales que preservan la distancia: las isometrías. En el caso real, las isometrías de un espacio a sí mismo las llamábamos ortogonales, pero en el caso complejo usaremos otro nombre.

Definición. Sean V1,V2 espacios hermitianos sobre C con productos interiores hermitianos ,1,,2. Diremos que una transformación lineal T:V1V2 es una isometría si es un isomorfismo de espacios vectoriales y para cualesquiera x,yV1 se cumple que T(x),T(y)2=x,y1. Si V1 V2 son un mismo espacio hermitiano V, diremos que T es una transformación unitaria.

Diremos que una matriz AMn(C) se dice unitaria si AA=In. Puede demostrarse que si una matriz A es unitaria, entonces la transformación XAX también lo es. Así mismo, se puede ver que si T es una transformación unitaria, entonces cualquier representación matricial en una base ortonormal es unitaria.

Equivalencias de matrices y transformaciones unitarias

Así como en el caso real, hay muchas maneras de pensar a las transformaciones y a las matrices unitarias. Puedes pensar en los siguientes resultados como los análogos a las descripciones alternativas en el caso real.

Teorema. Sea T:VV una transformación lineal. Las siguientes afirmaciones son equivalentes:

  1. T es unitaria es decir, T(x),T(y)=x,y para cualesquiera x,yV.
  2. ||T(x)||=||x|| para cualquier xV.
  3. TT=Id.

Teorema. Sea AMn(C). Las siguientes afirmaciones son equivalentes:

  1. A es unitaria.
  2. Las filas de A forman una base ortonormal de Cn.
  3. Las columnas de A forman una base ortonormal de Cn.
  4. Para cualquier xCn, se tiene que $$||Ax||=||x||$.

Propiedades de grupo y caracterización de unitarias

Así como en el caso real las transformaciones ortogonales forman un grupo bajo la composición, en el caso complejo las transformaciones unitarias también forman un grupo bajo la composición. Si hablamos de matrices unitarias, entonces forman un grupo bajo el producto de matrices. Es posible clasificar a las matrices unitarias así como se clasificó a las matrices ortogonales, sin embargo los resultados son notablemente más difíciles de expresar.

Más adelante…

En la siguiente entrada hablaremos de quiénes son las transformaciones complejas para las que se puede enunciar el teorema espectral en el caso complejo. Veremos el resultado correspondiente y haremos énfasis en las diferencias que debemos tomar en cuenta.

Tarea moral

  1. Demuestra que si A es una matriz unitaria, entonces |detA|=1.
  2. Prueba que para que una transformación lineal T de un espacio hermitiano sea unitaria, basta que a los vectores de norma 1 los mande a vectores de norma 1.
  3. Describe las matrices AMn(C) que son simultaneamente diagonales y unitarias.
  4. Demuestra que el producto de dos matrices unitarias es una matriz unitaria y que la inversa de una matriz unitaria es unitaria.
  5. Revisa nuevamente la entrada y realiza todas las demostraciones faltantes.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»