Archivo de la etiqueta: eigenvalores

Álgebra Lineal II: El teorema de descomposición polar real

Por Ayax Calderón

Introducción

En la entrada anterior enunciamos y demostramos el teorema espectral para matrices simétricas reales. Una de las consecuencias de este teorema es el teorema de descomposición polar. Se puede pensar en el teorema de descomposición polar como al análogo a un resultado muy conocido de números complejos: cualquier número complejo se puede pensar de la forma z=eiθr con r0 real. Geométricamente, el complejo se obtiene «rotando tanto como el argumento y luego alargando de acuerdo a la norma».

Así mismo, veremos que toda matriz A tendrá una expresión de la forma A=US donde U es una matriz ortogonal (que juega el papel de «la rotación») y S es una matriz simétrica positiva (que por el teorema espectral recordemos que es básicamente «alargar en varias direcciones»). Este resultado es increíble: ¡nos dice cómo son todas, todas las matrices reales en términos de matrices muy sencillas: las ortogonales (que conocemos muy bien) y las simétricas (que por el teorema espectral también conocemos muy bien)!

Caso invertible del teorema de descomposición polar

Recordemos un resultado de la entrada anterior, que era una de las partes de nuestro teorema de clasificación de matrices positivas. Nos dice que las matrices simétricas positivas «tienen raíz cuadrada».

Proposición. Sea A una matriz simétrica positiva. Entonces existe una matriz simétrica B tal que B2=A.

Como recordatorio, para obtener a B lo que hicimos fue diagonalizar a A de la forma A=P1DP con D matriz diagonal cuyas entradas eran λ1,,λn los eigenvalores de A. Como A era positiva, sus eigenvalores eran no negativos, así que podíamos construir D con entradas λ1,,λn. Después, vimos que B=P1DP servía para que B2=A. Observa que además B es positiva pues sus eigenvalores son no negativos.

Como observación adicional, si A fuera positiva definida entonces sus eigenvalores serían positivos, y entonces B también tendría eigenvalores positivos. Así, B sería positiva definida también. De hecho, se puede demostrar que en este caso la matriz B es única (bajo la condición de ser simétrica positiva definida y raíz de A). Probar esto queda como parte de los ejercicios de la entrada.

Estamos listos para enunciar y demostrar el teorema de descomposición polar en el caso de matrices invertibles.

Teorema (De descomposición polar, caso invertible). Sea AMn(R) una matriz invertible. Entonces existe una única pareja (U,S) con U una matriz ortogonal y S una matriz simétrica positiva definida para la que se cumple que A=US.

Demostración. Tomemos AMn(R) una matriz invertible. La matriz tAA es simétrica y positiva definida. Por la discusión anterior, existe una única matriz simétrica positiva definida S tal que tAA=S2. Como A es invertible, S también lo es, así que definamos U=AS1.

Afirmamos que (U,S) cumplen con lo requerido. Ya justificamos que S es simétrica positiva definida. Además, de U=AS1 se obtiene inmediatamente US=A. Sólo falta verificar que U es ortogonal. Para ello, al multiplicarla con su transpuesta obtenemos lo siguiente:
tUU=tS1tAAS1=S1S2S1=In.

Veamos ahora la unicidad. Supongamos que A=US con U ortogonal y S simétrica positiva definida, Entonces
tAA=StUUS=S2.

De esta manera, S es precisamente la raíz cuadrada de tAA, que por la discusión anterior es única. Deducimos entonces que S=S y por lo tanto U=AS1=AS1=U.

◻

Caso general del teorema de descomposición polar

Es natural preguntarse qué sucede cuando la matriz A no es invertible. Resulta que en ese caso aún podemos encontrar una descomposición, aunque perdemos un poco de las propiedades de las matrices y la unicidad. Por ejemplo, si A=On, entonces A=UOn para cualquier matriz ortogonal U y entonces tenemos muchas posibles descomposiciones.

Teorema (De descomposición polar, caso general). Cualquier matriz AMn(R) se puede escribir de la forma A=US con U una matriz ortogonal y S una matriz simétrica positiva.

¿Por qué falla nuestra demostración? Todavía tenemos que tAA es positiva, así que podríamos tomar una raíz cuadrada S. El problema es que como A no es invertible, entonces S tampoco lo es. Por ello, no podemos definir U=AS1 como lo hicimos con anterioridad. Sin embargo, podemos ser astutos y «cambiar tantito» a A para que sí se vuelva invertible. De hecho, podemos tomar muchas matrices que se acercan a A y sí son invertibles. Con ello podemos usar un «argumento al límite». Formalicemos estas ideas.

Demostración. Consideremos las matrices Ak=A+1kIn. Recordemos que det(A+λIn) es un polinomio de grado n así que tiene a lo más n raíces. Por ello, existe un k0 tal que para toda k>k0 la matriz Ak es invertible. Al aplicar el teorema de descomposición polar a cada una de dichas Ak, obtenemos una matriz ortogonal Uk y una simétrica positiva definida Sk tales que

Ak=UkSk.

Las entradas de cada Uk cumplen que están en el intervalo [1,1] (pues la suma de las entradas de cada fila es igual a 1). Así, Uk es una sucesión de matrices en el compacto de matrices con entradas [1,1]. En un compacto toda sucesión tiene una subsucesión convergente, así que podemos elegir una subsucesión de estas matrices, digamos Uk1,Uk2, que converge a una matriz U.

Se puede ver que el producto de matrices es continúo y obtener inversas de matrices también es continuo (por ejemplo, por las fórmulas de inversa por matriz de adjuntos). De este modo, aplicando límite j a la igualdad tUkjUkj=In obtenemos que tU=In, de modo que U es ortogonal.

Del mismo modo, como trasponer es continuo, Sk1,Sk2, converge a una matriz simétrica S. Finalmente, usando nuevamente la continuidad del producto de matrices obtenemos

A=limjAkj=limjUkjSkj=US.

Sólo nos falta demostrar que S es positiva, pero si tomamos XRn, entonces pasando al límite j en la desigualdad tXSkjX>0 obtenemos tXSX0. Aquí es donde se podría perder que S es positiva definida, pero seguimos teniendo que S es positiva.

◻

Más adelante…

Tanto el teorema espectral como el teorema de descomposición polar son resultados de caracterización fundamentales en álgebra lineal y finalmente nos dan una respuesta a la pregunta de, geométricamente, cómo son todas las posibles transformaciones lineales. En las siguientes secciones se esbozarán los resultados análogos para el caso complejo.

Después de ello, en la cuarta unidad del curso cubriremos otro teorema que nos permitirá decir «cómo son todas las matrices». Quizás no todas las matrices sean directamente similares a una matriz diagonal. Pero enunciaremos y demostraremos el teorema de Jordan que dirá que cualquier matriz es similar a una «casi diagonal», a la que llamaremos diagonal por bloques.

Tarea moral

  1. Sean que A y B son matrices simétricas. Demuestra que A y B conmutan si y sólo si existe una misma matriz P tal que PAP1 y PBP1 son diagonales (a esto se le conoce como que A y B sean «simultáneamente diagonalizables»)
  2. Usando el ejercicio anterior, demuestra que si A es simétrica positiva definida, y se cumple B2=A=C2 con B y C matrices simétricas positivas definidas, entonces B=C.
  3. Sean A,BMn(R) matrices tales que tAA=tBB. Demuestra que existe una matriz ortogonal UMn(R) tal que B=UA.
  4. Encuentra la descomposición polar de (115210).
  5. Sea A una matriz cuadrada con descomposición polar A=WP. Demuestra que A es normal si y sólo si WP2=P2W.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: El teorema espectral real

Por Ayax Calderón

Introducción

Por lo que estudiamos en la primera parte de este curso, ya sabemos cuándo una matriz arbitraria es diagonalizable. Lo que haremos ahora es enunciar y demostrar el teorema espectral en el caso real. Una de las cosas que nos dice es que las matrices simétricas reales son diagonalizables. Pero nos dice todavía más. También nos garantiza que la manera en la que se diagonalizan es a través de una matriz ortogonal. Esto combina mucho de la teoría que hemos cubierto. Además, gracias al teorema espectral podremos, posteriormente, demostrar el famoso teorema de descomposición polar que nos dice cómo son todas las matrices.

El lema de eigenvalores de matrices simétricas

Comencemos enunciando algunas propiedades que tienen las matrices y transformaciones simétricas. El primero habla de cómo son los eigenvalores de las matrices simétricas.

Lema. Sea AMn(R) una matriz simétrica. Entonces todas las raíces del polinomio característico de A son números reales.

Demostración. Tomemos AMn(R) y sea λ. Su polinomio característico está en R[x], así que por el teorema fundamental del álgebra todas sus raíces están en C. Sea t una raíz del polinomio característico de A.

Pensemos a A como un elemento de Mn(C). Como det(tInA)=0, entonces t es eigenvalor y por lo tanto hay un eigenvector XCn no nulo tal que AX=tX. Como el vector tiene entradas complejas, lo podemos escribir como X=Y+iZ para dos vectores Y,ZRn. Así mismo, podemos escribir a t como t=a+ib con a y b números reales.

Con esta notación, de la igualdad AX=tX se sigue que

AY+iAZ=AX=(a+ib)(Y+iZ)=aYbZ+i(aZ+bY).

Igualando las partes imaginarias y las partes reales obtenemos que

(1)AY=aYbZ,AZ=aZ+bY.

Usemos ahora que A es simétrica. Tenemos que
(2)AY,Z=Y,AZ.

Sustituyendo la primera igualdad de (1) en el lado izquierdo de (2), y la segunda igualdad de (1) en el lado derecho de (2), obtenemos que:

aYbZ,Z=Y,aZ+bY,

y usando la linealidad del producto interior, se obtiene que

aY,ZbZ,Z=aY,Z+bY,Y.

Se sigue que
b(||Y||2+||Z||2)=0 y como Y o Z es distinto de cero (de lo contrario tendríamos que X=0), entonces concluimos que b=0 y con ello que t es un número real.

◻

El lema de estabilidad de transformaciones simétricas

El segundo lema que veremos nos dice qué sucede cuando una transformación lineal es simétrica y tomamos un subespacio estable bajo ella. Recuerda que un subespacio W de un espacio vectorial V es estable bajo una transformación lineal T:VV si T(W)W.

Lema. Sea V un espacio euclidiano y T:VV una transformación lineal simétrica sobre V. Sea W un subespacio de V estable bajo T. Entonces

  1. W también es estable bajo T.
  2. Las restricciones de T a W y W son transformaciones lineales simétricas sobre estos espacios.

Demostración.

1. Tomemos xW. Nos gustaría ver que T(x)W. Para ello, tomemos yW. Como W es estable bajo T, tenemos T(y)W. Como xW, tenemos que x,T(y)=0. Usando esto y la simetría de T, obtenemos entonces
T(x),y=x,T(y)=0,
que es lo que queríamos probar.

2. Sea T|W la restricción de T aW. Para x,yW tenemos que
T|W(x),y=T(x),y=x,T(y)=x,T|W(y), por lo tanto T|W es simétrica sobre W. Análogamente se ve que el resultado se cumple para W.

◻

El teorema espectral real

Con los dos lemas anteriores podemos ahora sí enfocarnos en demostrar el teorema principal de esta entrada.

Teorema (el teorema espectral real). Sea V un espacio euclidiano y T:VV una transformación lineal simétrica. Entonces existe una base ortonormal de V conformada por eigenvectores de T.

Demostración. Procederemos por inducción fuerte sobre n=dimV. Si n=1, entonces el polinomio característico de T es de grado 1 y tiene coeficientes reales, por lo que tiene una raíz real t. Si v es un eigenvector de T con eigenvalor t, entonces v||v|| también es eigenvector de T y forma una base ortonormal de V. Esto termina el caso n=1.

Ahora supongamos que el resultado se satisface hasta dimensión n1 y tomemos V de dimensión n. Sea B={e1,e2,en} una base ortonormal de V. Sea A la matriz asociada a T con respecto a B. Como T es simétrica, entonces A también lo es. Su polinomio característico no es constante, de modo que por el teorema fundamental del álgebra tiene por lo menos una raíz t, y por el primer lema de la sección anterior, se tiene que t es real y por lo tanto es un eigenvalor.

Sea W=ker(tidT) el t-eigenespacio de T. Si W=V, entonces T=tid y así B es una base ortonormal de V compuesta por eigenvectores de T. De otro modo, WV y por lo tanto k:=dimW<n. Tenemos que V=WW y sabemos que los eigenespacios son estables bajo la transformación correspondiente. Así, por el segundo lema de la sección anterior W también es estable bajo T y la restricción de T a W es simétrica.

Podemos entonces aplicar la hipótesis inductiva a T|W para encontrar una base ortonormal C={f1,f2,fnk} de W compuesta por eigenvectores de T. Escogiendo una base ortonormal D={f1,f2,,fk} de W (que automaticamente está formada por eigenvectores de T). La base CD de V es entonces la base de eigenvectores que buscábamos.

◻

El teorema espectral también puede enunciarse en términos de matrices. Hacemos esto a continuación.

Observación. Si AMn(R) es una matriz simétrica, entonces la transformación lineal T:XAX sobre Rn es simétrica. Aplicando el teorema anterior, podemos encontrar una base ortonormal de V con respecto a la cual la matriz asociada a T es diagonal. Como la base canónica de V es ortonormal, y como la matriz de cambio de pase entre dos bases ortonormlaes es ortogonal, obtenemos el siguiente resultado fundamental.

Teorema (el teorema espectral para matrices reales). Sea AMn(R) una matriz simétrica. Entonces A es diagonalizable y, más específicamente, existen una matriz ortogonal PMn(R) y una matriz diagonal DMn(R) tales que A=P1DP.

Así, A es simultáneamente, mediante una misma matriz P, tanto similar como congruente a una matriz diagonal.

Aplicación a caracterizar las matrices simétricas positivas

Ya hemos dado algunas caracterizaciones para las matrices simétricas positivas. Veamos algunas caracterizaciones adicionales.

Teorema. Sea AMn(R) una matriz simétrica. Entonces las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B2 para alguna matriz simétrica BMn(R).
  4. A=tCC para alguna matriz CMn(R).

Demostración. 1) implica 2). Supongamos que A es positiva y que t es un eigenvalor de A con eigenvector v. Como Av=tv, obtenemos que

t||v||2=tv,v=v,tv=v,Av=tvAv0,
por lo tanto t0.

2) implica 3). Sean t1,,tn todas las raíces del polinomio característico de A, escritos con su multiplicidad correspondiente. Por el primer lema de la sección anterior, todos ellos son reales, y estamos suponiendo que son no negativos. Por el teorema espectral podemos encontrar una matriz P y una diagonal D tal que A=P1DP, y por lo que vimos de teoría de diagonalización, D precisamente tiene como entradas en su diagonal a t1,t2,,tn. Sea D la matriz diagonal con entradas ci=ti y sea B=P1DP. Como P es ortogonal, B es simétrica

Y además, por construcción, B2=P1D2P=P1DP=A, como queríamos.

3) implica 4). Basta con tomar la matriz B de (3) y tomar C=B. Como B es simétrica, A=B2=tBB.

4) implica 1). Esto ya lo habíamos demostrado en un resultado anterior de caracterización de matrices simétricas.

◻

Más adelante…

Hemos enunciado y demostrado el teorema espectral. Lo que nos dice es muy interesante: una matriz simétrica básicamente consiste en cambiar de base a una base muy sencilla e1,,en (ortonormal) a traves de la matriz P. Luego, en esa base pasa algo muy simple: en la dirección de ei, simplemente alargamos de acuerdo al eigenvalor λi.

Como consecuencia, veremos en la siguiente entrada que esto nos permite entender no sólo a las matrices simétricas, sino a todas, todas las matrices. Al teorema que veremos a continuación se le conoce como el teorema de descomposición polar.

Tarea moral

  1. La matriz (sinθcosθcosθsinθ) es real y simétrica, de modo que es diagonalizable. ¿Cuál es su diagonalización?
  2. Da un ejemplo de una matriz simétrica con coeficientes complejos que no sea diagonalizable.
  3. Sea T una transformación lineal sobre un espacio euclidiano V, y supón que V tiene una base ortonormal conformada por eigenvectores de T. Demuestra que T es simétrica (por lo que el recíproco del teorema espectral se satisface).
  4. Considera la matriz A=(122212221).
    Explica por qué A es diagonalizable en Mn(R) y encuentra una matriz P tal que P1AP es diagonal.
  5. Adapta el teorema de caracterización de matrices positivas visto en esta entrada a una versión para matrices positivas definidas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Polinomio característico

Por Julio Sampietro

Introducción

En el transcurso de esta unidad hemos construido varios de los objetos algebraicos que nos interesan. En primer lugar, dejamos claro qué quería decir evaluar un polinomio en una matriz o transformación lineal. Esto nos llevó a preguntarnos por aquellos polinomios que anulan a una matriz o transformación lineal. De manera natural, descubrimos que aquellos polinomios que anulan son múltiplos de un polinomio especial asociado a la matriz o transformación lineal llamado polinomio mínimo.

De manera un poco separada, comenzamos a estudiar los eigenvalores, eigenvectores y eigenespacios de una transformación lineal y en la entrada anterior nos enfocamos en varias de sus propiedades principales. Uno de los resultados clave que encontramos es que los eigenvalores de una matriz o transformación lineal son las raíces del polinomio mínimo que estén en el campo en el que estemos trabajando.

Aunque este resultado sea interesante de manera teórica, en la práctica debemos hacer algo diferente pues no es tan sencillo encontrar el polinomio mínimo de una matriz o transformación lineal. Es por esto que ahora estudiaremos con profundidad otro objeto que resultará fundamental en nuestro estudio: el polinomio característico. Ya nos encontramos con él anteriormente. Si A es una matriz en Mn(F), dicho polinomio en la variable λ es el determinante det(λInA).

Esta entrada es más bien una introducción, así que nos enfocaremos en probar las cosas más básicas de este objeto. Lo primero, y más importante, es verificar que en efecto es un polinomio (y con ciertas características específicas). También, aprovecharemos para calcularlo en varios contextos (y campos) diferentes.

Definición de polinomio característico

Comencemos con una matriz AMn(F). Vimos que encontrar los eigenvalores de A se reduce a encontrar las soluciones de la ecuación

det(λInA)=0

en F. Vamos a estudiar más a detalle la expresión de la izquierda.

El siguiente teorema va un poco más allá y de hecho estudia expresiones un poco más generales.

Teorema. Sean A,BMn(F) dos matrices. Existe un polinomio PF[X] tal que para todo xF se cumple

P(x)=det(xA+B).

Si denotamos a este polinomio por P(X)=det(XA+B), entonces

det(XA+B)=det(A)Xn+αn1Xn1++α1X+detB

para algunas expresiones polinomiales α1,,αn1 con coeficientes enteros en las entradas de A y B.

Demostración. Consideremos el siguiente polinomio en la variable X y coeficientes en F, es decir, el siguiente polinomio en F[X]:

P(X)=σSnsign(σ)(a1σ(1)X+b1σ(1))(anσ(n)X+bnσ(n)).

Por construcción, P es un polinomio cuyos coeficientes son expresiones polinomiales enteras en las entradas de A y B. Más aún, se cumple que P(x)=det(xA+B) para xF (podría ser útil revisar la entrada sobre determinantes para convencerte de ello). El término constante lo obtenemos al evaluar en X=0, pero eso no es más que P(0)=det(0A+B)=det(B). Finalmente para cada σSn tenemos que el primer término de cada sumando es

sign(σ)(a1σ(1)X+b1σ(1))(anσ(n)X+bnσ(n))

Notemos que la única manera de obtener un término Xn en esta expresión es cuando en cada binomio que se está multiplicando se usa el término X. Así, el coeficiente de Xn es sign(σ)a1σ(1)anσ(n)Xn.

Agrupando todos los sumandos para todas las σ y comparando con la definición del determinante llegamos a que P(X)=det(A)Xn+, es decir el término de orden n es en efecto det(A).

◻

Del teorema se sigue que si A y B tienen entradas enteras o racionales, det(XA+B) tiene coeficientes enteros o racionales respectivamente.

Enseguida podemos definir (gracias al teorema) el siguiente objeto:

Definición. El polinomio característico de la matriz AMn(F) es el polinomio χAF[X] definido por

χA(X)=det(XInA).

Una observación inmediata es que, de acuerdo al teorema, el coeficiente principal de χA(X) tiene coeficiente det(In)=1. En otras palabras, acabamos de demostrar la siguiente propiedad fundamental del polinomio característico.

Proposición. El polinomio característico de una matriz en Mn(F) siempre tiene grado exactamente n y además es un polinomio mónico, es decir, que el coeficiente que acompaña al término de grado n es igual a 1.

Veamos un ejemplo sencillo.

Ejemplo. Si queremos calcular el polinomio característico de

A=(1110)M2(R)

entonces usamos la definición

χA(X)=det(XI2A)=|X111X|=X(X1)+1.

Y así los eigenvalores de A son las raíces reales de χA(X). Es decir, tenemos que resolver

0=x(x1)+1=x2x+1.

Sin embargo, el discriminante de esta ecuación cuadrática es (1)24(1)(1)=3, el cual es un real negativo, por lo que no tenemos eigenvalores reales. Si estuviéramos trabajando en C tendríamos dos eigenvalores complejos:

x1,2=1±i32.

De aquí, ¿cómo encontramos los eigenvectores y eigenespacios? Basta con resolver los sistemas lineales homogéneos de ecuaciones (Ax1I2)X=0 para encontrar el x1-eigenespacio y (Ax2)X=0 para encontrar el x2-eigenespacio.

Algunos cálculos de polinomios característicos

Ya que calcular polinomios característicos se reduce a calcular determinantes, te recomendamos fuertemente que recuerdes las propiedades que tienen los determinantes. Sobre todo, aquellas que permiten calcularlos.

¡A calcular polinomios característicos!

Problema 1. Encuentra el polinomio característico y los eigenvalores de A dónde A es

A=(0100201007060030)M4(R).

Solución. Usamos la expansión de Laplace respecto al primer renglón:

χA(X)=det(XI4A)=|X1002X1007X6003X|=X|X107X603X|+|2100X603X|=X(X311X)2(X218)=X413X2+36.

Después, para encontrar los eigenvalores de A tenemos que encontrar las raíces reales de la ecuación

x413x2+36=0.

Sin embargo, no hay que desalentarse por ver una ecuación de grado 4. Si hacemos el cambio y=x2 podemos llevar nuestro problema a resolver

y213y+36=0.

¡Es una ecuación de segundo orden! Esta la podemos resolver usando ‘la chicharronera’ y obtenemos como soluciones y1=4 y y2=9. Pero todavía tenemos que resolver x2=y1 y x2=y2. Al resolver estas últimas dos ecuaciones obtenemos que x=±2,±3 son los eigenvalores de A.

Problema 2. Calcula el polinomio característico y los eigenvalores de la matriz

A=(101110101)M3(F2).

Solución. Nota que estamos trabajando en el campo de dos elementos F2, por lo que 1=1. Usando la definición:

χA(X)=det(XI3A)=|X1011X1010X1|=|X+1011X+1010X+1|.

Aquí estamos usando repetidamente 1=1. Usamos otra vez la expansión de Laplace en el primer renglón para llegar a

χA(X)=(X+1)|X+100X+1|+|1X+110|=(X+1)3(X+1).

Luego, si queremos encontrar los eigenvalores de A tenemos que resolver

(x+1)3(x+1)=0.

Si bien existen varias maneras de resolver la ecuación, podemos simplemente sustituir los únicos valores posibles de x : 0 o 1. Sustituyendo es fácil ver que ambos satisfacen la ecuación, por lo que los eigenvalores de A son 0 y 1.

Más adelante…

En la próxima entrada calcularemos el polinomio característico de una variedad de matrices importantes: triangulares superiores, nilpotentes, etc. Esto nos permitirá entender mejor al polinomio característico y lidiar con muchos casos para facilitarnos los cálculos más adelante.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que 0 es un eigenvalor de una matriz A si y sólo si det(A)=0.
  • ¿Una matriz compleja de tamaño n tiene necesariamente n eigenvalores distintos?
  • Calcular el polinomio característico y los eigenvalores de
    A=(120012201)M3(F3).
  • Usando la fórmula del determinante para matrices de tamaño 2, encuentra un criterio simple para saber si una matriz con entradas reales de tamaño 2 tiene dos, uno o ningún eigenvalor real.
  • Da un criterio simple para saber si una matriz de tamaño 2 con entradas complejas tiene eigenvalores puramente imaginarios.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Propiedades de eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En la entrada anterior platicamos acerca de eigenvectores, eigenvalores y eigenespacios de matrices y transformaciones lineales. Vimos algunos ejemplos básicos. En esta entrada profundizaremos en el estudio de estos objetos y exploraremos diversas de sus propiedades. Comenzaremos con algunas observaciones inmediatas. Después, veremos cómo encontrar de manera sencilla los eigenvalores de las matrices triangulares superiores. También veremos que «eigenvectores correspondientes a eigenvalores diferentes son linealmente independientes«. Finalmente, conectaremos estas nuevas ideas con un objeto que estudiamos previamente: el polinomio mínimo.

Primeras observaciones

A partir de la proposición de la entrada anterior que nos dice cómo calcular eigenvalores se desprenden algunas consecuencias sencillas pero útiles.

Por ejemplo, recuerda que el determinante de una matriz y su transpuesta es igual. En particular, si AMn(F) entonces

det(λIn tA)=det( t(λInA))=det(λInA).

Luego det(λInA)=0 si y sólo si det(λIn tA)=0. Recordando que las raíces de estos polinomios son precisamente los eigenvalores, se sigue que los eigenvalores de A y tA son iguales.

Por otro lado, como los eigenvalores son las raíces de un polinomio de grado n, sabemos que hay a lo más n soluciones. Entonces toda matriz tiene a lo más n eigenvalores.

Esto también ocurre para transformaciones lineales en espacios de dimensión finita y lo podemos enunciar como sigue:

Corolario. Sea V un espacio de dimensión finita sobre F y T:VV lineal. Entonces T tiene a lo más dimV eigenvalores distintos.

Sin embargo, si el espacio no es de dimensión finita no podemos hacer tal afirmación. Si V es el espacio de todas las funciones suaves (es decir con derivadas de todos los órdenes) de R en R y T:VV es la función lineal que a cada función la manda en su derivada, entonces tenemos «muchos» eigenvalores. Haciendo esto más preciso, para cada real r la función erx es un eigenvector con eigenvalor r puesto que

T(erx)=(erx)=rerx.

Así, tenemos al menos tantos eigenvalores como números reales. De hecho, estos son exactamente los eigenvalores de T, lo cual puede demostrarse mediante el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales, que estudiarás en otro momento de tu formación matemática.

Matrices triangulares superiores

Parte del interés de «triangular» matrices (es decir, encontrar una matriz similar que sea triangular superior) está dada por la facilidad de calcular sus eigenvalores. Exploramos esto mediante los siguientes dos problemas.

Problema 1. Sea A=[aij] una matriz triangular superior en Mn(F). Demuestra que los eigenvalores de A son precisamente los elementos en la diagonal.

Solución. Ya establecimos que encontrar los valores propios se reduce a encontrar las raíces del polinomio det(λInA). Notamos que si A es triangular superior, entonces λInA también es triangular superior. Más aún, las entradas de la diagonal son simplemente λaii. Pero sabemos que el determinante de una matriz triangular superior es el producto de sus entradas diagonales. Así

det(λInA)=(λa11)(λa22)(λann)

cuyas raíces son exactamente los elementos aii.

◻

Podemos combinar el resultado anterior con otras propiedades de matrices triangulares superiores para resolver a mano algunos problemas que de entrada parecen complicados.

Problema 2. Encuentra los eigenvalores de A3 donde

A=(12340567008900010)M4(R).

Solución. En realidad no hace falta hacer el producto de matrices para encontrar la matriz A3. Sabemos que el producto de dos matrices triangulares superiores es triangular superior y que de hecho las entradas de la diagonal son solo el producto de las entradas correspondientes. Es decir, si [aij] y [bij] son dos matrices triangulares superiores, las entradas de la diagonal son aiibii. En nuestro caso, las entradas de la diagonal son 13,53,83 y 103, y por el problema anterior, estos son precisamente los eigenvalores de A3.

Relaciones con independencia lineal y combinaciones polinomiales

El resultado principal de esta entrada es el siguiente teorema, que en particular afirma que si dos eigenvalores son distintos, sus eigenvectores son linealmente independientes. En realidad, el resultado es un poco más general y lo enunciamos a continuación

Teorema. Sean λ1,,λk eigenvalores distintos dos a dos de una transformación lineal T:VV. Entonces los λi-eigenespacios están en posición de suma directa.

Demostración. Por definición, tenemos que demostrar que si tenemos una colección {vi} de vectores con T(vi)=λivi y v1++vk=0 entonces v1==vk=0. Procedemos por inducción sobre k.

Nuestro caso base es una tautología, pues si k=1 entonces tenemos que mostrar que si v1=0 entonces v1=0.

Asumamos que el resultado se cumple para k1 y verifiquemos que se cumple para k. Supongamos que v1++vk=0. Aplicando T de ambos lados de esta igualdad llegamos a

T(v1++vk)=T(v1)++T(vk)=λ1v1++λkvk=0.

Por otro lado, si multiplicamos a la igualdad v1++vk=0 por λk de ambos lados llegamos a

λkv1++λkvk=0.

Sustrayendo y factorizando estas dos igualdades se sigue que

(λkλ1)v1++(λkλk1)vk1=0.

Esto es una combinación lineal de los primeros k1 vectores vi igualada a cero. Luego, la hipótesis inductiva nos dice que (λkλi)vi=0 para todo i=1,,k1. Como λkλi entonces λkλi0 y entonces vi=0. Sustituyendo en la igualdad original, esto implica que vk=0 inmediatamente.

◻

Enseguida veremos que si formamos un polinomio P(T), entonces P(λ) es un eigenvalor de P(T) para cualquier eigenvalor λ de T. Esto lo veremos en el siguiente problema.

Problema. Sea λ un eigenvalor de T:VV y sea P un polinomio en una variable con coeficientes en F. Demuestra que P(λ) es un eigenvalor de P(T).

Solución. Como λ es un eigenvalor de T, existe v un vector no cero tal que T(v)=λv. Inductivamente, se cumple que Tk(v)=λkv. En efecto

Tk+1(v)=T(Tk(v))=T(λkv)=λkT(v)=λk+1v.

Usando esto, si P(X)=anXn++a1X+a0 se tiene que

P(T)(v)=anTn(v)++a1T(v)+a0v=anλnv++a1λv+a0v=(anλn++a1λ+a0)v=P(λ)v.

Esto muestra que P(λ) es un eigenvalor de P(T).

◻

Relación con el polinomio mínimo

Una consecuencia del problema previo es la siguiente proposición.

Proposición. Sea AMn(C) una matriz y PC[X] un polinomio tal que P(A)=On. Entonces cualquier eigenvalor λ de A satisface P(λ)=0.

Solución. Por el problema anterior, P(λ) es un eigenvalor de P(A), pero P(A)=On y el único eigenvalor de la matriz cero es 0. Luego P(λ)=0.

◻

De esto, podemos por fin establecer una conexión con el polinomio mínimo, que enunciamos en forma de teorema.

Teorema. Sea T:VV una transformación lineal sobre un espacio de dimensión finita sobre un campo F. Los eigenvalores de T son precisamente las raíces en F del polinomio mínimo μT.

Demostración. Dado que μT(T)=0, el problema que acabamos de resolver nos dice que todos los eigenvalores de T son raíces de μT.

Conversamente, supongamos que existe λ una raíz de μT que no es eigenvalor. Entonces la transformación TλId es invertible. Como μT(λ)=0, podemos factorizar la raíz y escribir μT(X)=(Xλ)Q(X) para algún QF[X]. Dado que μT(T)=0 deducimos que

(TλId)Q(T)=0.

Recordando una vez más que TλId es invertible, esta ecuación implica que Q(T)=0. Ya que μT es el polinomio mínimo, por una propiedad que mostramos anteriormente obtendríamos que μT divide a Q. Pero esto se contradice con la igualdad μT(X)=(Xλ)Q(X), que nos dice que μT tiene grado mayor. Esto concluye la demostración.

◻

Ejercicios

Terminamos con un par de ejercicios para repasar el material de estas secciones. El primero de entre ellos toma prestados nombres de la probabilidad (lo lo cuál puede sugerirte en qué tipo de texto te podrías encontrar con estas matrices).

Problema 1. Una matriz AMn(R) se dice estocástica si aij0 para todo i,j{1,,n} y j=1naij=1 para todo i{1,,n}.

Demuestra que 1 es un eigenvalor de cualquier matriz estocástica.

Solución. Consideremos el vector v=(1,,1). Nota que

Av=(a11a12a1na21a22a2nan1an2ann)(111)=(a11+a12++a1na21+a22++a2nan1+an2++ann)=(111).

Es decir Av=v, por lo que v es un eigenvector de A con eigenvalor asociado 1.

◻

Problema 2. Sea V el espacio de todos los polinomios con coeficientes reales. Sea T:VV la transformación lineal dada por P(X)P(1X). ¿Cuáles son los eigenvalores de T?

Solución. Observa que
T2(P)=TT(P)=T(P(1X))=P(1(1X))=P(X). Así T2=Id, o bien T2Id=0. Luego, el polinomio mínimo μT tiene que dividir al polinomio X21. Sin embargo, los únicos factores de este polinomio son X1 y X+1. Dado que T±Id se tiene que μT(X)=X21. Por el último teorema que vimos, los eigenvalores de T son precisamente las raíces de μT en R, es decir ±1.

Más adelante…

En las entradas subsecuentes iremos más a fondo en el concepto de polinomio característico, para eventualmente llegar al teorema de Cayley-Hamilton. Para eso tendremos que equiparnos de bastante teoría y repasar varias propiedades de dicho polinomio.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea V el espacio de polinomios con coeficientes reales de grado a lo más n. Encuentra los eigenvalores de la transformación T:P(X)P(X)(1+X)P(X).
  • Si V es el espacio de polinomios con coeficientes reales, encuentra los eigenvalores de T:P(X)P(3X).
  • Sean A,B matrices en Mn(C) tales que ABBA=B. Demuestra que para todo k1 se cumple que ABkBkA=kBk y de esto deduce que B es nilpotente: existe m tal que Bm=0. Sugerencia: ¿Cuántos eigenvalores puede tener T:XAXXA?
  • ¿Puedes generalizar el último problema de la sección de matrices triangulares superiores?
  • Sea A una matriz cuadrada con entradas reales. Supón que λ es un real positivo que es eigenvalor de A2. Demuestra que λ o λ es un eigenvalor de A. ¿Sucederá a veces que sólo una de estas es eigenvalor?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En esta entrada revisitamos los conceptos de eigenvalores y eigenvectores de una transformación lineal. Estos son esenciales para entender a las transformaciones lineales, y tienen un rango de aplicabilidad impresionante: aparecen en la física, las ecuaciones diferenciales parciales, la ciencia de datos, la topología algebraica y la probabilidad.

Primero enunciaremos la definición, después veremos un primer ejemplo para convencernos de que no son objetos imposibles de calcular. Luego daremos un método para vislumbrar una manera más sencilla de hacer dicho cálculo y concluiremos con unos ejercicios.

Eigen-definiciones

Comenzamos con V un espacio vectorial sobre F y T:VV una transformación lineal.

Definición. Un eigenvalor (también conocido como valor propio) de T es un escalar λF tal que λIdT no es invertible. Un eigenvector (también conocido como vector propio o λ-eigenvector) correspondiente a λ es un vector no-cero de ker(λIdT). A este kernel se le conoce como el eigenespacio correspondiente a λ (o λ-eigenespacio).

Entonces un λ-eigenvector es por definición distinto de cero y satisface

T(v)=λv.

Hay que tener cuidado. se permite que λ=0 sea eigenvalor, pero no se permite que v=0 sea eigenvector.

La colección de todos los eigenvectores, junto con el vector cero, es el eigenespacio asociado a λ. Podemos enunciar definiciones análogas con matrices.

Definición. Sea AMn(F) una matriz cuadrada. Un escalar λF es un eigenvalor de A si existe un vector XFn distinto de cero (un eigenvector) tal que AX=λX. En este caso el subespacio

ker(λInA):={XFnAX=λX}

es el λ-eigenespacio de A.

Puedes verificar que ambas definiciones se corresponden en el siguiente sentido:

Si V es un espacio de dimensión finita y T:VV es una transformación lineal, podemos escoger cualquier base de V y asociarle a T su forma matricial, digamos A, en esta base. Los eigenvalores de T son precisamente los eigenvalores de A. ¡Pero cuidado! Los eigenvectores de A dependerán de la base elegida.

Un primer ejemplo

Seguimos con un sencillo pero importante ejemplo.

Ejemplo 1. Considera la matriz

A=(0110).

Busquemos los eigenvectores y eigenvalores de A, pensando a A como una matriz con entradas complejas. Sea λC un eigenvalor y X un eigenvector asociado. Entonces se cumple la relación AX=λX. Si X=(x1,x2) entonces la condición mencionada es equivalente al par de ecuaciones

x2=λx1,x1=λx2.

Sustituyendo una en la otra obtenemos

x2=λ2x2.

Si x2=0 entonces x1=0 y así X es un vector nulo, lo que es imposible por definición (recuerda que pedimos que los eigenvectores sean distintos de cero). Entonces x20 y podemos dividir por x2 a la ecuación previa, de manera que λ2=1, o sea λ=±i. Conversamente, i y i son eigenvalores. En efecto, podemos tomar x2=1 y x1=λ como soluciones del problema anterior y obtener un vector propio asociado. De hecho, el eigenespacio está dado por

ker(λI2A)={(λx2,x2)x2C}

y esto no es más que la recta generada por el vector v=(λ,1)C2. Por lo tanto, vista como una matriz compleja, A tiene dos eigenvalores distintos ±i y dos eigenespacios, los generados por (i,1) y (i,1).

Por otro lado, veamos qué pasa si pensamos a A como una matriz con entradas reales. Haciendo las mismas cuentas llegamos a la misma ecuación, x2=λ2x2. Podemos reescribirla factorizando el término x2:

(λ2+1)x2=0.

Como λ esta vez es un número real, λ2+1 siempre es distinto de cero. Entonces para que el producto sea cero, tiene que ocurrir que x2=0, ¡pero entonces x1=0 y así X=0! En conclusión: vista como una matriz con entradas reales, A no tiene eigenvalores, y por tanto no tiene eigenespacios. La moraleja es que los eigenvalores y eigenvectores dependen mucho del campo en el que trabajemos.

¿Cómo calcularlos?

Si bien el ejemplo anterior resultó simple, no es difícil imaginar que matrices más complicadas y más grandes pueden resultar en procedimientos menos claros. En general:

  • ¿Cómo podemos calcular los eigenvalores?
  • ¿Cómo podemos calcular los eigenespacios de manera eficiente?
  • ¿Cómo podemos calcular los eigenvectores?

Una vez calculados los eigenvalores, calcular los eigenespacios se reduce a resolver el sistema de ecuaciones homogéneo (AλIn)X=0, lo cual ya hemos hecho muchas veces mediante reducción gaussiana. Luego, calcular los eigenvectores simplemente es tomar los elementos no cero del eigenespacio. Sin embargo, el cálculo de eigenvalores involucra encontrar raíces de polinomios lo cual de entrada no es obvio. Un primer paso es la siguiente observación que enunciamos como proposición.

Proposición. Un escalar λF es un eigenvalor de AMn(F) si y sólo si

det(λInA)=0.

Demostración. El sistema (λInA)X=0 tiene soluciones no triviales si y sólo si la matriz λInA no es invertible. A su vez, la matriz λInA no es invertible si y sólo si su determinante es nulo. El resultado se sigue.

◻

Regresemos a nuestra pregunta. Si

A=(a11a12a1na21a22a2nan1an2ann)

entonces la proposición nos dice que podemos calcular los valores propios de A resolviendo la ecuación polinomial

|λa11a12a1na21λa22a2nan1an2λann|=0

en F. Esta es una ecuación polinomial de grado n, y si el grado es mayor a 4 en general no existe una fórmula para resolverla en términos de radicales (aunque claro que hay casos particulares que si podemos resolver sin mucho problema).

Problema 2. Queremos calcular los eigenvalores de A, donde A está dada por

A=(100001010).

Solución. Como vimos en la proposición, esto se reduce a calcular las raíces del polinomio

|λ1000λ101λ|=0.

Calculando el determinante vemos que esto es de hecho

(λ1)(λ2+1)=0.

Sin embargo tenemos que recordar que las raíces dependen de nuestro campo de elección. Como no comentamos nada sobre el campo en el cual trabajamos, consideraremos dos casos. Si el campo es C entonces los eigenvalores son 1 y ±i. Si trabajamos sobre R entonces tenemos un único eigenvalor: 1.

Ejercicios

Acabamos esta entrada con unos ejercicios para reforzar lo que vimos.

Problema 1. Encuentra todos los números reales x tales que la matriz

A=(1x21)

tiene exactamente dos eigenvalores distintos. La misma pregunta para ningún eigenvalor.

Solución. El número de eigenvalores va a estar dado por el número de raíces del polinomio det(λI2A). Es decir, tenemos que trabajar la ecuación

det(λI2A)=|λ1x2λ1|=0.

Que a su vez se reduce a

(λ1)22x=0.

Y para que tenga dos soluciones basta con que 2x sea un número positivo. En efecto, en ese caso podemos despejar y resolver

λ=1±2x.

Como 2x es positivo solo si x lo es, podemos concluir que la condición necesaria y suficiente es que x sea un real positivo. Similarmente, si x es un número negativo no tendremos ningún eigenvalor.

Problema 2. Sea V el conjunto de todas las matrices AM2(C) tales que v=(12) es un eigenvector de A. Demuestra que V es un subespacio de M2(C) y da una base.

Solución. Supongamos que v es un eigenvector de A, con eigenvalor λ, y que es eigenvector de B, con eigenvalor μ. Entonces

(A+cB)(v)=Av+cBv=λv+cμv=(λ+cμ)v

por lo que v es eigenvector de A+cB con eigenvalor λ+cμ. Esto demuestra que V es un subespacio. Para darnos una idea de cómo podría ser una base para V, comencemos con una matriz genérica A=(abcd) tal que AV. Entonces A tiene que satisfacer Av=λv para algún λ. Escribamos esto más explícitamente

(abcd)(12)=(a+2bc+2d)=(λ2λ).

Así se desprenden dos ecuaciones

{a+2b=λc+2d=2λ.

Sabemos que λ es un parámetro libre, pues puede ser cualquier eigenvalor. Si conocemos a λ entonces necesitamos alguna de las variables, a o b para determinar a la otra y lo mismo con c y d. Entonces escojamos b y d como variables libres. Enseguida nuestra matriz es de la forma (reemplazando a a y c por sus valores en b y d):

A=(λ2bb2λ2dd)=b(2100)+d(0021)+λ(1020).

Entonces proponemos como base

β={(2100),(0021),(1020)}.

Ya vimos que β genera a V, y dejamos la independencia lineal como ejercicio.

◻

Más adelante…

En las próximas entradas desarrollaremos las propiedades relevantes de los eigenvalores y eigenvectores para eventualmente llegar al polinomio característico y establecer el puente con el polinomio mínimo.

Tarea moral

Aquí unos ejercicios para que repases el material de esta entrada.

  1. Encuentra todos los eigenvalores de la matriz A=(110021001)M3(C).
  2. Completa la demostración del último ejercicio de la sección de ejercicios, verificando que las soluciones encontradas son matrices linealmente independientes. ¿Puedes generalizar este ejercicio de alguna manera?
  3. Encuentra los eigenvalores de la matriz AMn(R) cuyas entradas son puros 2.
  4. Da contraejemplos para cada una de las siguientes afirmaciones:
    1. Si u y v son eigenvectores de A, entonces u+v es eigenvector de A.
    2. Si λ es eigenvalor de A y μ es eigenvalor de B, entonces λμ es eigenvalor de AB.
    3. Si A y B son formas matriciales de una misma transformación T y v es eigenvector de A, entonces v es eigenvector de B.
  5. Considera la transformación derivada en R[x]. ¿Quienes son sus eigenvectores y eigenvalores? Como sugerencia, estudia el coeficiente de mayor grado.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»