Archivo de la etiqueta: eigenespacios

Álgebra Lineal II: Caracterizaciones de diagonalizar

Por Julio Sampietro

Introducción

Ya dimos la definición de que una matriz sea diagonalizable y encontramos buenas razones para, dada una matriz, intentar encontrar una matriz similar que sea diagonal. En esta entrada enunciaremos y demostraremos un teorema de caracterización de matrices diagonalizables, el cual nos ayudará a entender con más profundidad la diagonalizabilidad.

El teorema de caracterización

El teorema principal de esta entrada es el siguiente.

Teorema. Sea V un espacio de dimensión finita sobre F y T:VV una transformación lineal. Las siguientes afirmaciones son equivalentes.

  1. T es diagonalizable.
  2. Existe un polinomio PF[X] que se divide sobre F y tiene raíces distintas dos a dos, tal que P(T)=0.
  3. El polinomio mínimo μT de T se divide sobre F y tiene raíces distintas dos a dos.
  4. Sea Sp(T)F el conjunto de eigenvalores de T. Entonces
    λSp(T)ker(TλId)=V.

Demostración. Demostremos primero que 1 implica 2. Escogemos una base en la que T se represente por una matriz diagonal D. Sea P el polinomio cuyas raíces son las diferentes entradas de la diagonal de D. Entonces P(T) está representada por la matriz diagonal P(D) con entradas P(dii)=0. Es decir P(T)=0.

Que 2 implica 3 se sigue de la definición del polinomio mínimo: si P cumple 2, entonces μT divide a P y por tanto cumple 3.

La implicación 34 es consecuencia del último teorema de la entrada anterior aplicado a P=μT y los factores lineales siendo los Pi.

Finalmente veamos que 4 implica 1. Sea Sp(T)={λ1,,λk} y sea v1,vn una base de V obtenida al pegar una base de ker(Tλ1Id) a una base de ker(Tλ2Id) y a una base de ker(Tλ3Id) y así sucesivamente hasta pegar una base de ker(TλnId). Entonces v1,,vn es una base de eigenvectores de V y por tanto se cumple 1.

◻

Consecuencias del teorema

Hacemos algunas observaciones que son consecuencia del teorema anterior.

Observación. Si T es una transformación lineal diagonalizable, entonces el polinomio mínimo de T es

μT(X)=λSp(T)(Xλ)

dónde el producto se toma sobre todos los valores propios, contados sin multiplicidad. El mismo producto pero tomado con multiplicidades rinde el polinomio característico de T.

Observación. Si T es cualquier transformación lineal en un espacio vectorial de dimensión finita entonces T es diagonalizable si y sólo si la suma de las dimensiones de los eigenespacios coincide con la dimensión de V, es decir si

λSp(T)dimker(TλId)=dimV.

Observación. Supongamos que T es diagonalizable. Para cada λSpT sea πλ la proyección al subespacio ker(TλId). Entonces

T=λSp(T)λπλ.

Esto se sigue de la descomposición λSp(T)ker(TλId)=V y que si

v=λSp(T)vλ,vλker(TλId),

entonces

T(v)=λSp(T)T(vλ)=λSp(T)λvλ=λSp(T)λπλ(v).

Finalmente enunciamos el teorema que demostramos en su forma matricial (que es ciertamente una consecuencia del teorema para transformaciones lineales).

Teorema. Sea AMn(F). Entonces las siguientes afirmaciones son equivalentes.

  1. A es diagonalizable en Mn(F).
  2. Si Sp(A) es el conjunto de eigenvalores de A, entonces
    λSp(A)ker(λInA)=Fn.
  3. El polinomio mínimo μA de A se divide sobre F con raíces distintas dos a dos.
  4. Existe un polinomio PF[X] que se divide sobre F con raíces distintas dos a dos tal que P(A)=On.

Problemas para practicar

Terminamos esta entrada con unos cuantos problemas para aplicar los resultados vistos.

Problema 1. Considera la matriz

A=(010001100).

¿Es A diagonalizable en M3(C)? ¿ En M3(R)?

Solución. El polinomio característico de A está dado por χA(X)=X31. Este polinomio se divide sobre C con raíces distintas, ya que tenemos 3 soluciones dadas por las raíces de la unidad. Por el teorema de Cayley-Hamilton sabemos que χA(A)=O3. Usando el teorema de esta entrada concluimos que A es diagonalizable sobre C.

Sin embargo, dado que el polinomio característico no se divide sobre R podemos deducir que A no es diagonalizable en M3(R).

Problema 2. ¿Es la matriz

A=(010440212)M3(R)

diagonalizable?

Solución. Comenzamos calculando el polinomio característico de A:

χA(X)=|X104X4021X2|=(X2)|X14X4|=(X2)(X24X+4)=(X2)3.

Por tanto 2 es un eigenvalor con multiplicidad algebraíca 3. Si A fuese diagonalizable, entonces 2 tendría multiplicidad geométrica 3, es decir ker(A2I3) sería 3-dimensional: ¡pero entonces sería todo R3! Esto implicaría que A2I3=0, de otra manera que A=2I3, lo que claramente no es cierto.

Más adelante…

En las siguientes entradas estudiaremos formas bilineales, lo que forma el segundo bloque del curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para repasar lo visto en esta entrada.

  1. Encuentra todos los valores de aR tales que la matriz
    A=(2121a1111)M3(R)
    sea diagonalizable.
  2. Explicita el por qué el teorema para operadores lineales implica el teorema para matrices.
  3. Calcula la n-ésima potencia de
    A=(133313331).
    Sugerencia. Diagonaliza a A.
  4. Demuestra que si T:VV es una transformación lineal con V un espacio vectorial de dimensión finita sobre C tal que T2 diagonalizable y kerT=kerT2 entonces T es diagonalizable.
  5. Si V es un espacio de dimensión finita sobre F y T:VV es una transformación lineal diagonalizable fija, entonces cualquier otra transformación lineal S:VV satisface ST=TS si y sólo si S deja invariante cada eigenespacio de T.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En esta entrada revisitamos los conceptos de eigenvalores y eigenvectores de una transformación lineal. Estos son esenciales para entender a las transformaciones lineales, y tienen un rango de aplicabilidad impresionante: aparecen en la física, las ecuaciones diferenciales parciales, la ciencia de datos, la topología algebraica y la probabilidad.

Primero enunciaremos la definición, después veremos un primer ejemplo para convencernos de que no son objetos imposibles de calcular. Luego daremos un método para vislumbrar una manera más sencilla de hacer dicho cálculo y concluiremos con unos ejercicios.

Eigen-definiciones

Comenzamos con V un espacio vectorial sobre F y T:VV una transformación lineal.

Definición. Un eigenvalor (también conocido como valor propio) de T es un escalar λF tal que λIdT no es invertible. Un eigenvector (también conocido como vector propio o λ-eigenvector) correspondiente a λ es un vector no-cero de ker(λIdT). A este kernel se le conoce como el eigenespacio correspondiente a λ (o λ-eigenespacio).

Entonces un λ-eigenvector es por definición distinto de cero y satisface

T(v)=λv.

Hay que tener cuidado. se permite que λ=0 sea eigenvalor, pero no se permite que v=0 sea eigenvector.

La colección de todos los eigenvectores, junto con el vector cero, es el eigenespacio asociado a λ. Podemos enunciar definiciones análogas con matrices.

Definición. Sea AMn(F) una matriz cuadrada. Un escalar λF es un eigenvalor de A si existe un vector XFn distinto de cero (un eigenvector) tal que AX=λX. En este caso el subespacio

ker(λInA):={XFnAX=λX}

es el λ-eigenespacio de A.

Puedes verificar que ambas definiciones se corresponden en el siguiente sentido:

Si V es un espacio de dimensión finita y T:VV es una transformación lineal, podemos escoger cualquier base de V y asociarle a T su forma matricial, digamos A, en esta base. Los eigenvalores de T son precisamente los eigenvalores de A. ¡Pero cuidado! Los eigenvectores de A dependerán de la base elegida.

Un primer ejemplo

Seguimos con un sencillo pero importante ejemplo.

Ejemplo 1. Considera la matriz

A=(0110).

Busquemos los eigenvectores y eigenvalores de A, pensando a A como una matriz con entradas complejas. Sea λC un eigenvalor y X un eigenvector asociado. Entonces se cumple la relación AX=λX. Si X=(x1,x2) entonces la condición mencionada es equivalente al par de ecuaciones

x2=λx1,x1=λx2.

Sustituyendo una en la otra obtenemos

x2=λ2x2.

Si x2=0 entonces x1=0 y así X es un vector nulo, lo que es imposible por definición (recuerda que pedimos que los eigenvectores sean distintos de cero). Entonces x20 y podemos dividir por x2 a la ecuación previa, de manera que λ2=1, o sea λ=±i. Conversamente, i y i son eigenvalores. En efecto, podemos tomar x2=1 y x1=λ como soluciones del problema anterior y obtener un vector propio asociado. De hecho, el eigenespacio está dado por

ker(λI2A)={(λx2,x2)x2C}

y esto no es más que la recta generada por el vector v=(λ,1)C2. Por lo tanto, vista como una matriz compleja, A tiene dos eigenvalores distintos ±i y dos eigenespacios, los generados por (i,1) y (i,1).

Por otro lado, veamos qué pasa si pensamos a A como una matriz con entradas reales. Haciendo las mismas cuentas llegamos a la misma ecuación, x2=λ2x2. Podemos reescribirla factorizando el término x2:

(λ2+1)x2=0.

Como λ esta vez es un número real, λ2+1 siempre es distinto de cero. Entonces para que el producto sea cero, tiene que ocurrir que x2=0, ¡pero entonces x1=0 y así X=0! En conclusión: vista como una matriz con entradas reales, A no tiene eigenvalores, y por tanto no tiene eigenespacios. La moraleja es que los eigenvalores y eigenvectores dependen mucho del campo en el que trabajemos.

¿Cómo calcularlos?

Si bien el ejemplo anterior resultó simple, no es difícil imaginar que matrices más complicadas y más grandes pueden resultar en procedimientos menos claros. En general:

  • ¿Cómo podemos calcular los eigenvalores?
  • ¿Cómo podemos calcular los eigenespacios de manera eficiente?
  • ¿Cómo podemos calcular los eigenvectores?

Una vez calculados los eigenvalores, calcular los eigenespacios se reduce a resolver el sistema de ecuaciones homogéneo (AλIn)X=0, lo cual ya hemos hecho muchas veces mediante reducción gaussiana. Luego, calcular los eigenvectores simplemente es tomar los elementos no cero del eigenespacio. Sin embargo, el cálculo de eigenvalores involucra encontrar raíces de polinomios lo cual de entrada no es obvio. Un primer paso es la siguiente observación que enunciamos como proposición.

Proposición. Un escalar λF es un eigenvalor de AMn(F) si y sólo si

det(λInA)=0.

Demostración. El sistema (λInA)X=0 tiene soluciones no triviales si y sólo si la matriz λInA no es invertible. A su vez, la matriz λInA no es invertible si y sólo si su determinante es nulo. El resultado se sigue.

◻

Regresemos a nuestra pregunta. Si

A=(a11a12a1na21a22a2nan1an2ann)

entonces la proposición nos dice que podemos calcular los valores propios de A resolviendo la ecuación polinomial

|λa11a12a1na21λa22a2nan1an2λann|=0

en F. Esta es una ecuación polinomial de grado n, y si el grado es mayor a 4 en general no existe una fórmula para resolverla en términos de radicales (aunque claro que hay casos particulares que si podemos resolver sin mucho problema).

Problema 2. Queremos calcular los eigenvalores de A, donde A está dada por

A=(100001010).

Solución. Como vimos en la proposición, esto se reduce a calcular las raíces del polinomio

|λ1000λ101λ|=0.

Calculando el determinante vemos que esto es de hecho

(λ1)(λ2+1)=0.

Sin embargo tenemos que recordar que las raíces dependen de nuestro campo de elección. Como no comentamos nada sobre el campo en el cual trabajamos, consideraremos dos casos. Si el campo es C entonces los eigenvalores son 1 y ±i. Si trabajamos sobre R entonces tenemos un único eigenvalor: 1.

Ejercicios

Acabamos esta entrada con unos ejercicios para reforzar lo que vimos.

Problema 1. Encuentra todos los números reales x tales que la matriz

A=(1x21)

tiene exactamente dos eigenvalores distintos. La misma pregunta para ningún eigenvalor.

Solución. El número de eigenvalores va a estar dado por el número de raíces del polinomio det(λI2A). Es decir, tenemos que trabajar la ecuación

det(λI2A)=|λ1x2λ1|=0.

Que a su vez se reduce a

(λ1)22x=0.

Y para que tenga dos soluciones basta con que 2x sea un número positivo. En efecto, en ese caso podemos despejar y resolver

λ=1±2x.

Como 2x es positivo solo si x lo es, podemos concluir que la condición necesaria y suficiente es que x sea un real positivo. Similarmente, si x es un número negativo no tendremos ningún eigenvalor.

Problema 2. Sea V el conjunto de todas las matrices AM2(C) tales que v=(12) es un eigenvector de A. Demuestra que V es un subespacio de M2(C) y da una base.

Solución. Supongamos que v es un eigenvector de A, con eigenvalor λ, y que es eigenvector de B, con eigenvalor μ. Entonces

(A+cB)(v)=Av+cBv=λv+cμv=(λ+cμ)v

por lo que v es eigenvector de A+cB con eigenvalor λ+cμ. Esto demuestra que V es un subespacio. Para darnos una idea de cómo podría ser una base para V, comencemos con una matriz genérica A=(abcd) tal que AV. Entonces A tiene que satisfacer Av=λv para algún λ. Escribamos esto más explícitamente

(abcd)(12)=(a+2bc+2d)=(λ2λ).

Así se desprenden dos ecuaciones

{a+2b=λc+2d=2λ.

Sabemos que λ es un parámetro libre, pues puede ser cualquier eigenvalor. Si conocemos a λ entonces necesitamos alguna de las variables, a o b para determinar a la otra y lo mismo con c y d. Entonces escojamos b y d como variables libres. Enseguida nuestra matriz es de la forma (reemplazando a a y c por sus valores en b y d):

A=(λ2bb2λ2dd)=b(2100)+d(0021)+λ(1020).

Entonces proponemos como base

β={(2100),(0021),(1020)}.

Ya vimos que β genera a V, y dejamos la independencia lineal como ejercicio.

◻

Más adelante…

En las próximas entradas desarrollaremos las propiedades relevantes de los eigenvalores y eigenvectores para eventualmente llegar al polinomio característico y establecer el puente con el polinomio mínimo.

Tarea moral

Aquí unos ejercicios para que repases el material de esta entrada.

  1. Encuentra todos los eigenvalores de la matriz A=(110021001)M3(C).
  2. Completa la demostración del último ejercicio de la sección de ejercicios, verificando que las soluciones encontradas son matrices linealmente independientes. ¿Puedes generalizar este ejercicio de alguna manera?
  3. Encuentra los eigenvalores de la matriz AMn(R) cuyas entradas son puros 2.
  4. Da contraejemplos para cada una de las siguientes afirmaciones:
    1. Si u y v son eigenvectores de A, entonces u+v es eigenvector de A.
    2. Si λ es eigenvalor de A y μ es eigenvalor de B, entonces λμ es eigenvalor de AB.
    3. Si A y B son formas matriciales de una misma transformación T y v es eigenvector de A, entonces v es eigenvector de B.
  5. Considera la transformación derivada en R[x]. ¿Quienes son sus eigenvectores y eigenvalores? Como sugerencia, estudia el coeficiente de mayor grado.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»