Introducción
En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.
A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:
Polinomio característico
Pensemos en el problema de hallar los eigenvalores de una transformación lineal . Si es uno de estos eigenvalores, queremos poder encontrar vectores tales que . Esto sucede si y sólo si , lo cual sucede si y sólo si , en donde es la transformación identidad de en . Tenemos de esta manera que es un eigenvector si y sólo si .
Si existe tal que ; entonces por lo cual la transformación no es invertible, pues no es inyectiva. Así, en ninguna base es invertible, y por tanto su determinante es . Estos pasos son reversibles. Concluimos entonces que es un eigenvalor de si y sólo si en alguna base se cumple que Esto motiva la siguiente definición.
Definición. Sea una transformación lineal. Llamamos a al polinomio característico de en la base .
Por la discusión anterior, los escalares que cumplen son los eigenvalores . Para obtener los correspondientes eigenvectores, basta con resolver , lo cual es un sistema de ecuaciones en el vector de variables . Las soluciones nos darán las representaciones matriciales de vectores propios en la base .
Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.
Ejemplo: Consideremos dada por . Calculemos su representación matricial con respecto a la base canónica . Para ello, realizamos las siguientes evaluaciones:
de donde:
Calculando el polinomio característico obtenemos:
Las raíces de son , y . Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor . Para que represente a un eigenvector en la base canónica, debe pasar que:
lo cual sucede si y sólo si:
De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:
En esta forma es sencillo leer las soluciones. Tenemos que es variable pivote con , que es variable libre, y que es variable pivote dada por . Concluimos entonces que todos los posibles eigenvectores para el eigenvalor son de la forma , es decir .
Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores y .
Matrices similares
En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.
Sea una transformación lineal y sean , dos bases (ordenadas) de . Supongamos que:
Por cómo se construyen las matrices y , tenemos que:
Como es base, podemos poner a cada un de los de en términos de la base mediante combinaciones lineales, digamos:
en donde los son escalares para y . La matriz de , con entradas representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que . Para ello, tomaremos una en y expresaremos de dos formas distintas.
Por un lado, usando y por como es cada en la base tenemos que:
Por otro lado, usando y por como es cada en la base :
Comparemos ambas expresiones para . La primera es una combinación lineal de los y la segunda también. Como tiene una única expresión como combinación lineal de los , entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada se cumple:
Pero esto precisamente nos dice que la entrada de la matriz es igual a la entrada de la matriz . Con esto concluimos que , como queríamos.
En resumen, obtuvimos que para dos matrices y que representan a la misma transformación lineal, existe una matriz invertible tal que: . Además es la matriz con entradas dadas por .
Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.
Definición. Dos matrices y se llamarán similares (o semejantes), cuando existe otra matriz invertible tal que .
Sintetizamos nuestro resultado de la siguiente manera.
Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.
El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.
Proposición. Sean y matrices similares. Entonces y representan a una misma transformación lineal , quizás bajo distintas bases.
Demostración: Supongamos que las matrices y son similares con , donde las matrices , , están dadas por entradas , . Tomemos una base ordenada de . Consideremos la transformación lineal dada por
De esta manera tiene forma matricial en la base .
Construyamos ahora una nueva base ordenada de dada por vectores para construidos como sigue:
Como es invertible, en efecto tenemos que también es base de . Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de en la base será .
Así, hemos exhibido una transformación que en una base tiene representación y en otra tiene representación .
Juntando ambos resultados en uno solo, llegamos a lo siguiente.
Teorema. Dos matrices y en son similares si y sólo si representan a una misma transformación lineal , quizás bajo distintas bases.
El polinomio característico no depende de la base
Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.
Teorema. Sea una transformación lineal en un espacio sobre de dimensión finita. Sean y bases de . Entonces se obtiene lo mismo calculando el polinomio característico de en la base , que en la base .
Demostración. Tomemos y . Como y representan a la misma transformación lineal , entonces son similares y por lo tanto existe invertible con .
Para encontrar el polinomio característico de en la base , necesitamos , que justo es . Así mismo, en la base tenemos . Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:
Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con , lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.
Este teorema nos permite hablar del polinomio característico de una transformación lineal.
Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.
Teorema. Sea una transformación lineal. Supongamos que el polinomio característico de tiene raíces distintas . Entonces se cumple lo siguiente:
- Si tomamos un eigenvector para cada eigenvalor , entonces forman una base para .
- Con dicha base , se cumple que es una matriz diagonal con entradas en su diagonal.
- Si es otra base de y , entonces para una matriz invertible con entradas dadas por .
La demostración de este resultado queda como tarea moral.
Más adelante…
En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación : 1) la transformamos en una matriz , 2) encontramos el polinomio característico mediante , 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones dan los vectores coordenada de los eigenvectores.
Como platicamos en la entrada, una condición suficiente para que una transformación de a sí mismo sea diagonalizable es que tenga eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.
Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de a son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.
Tarea moral
- Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
- Considera la transformación lineal de en . Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base de . Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
- Demuestra que si y son dos representaciones matriciales de una misma transformación lineal , entonces .
- Sea dada por . Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base en la cual es diagonal.
- Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.
Entradas relacionadas