Archivo de la etiqueta: eigenvectores

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$. Si $\lambda \in \mathbb{R}$ es uno de estos eigenvalores, queremos poder encontrar vectores $\bar{v}\neq \bar{0}$ tales que $T(\bar{v})=\lambda \bar{v}$. Esto sucede si y sólo si $\lambda \bar{v}-T(\bar{v})=\bar{0}$, lo cual sucede si y sólo si $(\lambda \text{Id}-T)(\bar{v})=\bar{0}$, en donde $\text{Id}:\mathbb{R}^n\to \mathbb{R}^n$ es la transformación identidad de $\mathbb{R}^n$ en $\mathbb{R}^n$. Tenemos de esta manera que $\bar{v}$ es un eigenvector si y sólo si $\bar{v}\in \ker(\lambda\text{Id}-T)$.

Si existe $\bar{v}\neq \bar{0}$ tal que $\bar{v}\in \ker(\lambda \text{Id}-T)$; entonces $\ker(\lambda \text{Id}-T)\neq \{ \bar{0}\}$ por lo cual la transformación $\lambda \text{Id}-T$ no es invertible, pues no es inyectiva. Así, en ninguna base $\text{Mat}_\beta(\lambda \text{Id}-T)$ es invertible, y por tanto su determinante es $0$. Estos pasos son reversibles. Concluimos entonces que $\lambda\in \mathbb{R}$ es un eigenvalor de $T$ si y sólo si en alguna base $\beta$ se cumple que $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0.$ Esto motiva la siguiente definición.

Definición. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Llamamos a $\det(\text{Mat}_\beta(\lambda \text{Id} – T))$ al polinomio característico de $T$ en la base $\beta$.

Por la discusión anterior, los escalares que cumplen $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0$ son los eigenvalores $T$. Para obtener los correspondientes eigenvectores, basta con resolver $\text{Mat}_\beta(T)X=\lambda X$, lo cual es un sistema de ecuaciones en el vector de variables $X$. Las soluciones $X$ nos darán las representaciones matriciales de vectores propios $\bar{v}\in \mathbb{R}^n$ en la base $\beta$.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos $T:\mathbb{R}^{3}\rightarrow \mathbb{R}^{3}$ dada por $T(x,y,z)=(2x+z,y+x,-z)$. Calculemos su representación matricial con respecto a la base canónica $\beta$. Para ello, realizamos las siguientes evaluaciones:
\begin{align*}
T(1,0,0)&=(2,1,0)\\
T(0,1,0)&=(0,1,0)\\
T(0,0,1)&=(1,0,-1),
\end{align*}

de donde: $$\text{Mat}_\beta=\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix}.$$

Calculando el polinomio característico obtenemos: \[ det\begin{pmatrix} \lambda-2 & 0 & -1 \\ -1 & \lambda-1 & 0 \\ 0 & 0 & \lambda+1 \end{pmatrix}= (\lambda-2)(\lambda-1)(\lambda+1). \]

Las raíces de $(\lambda-2)(\lambda-1)(\lambda+1)$ son $\lambda_{1}=2$, $\lambda_{2}=1$ y $\lambda_{3}=-1$. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor $\lambda=2$. Para que $(x,y,z)$ represente a un eigenvector en la base canónica, debe pasar que:

\[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = 2\begin{pmatrix} x \\ y \\ z \end{pmatrix},\]

lo cual sucede si y sólo si:

\[\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} – 2\begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\left[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} – 2\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\right] \begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\begin{pmatrix} 0 & 0 & 1 \\ 1 & -1& 0 \\ 0 & 0 & -3 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

\[\begin{pmatrix} 1 & -1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

En esta forma es sencillo leer las soluciones. Tenemos que $z$ es variable pivote con $z=0$, que $y$ es variable libre, y que $x$ es variable pivote dada por $x=y$. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor $2$ son de la forma $(y,y,0)$, es decir $E_2=\{(y,y,0): y \in \mathbb{R}\}$.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores $1$ y $-1$.

$\triangle$

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ una transformación lineal y sean $\beta_1=\{ \bar{e}_{1}, \dots , \bar{e}_{n}\}$, $\beta_2=\{ \bar{u}_{1}, \dots , \bar{u}_{n}\}$ dos bases (ordenadas) de $\mathbb{R}^n$. Supongamos que:

\begin{align*}
A&=\text{Mat}_{\beta_1}(T)=[a_{ij}]\\
B&=\text{Mat}_{\beta_2}(T)=[b_{ij}].
\end{align*}

Por cómo se construyen las matrices $A$ y $B$, tenemos que:

\begin{align*}
T(\bar{e}_j)&=\sum_{i=1}^n a_{ij} \bar{e}_i\quad\text{para $j=1,\ldots,n$}\\
T(\bar{u}_k)&=\sum_{j=1}^n b_{jk} \bar{u}_j\quad\text{para $k=1,\ldots,n$}.
\end{align*}

Como $\beta_{1}$ es base, podemos poner a cada un de los $\bar{u}_k$ de $\beta_{2}$ en términos de la base $\beta_{1}$ mediante combinaciones lineales, digamos:

\begin{equation}
\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}
\label{eq:valor-u}
\end{equation}

en donde los $c_{jk}$ son escalares para $j=1,\ldots, n$ y $k=1,\ldots,n$. La matriz $C$ de $n\times n$, con entradas $c_{jk}$ representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que $CB=AC$. Para ello, tomaremos una $k$ en $[n]$ y expresaremos $T(\bar{u}_k)$ de dos formas distintas.

Por un lado, usando \eqref{eq:valor-u} y por como es cada $T(\bar{e}_k)$ en la base $\beta_{1}$ tenemos que:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^n c_{jk} T(\bar{e}_j)\\
&=\sum_{j=1}^n c_{jk} \sum_{i=1}^n a_{ij} \bar{e}_i\\
&=\sum_{j=1}^n \sum_{i=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n a_{ij} c_{jk}\right) \bar{e}_i.
\end{align*}

Por otro lado, usando $\eqref{eq:valor-u}$ y por como es cada $T(\bar{u}_k)$ en la base $\beta_{2}$:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^nb_{jk} \bar{u}_j\\
&=\sum_{j=1}^n b_{jk} \sum_{i=1}^{n}c_{ji}\bar{e}_{j} \\
&=\sum_{j=1}^n \sum_{i=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n c_{ij} b_{jk} \right) \bar{e}_i.
\end{align*}

Comparemos ambas expresiones para $T(\bar{u}_k)$. La primera es una combinación lineal de los $\bar{e}_i$ y la segunda también. Como $T(\bar{u}_k)$ tiene una única expresión como combinación lineal de los $\bar{e}_i$, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada $i$ se cumple:

$$\sum_{j=1}^n a_{ij} c_{jk}=\sum_{j=1}^n c_{ij} b_{jk}.$$

Pero esto precisamente nos dice que la entrada $(i,k)$ de la matriz $AC$ es igual a la entrada $(i,k)$ de la matriz $CB$. Con esto concluimos que $AC=CB$, como queríamos.

En resumen, obtuvimos que para dos matrices $A$ y $B$ que representan a la misma transformación lineal, existe una matriz invertible $C$ tal que: $B=C^{-1}AC$. Además $C$ es la matriz con entradas dadas por \eqref{eq:valor-u}.

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices $A$ y $B$ se llamarán similares (o semejantes), cuando existe otra matriz $C$ invertible tal que $B=C^{-1}AC$.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean $A$ y $B$ matrices similares. Entonces $A$ y $B$ representan a una misma transformación lineal $T$, quizás bajo distintas bases.

Demostración: Supongamos que las matrices $A$ y $B$ son similares con $B=C^{-1}AC$, donde las matrices $A$, $B$, $C$ están dadas por entradas $A=[a_{ij}]$ $B=[b_{ij}]$, $C=[c_{jk}]$. Tomemos una base ordenada $\beta=\{\bar{e}_{1}, \dots ,\bar{e}_{n}\}$ de $\mathbb{R}^n$. Consideremos la transformación lineal $T\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^n)$ dada por $$T(\bar{e}_j)=\sum_{i=1}^n a_{ij} \bar{e}_i.$$

De esta manera $T$ tiene forma matricial $A$ en la base $\beta$.

Construyamos ahora una nueva base ordenada de $\mathbb{R}^n$ dada por vectores $\bar{u}_k$ para $k=1,\ldots,n$ construidos como sigue:

$$\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}.$$

Como $C$ es invertible, en efecto tenemos que $\beta’:=\{\bar{u}_1,\ldots,\bar{u}_n\}$ también es base de $\mathbb{R}^n$. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de $T$ en la base $\beta’$ será $B$.

Así, hemos exhibido una transformación $T$ que en una base tiene representación $A$ y en otra tiene representación $B$.

$\square$

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices $A$ y $B$ en $M_n(\mathbb{R})$ son similares si y sólo si representan a una misma transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal en un espacio sobre $\mathbb{R}$ de dimensión finita. Sean $\beta$ y $\beta’$ bases de $\mathbb{R}^n$. Entonces se obtiene lo mismo calculando el polinomio característico de $T$ en la base $\beta$, que en la base $\beta’$.

Demostración. Tomemos $A=\text{Mat}_{\beta}(T)$ y $B=\text{Mat}_{\beta’}(T)$. Como $A$ y $B$ representan a la misma transformación lineal $T$, entonces son similares y por lo tanto existe $C$ invertible con $B=C^{-1}AC$.

Para encontrar el polinomio característico de $T$ en la base $\beta$, necesitamos $\Mat_{\beta}(\lambda\text{Id}-T)$, que justo es $\lambda I -A$. Así mismo, en la base $\beta’$ tenemos $\lambda I – B$. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

\begin{align*}
\det(\lambda I -B) &= \det (\lambda C^{-1}C – C^{-1} A C)\\
&=\det(C^{-1}(\lambda I – A) C)\\
&=\det(C^{-1})\det(\lambda I – A) \det(C)\\
&=\det(C^{-1})\det(C)\det(\lambda I-A)\\
&=\det(I)\det(\lambda I-A)\\
&=\det(\lambda I-A).
\end{align*}

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con $\det$, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

$\square$

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Supongamos que el polinomio característico de $T$ tiene raíces distintas $\lambda_{1}, \dots ,\lambda_{n}$. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector $\bar{u}_i$ para cada eigenvalor $\lambda_i$, entonces $\bar{u}_{1},\dots ,\bar{u}_{n}$ forman una base $\beta$ para $\mathbb{R}^n$.
  2. Con dicha base $\beta$, se cumple que $\text{Mat}_\beta(T)$ es una matriz diagonal con entradas $\lambda_{1},\dots ,\lambda_{n}$ en su diagonal.
  3. Si $\beta’$ es otra base de $\mathbb{R}^n$ y $A=\text{Mat}_{\beta’}(T)$, entonces $\text{Mat}_\beta(T) = C^{-1}AC$ para una matriz invertible $C$ con entradas dadas por \eqref{eq:valor-u}.

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación $T$: 1) la transformamos en una matriz $A$, 2) encontramos el polinomio característico mediante $\det(\lambda I – A)$, 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones $(\lambda I – A) X=0$ dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de $\mathbb{R}^n$ a sí mismo sea diagonalizable es que tenga $n$ eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de $\mathbb{R}^{n}$ a $\mathbb{R}^{m}$ son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal $T(x,y,z)=(2x+z,y+x,-z)$ de $\mathbb{R}^3$ en $\mathbb{R}^3$. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base $\{(1,1,1),(1,2,3),(0,1,1)\}$ de $\mathbb{R}^3$. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si $A$ y $B$ son dos representaciones matriciales de una misma transformación lineal $T$, entonces $\det(A)=\det(B)$.
  4. Sea $T:\mathbb{R}^{3}\to \mathbb{R}^{3}$ dada por $T(x,y,z)=(x+y+z,x,y)$. Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base $\beta$ en la cual $\text{Mat}_{\beta}(T)$ es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas

Cálculo Diferencial e Integral III: Representaciones matriciales, eigenvalores y eigenvectores

Por Alejandro Antonio Estrada Franco

Introducción

Como se ha mencionado anteriormente el objetivo de introducir ideas de álgebra lineal en cálculo diferencial es poder establecer una transformación lineal que sea la mejor aproximación lineal en un punto a una función dada. Esto nos ayudará a entender a la función dada en el punto en términos de otra función «más simple». Pero así mismo, las transformaciones lineales pueden ellas mismas pensarse en términos de transformaciones más sencillas. En esta entrada revisaremos esta idea y la conectaremos con la noción de eigenvectores.

Por un lado, recordaremos cómo es que una transformación lineal puede ser representada mediante una matriz una vez que se ha elegido una base del espacio vectorial. Luego, hablaremos de cómo elegir, de entre todas las bases, aquella que nos de una representación matricial lo más sencilla posible.

Representación matricial de las transformaciones lineales

Comencemos esta entrada repasando la importante relación entre transformaciones lineales y matrices. Denotaremos como $\mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$ al espacio vectorial de transformaciones lineales de $\mathbb{R}^n$ a $\mathbb{R}^m$.

Si tomamos cualquier transformación lineal $T\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$, entonces los valores de $T$ en cualquier vector de $\mathbb{R}^n$ quedan totalmente determinados por los valores de $T$ en los elementos de alguna base $\beta$ para $\mathbb{R}^n$. Tomemos $\gamma=\{\bar{w}_{1},\dots ,\bar{w}_{m}\}$ una base ordenada para $\mathbb{R}^m$, y $\beta=\{\bar{e}_{1},\dots ,\bar{e}_{n}\}$ una base ordenada para $\mathbb{R}^n$. Para cada $\bar{e}_{k}$ tenemos:

$$\begin{equation} T(\bar{e}_{k})=\sum_{i=1}^{m}t_{ik}\bar{w}_{i} \end{equation},$$

para algunos escalares $t_{1k},\dots ,t_{mk}$ que justo son las componentes de $T(\bar{e}_{k})$ en la base $\gamma$. Con estos escalares, podemos considerar la matriz: \[ \text{Mat}_{\gamma,\beta}(T)= \begin{pmatrix} t_{11} & \dots & t_{1n} \\ \vdots & \ddots & \vdots \\ t_{m1} & \dots & t_{mn} \end{pmatrix} \]

Esta es llamada la representación matricial de la transformación $T$ con respecto a las bases $\beta$ y $\gamma$. Esta matriz ayuda a calcular $T$ en cualquier vector de $\mathbb{R}^n$ como explicamos a continuación.

Para cada $\bar{v}\in \mathbb{R}^n$, podemos expresarlo como combinación lineal de elementos de la base $\beta$ digamos que $\bar{v}=\sum_{i=1}^{n} v_{i}\bar{e}_{i}$. Mediante estos coeficientes, podemos entonces asociar a $\bar{v}$ al siguiente vector columna de $\mathbb{R}^n$ \[ [\bar{v}]_{\beta}=\begin{pmatrix} v_{1} \\ \vdots \\ v_{n} \end{pmatrix}, \]

al que llamamos el vector de coordenadas de $\bar{v}$ con respecto a la base $\beta$.

Realicemos por un lado el siguiente cálculo:

\[ \text{Mat}_{\gamma,\beta}(T)[\bar{v}]_{\beta}=\begin{pmatrix} t_{11} & \dots & t_{1n}\\ \vdots & \ddots & \vdots \\ t_{m1} & \dots & t_{mn} \end{pmatrix} \begin{pmatrix} v_{1} \\ \vdots \\ v_{n} \end{pmatrix}=\begin{pmatrix} \displaystyle\sum_{k=1}^{n}t_{1k}v_{k} \\ \vdots \\ \displaystyle\sum_{k=1}^{n}t_{mk}v_{k}.\end{pmatrix} \]

Por otro lado tenemos lo siguiente:

\begin{align*}
T(\bar{v})&=T \left( \sum_{k=1}^{n}v_{k}\bar{e}_{k} \right)\\&=\sum_{k=1}^{n}v_{k}T(\bar{e}_{k})\\&=\sum_{k=1}^{n}v_{k}T\left( \sum_{i=1}^{m}t_{ik}\bar{w}_{i} \right)\\&=\sum_{i=1}^{m}\left( \sum_{k=1}^{n}v_{k}t_{ik} \right)\bar{w}_{i}.
\end{align*}

Juntando ambos cálculos: \[ [T(\bar{v})]_{\gamma}=\begin{pmatrix} \sum_{k=1}^{n}v_{k}t_{1k} \\ \vdots \\ \sum_{k=1}^{n}v_{k}t_{mk} \end{pmatrix} = \text{Mat}_{\gamma,\beta}(T)[\bar{v}]_{\beta}.\]

En otras palabras, aplicar $T$ a un vector $\bar{v}$ equivale a multiplicar $\text{Mat}_{\gamma,\beta}$ por el vector columna asociado a $\bar{v}$ en la base $\beta$, en el sentido de que tras hacer este producto recuperamos el vector de coordenadas para $T(\bar{v})$ en la base $\gamma$.

Isomorfismo entre transformaciones lineales y matrices

Con las operaciones de suma y multiplicación por escalar que vimos en la entrada de Matrices, se tiene que $M_{m,n}\left( \mathbb{R} \right)$ es un espacio vectorial sobre $\mathbb{R}$. De igual manera $\mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$ es un espacio vectorial sobre $\mathbb{R}$ con las siguientes operaciones:

  • Si $T$ y $U$ son dos transformaciones, la transformación $T+U$ es aquella que envía a todo vector $\bar{v}\in \mathbb{R}^n$ al vector $T(\bar{v})+U(\bar{v})$.
  • Si $r\in \mathbb{R}$ la transformación $rT$ es la que a todo $\bar{v}\in \mathbb{R}^n$ lo envía al vector $rT(\bar{v})$.

Queda como ejercicio que verifiques que esto dota efectivamente a $\mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$ de la estructura de espacio vectorial.

A continuación veremos que estos dos espacios vectoriales son, prácticamente, el mismo. Lo que haremos es construir una función $$\Phi :M_{m,n}\left( \mathbb{R} \right) \to\mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$$ que sea biyectiva y que preserve las operaciones de suma y de producto escalar.

Para ello, tomemos una base $\beta=\{\bar{e}_1,\ldots,\bar{e}_n\}$ de $\mathbb{R}^{n}$ y una base $\gamma=\{\bar{u}_1,\ldots,\bar{u}_m\}$ de $\mathbb{R}^m$. Tomemos una matriz $A\in M_{m,n}(\mathbb{R})$. Explicaremos a continuación cómo construir la transformación $\Phi(A)$, para lo cual diremos qué hace con cada elemento de la base $\beta$. Tomaremos aquella transformación lineal $T_A\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$ tal que

$$T_A(\bar{e}_j)=\sum_{i=1}^n a_{ij} \bar{u}_i.$$

Tomamos entonces $\Phi(A)=T_A$. Veamos que $\Phi$ tiene todas las propiedades que queremos.

  • $\Phi$ es suprayectiva. Si tenemos una transformación $T:\mathbb{R}^n\to \mathbb{R}^m$, entonces por la construcción anterior se tiene que su forma matricial $A:=\text{Mat}_{\gamma,\beta}(T)$ justo cumple $T_A=T$, de modo que $\Phi(A)=T$.
  • $\Phi$ es inyectiva. Si $A$ y $B$ son matrices distintas, entonces difieren en alguna entrada, digamos $(i,j)$. Pero entonces $T_A$ y $T_B$ difieren ya que $T_A(\bar{e}_j)\neq T_B(\bar{e}_j)$ ya que en las combinaciones lineales creadas hay un coeficiente distinto. Así, $\Phi(A)\neq \Phi(B)$.
  • $\Phi $ es lineal. Para $r\in \mathbb{R}$, $A$ y $B$ matrices con entradas $a_{ij}$ y $b_{ij}$, respectivamente, se cumple que $\Phi \left( rA+B \right)=T_{(rA+B)}$ y entonces se satisface para cada $j=1,\dots ,n$ lo siguiente:
    \begin{align*}
    (rA+B)[\bar{e}_{j}]_{\beta}&=rA[\bar{e}_{j}]_{\beta}+B[\bar{e}_{j}]_{\beta}\\&=r[T_A(\bar{e}_{i})]_{\gamma}+[T_{B}(\bar{e}_{i})]_{\gamma}.
    \end{align*}
    Por tanto para cada $\bar{e}_{i}$ tenemos que $$T_{(rA+B)}(\bar{e}_{i})=rT_{A}(\bar{e}_{i})+T_{B}(\bar{e}_{i})$$ y en consecuencia $$T_{(rA+B)}=rT_{A}+T_{B}.$$ Así $$\Phi (rA+B)=r\Phi (A)+\Phi(B).$$

Todo lo anterior implica que $M_{m,n}\left( \mathbb{R} \right)\simeq \mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$, es decir, que ambos espacios vectoriales son isomorfos.

En búsqueda de una matriz sencilla

Por lo que hemos platicado hasta ahora, a cada transformación lineal le corresponde una matriz, y viceversa. De hecho, esta asociación respeta operaciones como la suma y el producto por escalar. Esta equivalencia está dada a partir de la función $\Phi$ encontrada en la sección anterior.

Si $\Phi $ es biyectiva, ¿por qué hablamos entonces de encontrar una representación matricial simple para una transformación lineal $T$? Esto parecería no tener sentido, pues a cada transformación le corresponde una y sólo una matriz. Sin embargo, esto es cierto únicamente tras haber fijado las bases $\beta$ y $\gamma$ para $\mathbb{R}^n$ y $\mathbb{R}^m$, respectivamente. Así, dependiendo de la elección de las bases las representaciones matriciales cambian y si tenemos una transformación lineal $T$, es posible que querramos encontrar bases $\beta$ y $\gamma$ en donde la representación matricial sea sencilla.

Nos enfocaremos únicamente en transformaciones lineales que van de un espacio vectorial a sí mismo. Tomemos entonces $T:\mathbb{R}^n\to \mathbb{R}^n$ y una base $\beta$ de $\mathbb{R}^n$. Por simplicidad, escribiremos $\text{Mat}_{\beta, \beta}(T)$ simplemente como $\text{Mat}_{\beta}(T)$. Hay propiedades de $T$ que podemos leer en su matriz $\text{Mat}_{\beta}(T)$ y que no dependen de la base $\beta$ que hayamos elegido. Si con una base $\beta$ especial resulta que $\text{Mat}_{\beta}(T)$ es muy sencilla, entonces podremos leer estas propiedades de $T$ muy fácilmente. Un ejemplo es la siguiente proposición, la cual queda como tarea moral.

Proposición. La transformación lineal $T:\mathbb{R}^n\to\mathbb{R}^n$ es invertible si y sólo si $\text{Mat}_{\beta}(T)$ es invertible.

Si $A=\text{Mat}_{\beta}(T)$ fuera muy muy sencilla, por ejemplo, si fuera una matriz diagonal, entonces podríamos saber la invertibilidad de $T$ sabiendo la invertibilidad de $A$, y la de $A$ sería muy fácil de ver pues por ser matriz diagonal bastaría hacer el producto de las entradas de su diagonal para obtener su determinante y estudiar si es distinto de cero.

Motivados por el ejemplo anterior, estudiemos la siguiente pregunta: ¿toda transformación lineal se puede representar con una matriz diagonal? Si una transformación lineal se puede representar de esta manera, diremos que es diagonalizable.

Eigenvalores, eigenvectores y eigenespacios

En lo que sigue repasaremos el aparato conceptual que nos permitirá dar una respuesta parcial de cuándo una matriz es diagonalizable. Un tratamiento mucho más detallado se puede encontrar aquí en el blog, en el curso de Álgebra Lineal II, comenzando con la entrada Eigenvectores y eigenvalores.

Para nuestro repaso, debemos introducir algunos conceptos y estudiarlos.

Definición. Sea $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ una transformación lineal. Diremos que un escalar $r \in \mathbb{R}$ es un eigenvalor de $T$ si existe $\bar{v}\in \mathbb{R}^n\setminus\{ \bar{0} \}$ tal que $T(\bar{v})=r\bar{v}$. A dicho vector $\bar{v}$ le llamaremos un eigenvector de $T$ con eigenvalor asociado $r$.

Dado un eigenvector $\bar{v}\in \mathbb{R}^n$, sólo hay un eigenvalor correspondiente a éste. Si $T(\bar{v})=r\bar{v}$ y $T(\bar{v})=t\bar{v}$, entonces $r\bar{v}=t\bar{v}$ de donde $(r-t)\bar{v}=\bar{0}$. Como $\bar{v}\neq \bar{0}$, se sigue que $r=t$.

Por otro lado, para un eigenvalor $r$ puede haber más de un eigenvector con eigenvalor asociado $r$. Consideremos para un eigenvalor $r$ el conjunto $E(r)=\{ \bar{v}\in V |T(\bar{v})=r\bar{v}\}$. Notemos que $\bar{0}\in E(r)$ y también todos los eigenvectores de $r$ están en $E(r)$. Además, $E(r)$ es un subespacio de $\mathbb{R}^n$, pues si $\bar{u},\bar{v} \in E(r)$, y $a\in \mathbb{R}$, tenemos

\begin{align*}
T(a\bar{u}+\bar{v})&=aT(\bar{u})+T(\bar{v})\\
&=a(r\bar{u})+(r\bar{v})\\
&=r(a\bar{u}+\bar{v}),
\end{align*}

lo cual implica que $a\bar{u}+\bar{v} \in E(r)$.

Definición. Para una transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$ y un eigenvalor $r$ de $T$ llamaremos a

$$E(r)=\{ \bar{v}\in V |T(\bar{v})=r\bar{v}\}$$

el eigenespacio de $T$ correspondiente a $r$.

Cuando tenemos eigenvectores correspondientes a eigenvalores distintos, cumplen algo especial.

Proposición. Si $\bar{v}_{1}, \dots ,\bar{v}_{l}$ son eigenvectores de una transformación lineal $T:\mathbb{R}^n \rightarrow \mathbb{R}^n$ con eigenvalores correspondientes $r_{1}, \dots ,r_{l}$ distintos entonces $\bar{v}_{1}, \dots ,\bar{v}_{l}$ son linealmente independientes.

Demostración. La ruta para establecer la demostración de este teorema será por inducción sobre $l$. Para un conjunto con sólo un eigenvector el resultado es evidente (¿por qué?). Supongamos cierto para cualquier subconjunto de $l-1$ eigenvectores que pertenecen a eigenespacios distintos. Sean $\bar{v}_{1}, \dots ,\bar{v}_{l}$ eigenvectores en distintos eigenespacios y consideremos $\alpha _{1}, \dots ,\alpha_{l}$ escalares tales que:

\begin{equation}
\label{eq:comb-cero}
\sum_{k=1}^{l}\alpha _{k}\bar{v}_{k}=\bar{0}.
\end{equation}

Aplicamos $T$ a la igualdad anterior. Usando que cada $\bar{v}_{k}$ es eigenvector correspondiente al eigenvalor $r_{k}$ obtenemos:

\begin{align*}
\bar{0}=T(\bar{0})&=T\left(\sum_{k=1}^{l}\alpha _{k}\bar{v}_{k} \right)\\&=\sum_{k=1}^{l}\alpha _{k}T(\bar{v}_{k})\\&=\sum_{k=1}^{l}\alpha _{k}r_{k}\bar{v}_{k}.
\end{align*}

Es decir,

\begin{equation}
\label{eq:aplicarT}
\textbf{0}=\sum_{k=1}^{l}\alpha _{k}r_{k}\bar{v}_{k}
\end{equation}

Multipliquemos \eqref{eq:comb-cero} por $r_{l}$ y restemos el resultado de \eqref{eq:aplicarT} para obtener que

\begin{align*}
\bar{0}=\bar{0}-\bar{0}&=\sum_{k=1}^{l}\alpha _{k}r_{k}\bar{v}_{k}-r_{l}\sum_{k=1}^{l}\alpha _{k}\bar{v}_{k}\\&=\sum_{k=1}^{l-1}\alpha _{k}(r_{k}-r_{l})\bar{v}_{k}.
\end{align*}

Tenemos entonces:

\[ \sum_{k=1}^{l-1}\alpha _{k}(r_{k}-r_{l})\bar{v}_{k}=\bar{0}.\]

Ya que por hipótesis de inducción $\bar{v}_{1}, \dots ,\bar{v}_{l-1}$ son linealmente independientes entonces $\alpha _{k}(r_{k}-r_{l})=0$ para todo $k$, pero los eigenvalores son todos distintos entre sí por lo tanto para todo $k$ de $1$ a $l-1$ se tiene $r_{k}-r_{l}\neq 0$ y así $\alpha _{k}=0$. Finalmente, usando \eqref{eq:comb-cero} obtenemos $\alpha_l=0$. Por lo tanto $\bar{v}_{1}, \dots ,\bar{v}_{l}$ son linealmente independientes.

$\square$

Eigenvectores y transformaciones diagonalizables

Recuerda que dijimos que una transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$ es diagonalizable si existe una base $\beta$ de $\mathbb{R}^n$ tal que $\text{Mat}_{\beta}(T)$ es una matriz diagonal. El siguiente resultado conecta las dos ideas que hemos estado explorando: los eigenvectores y la representabilidad sencilla de $T$.

Teorema. Sea $T:\mathbb{R}^{n}\rightarrow \mathbb{R}^{n}$ transformación lineal. Una matriz $T$ es diagonalizable si y sólo si existe una base de $\mathbb{R}^n$ conformada por eigenvectores de $T$.

En realidad la demostración consiste únicamente en entender correctamente cómo se construyen las matrices para una base dada.

Demostración. $\Rightarrow )$ Supongamos que $T$ tiene una representación matricial que es una matriz diagonal $A:=\text{Mat}_{\beta}(T)=\text{diag}(r_{1}, \dots ,r_{n})$ con respecto a la base $\beta=\{\bar{v}_{1}, \dots ,\bar{v}_{n}\}$. Afirmamos que para cada $j=1,\ldots,n$ se tiene $\bar{v}_j$ es eigevector de eigenvalor $r_j$. En efecto, la forma en la que se construyó la matriz $A$ nos dice que

\begin{align*}
T(\bar{e}_j)&=\sum_{i=1}^n a_{ij} \bar{e}_i \\&= a_{jj} \bar{e}_j \\&= r_j \bar{e}_j,
\end{align*}

en donde estamos usando que las entradas $a_{ij}$ de la matriz son cero si $i\neq j$ (por ser diagonal), y son $r_j$ si $i=j$. Por supuesto, como $\bar{e}_j$ forma parte de una base, tampoco es el vector cero. Así, $\bar{e}_j$ es eigenvector de eigenvalor $\bar{e}_j$.

$\Leftarrow )$ Supongamos ahora que $\bar{v}_{1},\dots ,\bar{v}_{n}$ son una base $\beta$ de $\mathbb{R}^n$ conformada por eigenvectores de $T$ con eigenvalores asociados, digamos, $r_{1},\dots ,r_{n}$. Aquí se puede mostrar que $\text{Mat}_\beta(T)$ es diagonal. Queda como tarea moral hacer las cuentas.

$\square$

Hay una situación particular en la que podemos aprovechar el teorema anterior de manera inmediata: cuando la transformación tiene $n$ eigenvalores distintos. Esta consecuencia queda establecida en el siguiente resultado.

Corolario. Toda transformación lineal $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ tiene a lo más $n$ eigenvalores distintos. Si $T$ tiene exactamente $n$ eigenvalores distintos, entonces los eigenvectores correspondientes forman una base para $\mathbb{R}^n$ y la matriz de $T$ relativa a esa base es una matriz diagonal con los eigenvalores como elementos diagonales.

Demostración. Queda como tarea moral. Como sugerencia, recuerda que mostramos arriba que los eigenvectores de eigenvalores distintos son linealmente independientes.

$\square$

Al parecer los eigenvalores, eigenvectores y eigenespacios de una transformación lineal son cruciales para poder expresarla de manera sencilla. ¿Cómo los encontramos? Esto lo veremos en la siguiente entrada.

Antes de concluir, mencionamos que hay otro teorema crucial sobre diagonalización de matrices. Diremos que una matriz $P\in M_n(\mathbb{R})$ es ortogonal si $P^tP=I$.

Teorema (el teorema espectral). Sea $A\in M_n(\mathbb{R})$ una matriz simétrica. Entonces, existe una matriz ortogonal $P$ tal que $PAP^t$ es una matriz diagonal.

El teorema anterior nos dice no únicamente que la matriz $A$ es diagonalizable, sino que además es diagonalizable mediante un tipo muy especial de matrices. Un estudio y demostración de este teorema queda fuera de los alcances de nuestro curso, pero puedes revisar, por ejemplo la entrada teorema espectral del curso de Álgebra Lineal I que tenemos en el blog.

Más adelante

Lo que haremos en la siguiente entrada es desarrollar un método para conocer los eigenvalores de una matriz. A partir de ellos podremos encontrar sus eigenvectores. Y en ciertos casos especiales, esto nos permitirá mostrar que la transformación es diagonalizable y, de hecho, nos dará la base para la cual la matriz asociada es diagonal.

Tarea moral

  1. Considera la transformación lineal de $\mathbb{R}^{3}$ en $\mathbb{R}^{2}$, dada como $T(x,y,z)=(x+y,z+y)$. Encuentra su representación matricial con las bases canónicas de $\mathbb{R}^3$ y $\mathbb{R}^2$. Luego, encuentra su representación matricial con las bases $\{(1,2,3),(1,0,1),(0,-1,0)\}$ de $\mathbb{R}^3$ y $\{(1,1),(1,-1)\}$ de $\mathbb{R}^2$.
  2. Considera la siguiente matriz: \[ \begin{pmatrix} 1 & 0 & 2 & 3 \\ 0 & -1 & 0 & 2 \\ \end{pmatrix}\] Da una transformación lineal $T:\mathbb{R}^4\to \mathbb{R}^2$ y ciertas bases $\beta$ de $\mathbb{R}^4$ y $\gamma$ de $\mathbb{R}^2$ para las cuales esta matriz sea la representación matricial de $T$ en las bases $\beta$ y $\gamma$.
  3. Fija bases $\beta$, $\gamma$ y $\delta$ para $\mathbb{R}^n$, $\mathbb{R}^m$ y $\mathbb{R}^l$. Considera dos transformaciones lineales $T:\mathbb{R}^n\to \mathbb{R}^m$ y $S:\mathbb{R}^m\to \mathbb{R}^l$. Demuestra que:
    $$\text{Mat}_{\delta, \beta} (S \circ T) = \text{Mat}_{\delta,\gamma}(S) \text{Mat}_{\gamma, \beta} (T).$$
    En otras palabras que la «composición de transformaciones corresponde al producto de sus matrices».
  4. Sea $T:\mathbb{R}^n\to\mathbb{R}^n$ una transformación lineal y $\beta$ una base de $\mathbb{R}^n$. Demuestra que $T$ es biyectiva si y sólo si $\text{Mat}_{\beta}(T)$ es invertible.
  5. Verifica que los vectores $\bar{v}_1,\ldots,\bar{v}_n$ dados en el último teorema en efecto ayudan a dar una representación matricial diagonal para $T$.
  6. La demostración del último corolario es un conjunto de sencillas consecuencias de las definiciones y teoremas desarrollados en esta entrada con respecto a los eigenvalores y eigenvectores. Realiza esta demostración.

Entradas relacionadas

Álgebra Lineal II: El teorema de descomposición polar real

Por Ayax Calderón

Introducción

En la entrada anterior enunciamos y demostramos el teorema espectral para matrices simétricas reales. Una de las consecuencias de este teorema es el teorema de descomposición polar. Se puede pensar en el teorema de descomposición polar como al análogo a un resultado muy conocido de números complejos: cualquier número complejo se puede pensar de la forma $z=e^{i\theta}r$ con $r\geq 0$ real. Geométricamente, el complejo se obtiene «rotando tanto como el argumento y luego alargando de acuerdo a la norma».

Así mismo, veremos que toda matriz $A$ tendrá una expresión de la forma $A=US$ donde $U$ es una matriz ortogonal (que juega el papel de «la rotación») y $S$ es una matriz simétrica positiva (que por el teorema espectral recordemos que es básicamente «alargar en varias direcciones»). Este resultado es increíble: ¡nos dice cómo son todas, todas las matrices reales en términos de matrices muy sencillas: las ortogonales (que conocemos muy bien) y las simétricas (que por el teorema espectral también conocemos muy bien)!

Caso invertible del teorema de descomposición polar

Recordemos un resultado de la entrada anterior, que era una de las partes de nuestro teorema de clasificación de matrices positivas. Nos dice que las matrices simétricas positivas «tienen raíz cuadrada».

Proposición. Sea $A$ una matriz simétrica positiva. Entonces existe una matriz simétrica $B$ tal que $B^2=A$.

Como recordatorio, para obtener a $B$ lo que hicimos fue diagonalizar a $A$ de la forma $A=P^{-1}DP$ con $D$ matriz diagonal cuyas entradas eran $\lambda_1,\ldots,\lambda_n$ los eigenvalores de $A$. Como $A$ era positiva, sus eigenvalores eran no negativos, así que podíamos construir $D’$ con entradas $\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}$. Después, vimos que $B=P^{-1}D’P$ servía para que $B^2=A$. Observa que además $B$ es positiva pues sus eigenvalores son no negativos.

Como observación adicional, si $A$ fuera positiva definida entonces sus eigenvalores serían positivos, y entonces $B$ también tendría eigenvalores positivos. Así, $B$ sería positiva definida también. De hecho, se puede demostrar que en este caso la matriz $B$ es única (bajo la condición de ser simétrica positiva definida y raíz de $A$). Para un esbozo de esta pruba, revisa los ejercicios de la entrada.

Estamos listos para enunciar y demostrar el teorema de descomposición polar en el caso de matrices invertibles.

Teorema (De descomposición polar, caso invertible). Sea $A\in M_n(\mathbb{R})$ una matriz invertible. Entonces existe una única pareja $(U,S)$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva definida para la que se cumple que $A=US$.

Demostración. Tomemos $A\in M_n(\mathbb{R})$ una matriz invertible. La matriz $^tAA$ es simétrica y positiva definida. Por la discusión anterior, existe una única matriz simétrica positiva definida $S$ tal que $^tAA=S^2$. Como $A$ es invertible, $S$ también lo es, así que definamos $$U=AS^{-1}.$$

Afirmamos que $(U,S)$ cumplen con lo requerido. Ya justificamos que $S$ es simétrica positiva definida. Además, de $U=AS^{-1}$ se obtiene inmediatamente $US=A$. Sólo falta verificar que $U$ es ortogonal. Para ello, al multiplicarla con su transpuesta obtenemos lo siguiente:
\begin{align*}
^tUU&=\hspace{.5mm}^tS^{-1}\hspace{.5mm}^tAAS^{-1}\\
&=S^{-1}S^2S^{-1}\\
&=I_n.
\end{align*}

Veamos ahora la unicidad. Supongamos que $A=U’S’$ con $U’$ ortogonal y $S’$ simétrica positiva definida, Entonces
$$^tAA=S’\hspace{.5mm}^tU’U’S’={S’}^2.$$

De esta manera, $S’$ es precisamente la raíz cuadrada de $^tAA$, que por la discusión anterior es única. Deducimos entonces que $S’=S$ y por lo tanto $U’=A{S’}^{-1}=AS^{-1}=U$.

$\square$

Caso general del teorema de descomposición polar

Es natural preguntarse qué sucede cuando la matriz $A$ no es invertible. Resulta que en ese caso aún podemos encontrar una descomposición, aunque perdemos un poco de las propiedades de las matrices y la unicidad. Por ejemplo, si $A=O_n$, entonces $A=UO_n$ para culaquier matriz ortogonal $U$ y entonces tenemos muchas posibles descomposiciones.

Teorema (De descomposición polar, caso general). Cualquier matriz $A\in M_n(\mathbb{R})$ se puede escribir de la forma $A=US$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva.

¿Por qué falla nuestra demostración? Todavía temeos que $^tAA$ es positiva, así que podríamos tomar una raíz cuadrada $S$. El problema es que como $A$ no es invertible, entonces $S$ tampoco lo es. Por ello, no podemos definir $U=AS^{-1}$ como lo hicimos con anterioridad. Sin embargo, podemos ser astutos y «cambiar tantito» a $A$ para que sí se vuelva invertible. De hecho, podemos tomar muchas matrices que se acercan a $A$ y sí son invertibles. Con ello podemos usar un «argumento al límite». Formalicemos estas ideas.

Demostración. Consideremos las matrices $A_k=A+\frac{1}{k}I_n$. Recordemos que $\det(A+\lambda I_n)$ es un polinomio de grado $n$ así que tiene a lo más $n$ raíces. Por ello, existe un $k_0$ tal que para toda $k>k_0$ la matriz $A_k$ es invertible. Al aplicar el teorema de descomposición polar a cada una de dichas $A_k$, obtenemos una matriz ortogonal $U_k$ y una simétrica positiva definida $S_k$ tales que

$$A_k=U_kS_k.$$

Las entradas de cada $U_k$ cumplen que están en el intervalo $[-1,1]$ (pues la suma de las entradas de cada fila es igual a $1$). Así, $U_k$ es una sucesión de matrices en el compacto de matrices con entradas $[-1,1]$. En un compacto toda sucesión tiene una subsucesión convergente, así que podemos elegir una subsucesión de estas matrices, digamos $U_{k_1}, U_{k_2},\ldots$ que converge a una matriz $U$.

Se puede ver que el producto de matrices es contínuo y obtener inversas de matrices también es continuo (por ejemplo, por las fórmulas de inversa por matriz de adjuntos). De este modo, aplicando límite $j\to \infty$ a la igualdad $^tU_{k_j}U_{k_j}=I_n$ obtenemos que $^UU=I_n$, de modo que $U$ es ortogonal.

Del mismo modo, como trasponer es continuo, $S_{k_1}, S_{k_2},\ldots$ converge a una matriz simétrica $S$. Finalmente, usando nuevamente la continuidad del producto de matrices obtenemos

\begin{align*}
A&=\lim_{j\to \infty} A_{k_j}\\
&=\lim_{j\to \infty} U_{k_j} S_{k_j}\\
&=US.
\end{align*}

Sólo nos falta demostrar que $S$ es positiva, pero si tomamos $X\in\mathbb{R}^n$, entonces pasando al límite $j\to \infty$ en la desigualdad $^tXS_{k_j}X > 0$ obtenemos $^tXSX\geq 0$. Aquí es donde se podría perder que $S$ es positiva definida, pero seguimos teniendo que $S$ es positiva.

$\square$

Más adelante…

Tanto el teorema espectral como el teorema de descomposición polar son resultados de caracterización fundamentales en álgebra lineal y finalmente nos dan una respuesta a la pregunta de, geométricamente, cómo son todas las posibles transformaciones lineales. En las siguientes secciones se esbozarán los resultados análogos para el caso complejo.

Después de ello, en la cuarta unidad del curso cubriremos otro teorema que nos permitirá decir «cómo son todas las matrices». Quizás no todas las matrices sean directamente similares a una matriz diagonal. Pero enunciaremos y demostraremos el teorema de Jordan que dirá que cualquier matriz es similar a una «casi diagonal», a la que llamaremos diagonal por bloques.

Tarea moral

  1. Sean que $A$ y $B$ son matrices simétricas. Demuestra que $A$ y $B$ conmutan si y sólo si existe una misma matriz $P$ tal que $PAP^{-1}$ y $PBP^{-1}$ son diagonales (a esto se le conoce como que $A$ y $B$ sean «simultáneamente diagonalizables»)
  2. Usando el ejercicio anterior, demuestra que si $A$ es simétrica positiva definida, y se cumple $B^2=A=C^2$ con $B$ y $C$ matrices simétricas positivas definidas, entonces $B=C$.
  3. Sean $A,B\in M_n(\mathbb{R})$ matrices tales que $^tAA=^tBB$. Demuestra que existe una matriz ortogonal $U\in M_n(\mathbb{R})$ tal que $B=UA$.
  4. Encuentra la descomposición polar de $$\begin{pmatrix}
    11 & -5\\
    -2 & 10 \end{pmatrix}.$$
  5. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.

Entradas relacionadas

Álgebra Lineal II: Polinomio característico

Por Julio Sampietro

Introducción

En el transcurso de esta unidad hemos construido varios de los objetos algebraicos que nos interesan. En primer lugar, dejamos claro qué quería decir evaluar un polinomio en una matriz o transformación lineal. Esto nos llevó a preguntarnos por aquellos polinomios que anulan a una matriz o transformación lineal. De manera natural, descubrimos que aquellos polinomios que anulan son múltiplos de un polinomio especial asociado a la matriz o transformación lineal llamado polinomio mínimo.

De manera un poco separada, comenzamos a estudiar los eigenvalores, eigenvectores y eigenespacios de una transformación lineal y en la entrada anterior nos enfocamos en varias de sus propiedades principales. Uno de los resultados clave que encontramos es que los eigenvalores de una matriz o transformación lineal son las raíces del polinomio mínimo que estén en el campo en el que estemos trabajando.

Aunque este resultado sea interesante de manera teórica, en la práctica debemos hacer algo diferente pues no es tan sencillo encontrar el polinomio mínimo de una matriz o transformación lineal. Es por esto que ahora estudiaremos con profundidad otro objeto que resultará fundamental en nuestro estudio: el polinomio característico. Ya nos encontramos con él anteriormente. Si $A$ es una matriz en $M_n(F)$, dicho polinomio en la variable $\lambda$ es el determinante $\det(\lambda I_n-A)$.

Esta entrada es más bien una introducción, así que nos enfocaremos en probar las cosas más básicas de este objeto. Lo primero, y más importante, es verificar que en efecto es un polinomio (y con ciertas características específicas). También, aprovecharemos para calcularlo en varios contextos (y campos) diferentes.

Definición de polinomio característico

Comencemos con una matriz $A\in M_n(F)$. Vimos que encontrar los eigenvalores de $A$ se reduce a encontrar las soluciones de la ecuación

\begin{align*}
\det(\lambda I_n-A)=0
\end{align*}

en $F$. Vamos a estudiar más a detalle la expresión de la izquierda.

El siguiente teorema va un poco más allá y de hecho estudia expresiones un poco más generales.

Teorema. Sean $A,B\in M_n(F)$ dos matrices. Existe un polinomio $P\in F[X]$ tal que para todo $x\in F$ se cumple

\begin{align*}
P(x)=\det(xA+B).
\end{align*}

Si denotamos a este polinomio por $P(X)=\det(XA+B)$, entonces

\begin{align*}
\det(XA+B)=\det(A)X^{n}+\alpha_{n-1}X^{n-1}+\dots+\alpha_1 X+\det B
\end{align*}

para algunas expresiones polinomiales $\alpha_1,\dots, \alpha_{n-1}$ con coeficientes enteros en las entradas de $A$ y $B$.

Demostración. Consideremos el siguiente polinomio en la variable $X$ y coeficientes en $F$, es decir, el siguiente polinomio en $F[X]$:

\begin{align*}
P(X)=\sum_{\sigma\in S_n} \operatorname{sign}(\sigma)\left(a_{1\sigma(1)} X+b_{1\sigma(1)}\right)\cdots \left(a_{n\sigma(n)}X+b_{n\sigma(n)}\right).
\end{align*}

Por construcción, $P$ es un polinomio cuyos coeficientes son expresiones polinomiales enteras en las entradas de $A$ y $B$. Más aún, se cumple que $P(x)=\det(xA+B)$ para $x\in F$ (podría ser útil revisar la entrada sobre determinantes para convencerte de ello). El término constante lo obtenemos al evaluar en $X=0$, pero eso no es más que $P(0)=\det(0\cdot A+B)=\det(B)$. Finalmente para cada $\sigma\in S_n$ tenemos que el primer término de cada sumando es

\begin{align*}
\operatorname{sign}(\sigma)(a_{1\sigma(1)}X+b_{1\sigma(1)})\cdots (a_{n\sigma(n)} X+b_{n\sigma(n)})
\end{align*}

Notemos que la única manera de obtener un término $X^n$ en esta expresión es cuando en cada binomio que se está multiplicando se usa el término $X$. Así, el coeficiente de $X^n$ es $\operatorname{sign}(\sigma) a_{1\sigma(1)}\cdots a_{n\sigma(n)}X^{n}$.

Agrupando todos los sumandos para todas las $\sigma$ y comparando con la definición del determinante llegamos a que $$P(X)=\det(A)X^{n}+\ldots,$$ es decir el término de orden $n$ es en efecto $\det(A)$.

$\square$

Del teorema se sigue que si $A$ y $B$ tienen entradas enteras o racionales, $\det(XA+B)$ tiene coeficientes enteros o racionales respectivamente.

Enseguida podemos definir (gracias al teorema) el siguiente objeto:

Definición. El polinomio característico de la matriz $A\in M_n(F)$ es el polinomio $\chi_A\in F[X]$ definido por

\begin{align*}
\chi_A(X)=\det(X\cdot I_n-A).
\end{align*}

Una observación inmediata es que, de acuerdo al teorema, el coeficiente principal de $\chi_A(X)$ tiene coeficiente $\det(I_n)=1$. En otras palabras, acabamos de demostrar la siguiente propiedad fundamental del polinomio característico.

Proposición. El polinomio característico de una matriz en $M_n(F)$ siempre tiene grado exactamente $n$ y además es un polinomio mónico, es decir, que el coeficiente que acompaña al término de grado $n$ es igual a $1$.

Veamos un ejemplo sencillo.

Ejemplo. Si queremos calcular el polinomio característico de

\begin{align*}
A=\begin{pmatrix} 1 & -1\\ 1 &0\end{pmatrix}\in M_2(\mathbb{R})
\end{align*}

entonces usamos la definición

\begin{align*}
\chi_A(X)&=\det(X\cdot I_2-A)\\&=\begin{vmatrix} X-1 & 1\\ -1 & X\end{vmatrix}\\&= X(X-1)+1.
\end{align*}

Y así los eigenvalores de $A$ son las raíces reales de $\chi_A(X)$. Es decir, tenemos que resolver

\begin{align*} 0=x(x-1)+1=x^2-x+1.\end{align*}

Sin embargo, el discriminante de esta ecuación cuadrática es $(-1)^2-4(1)(1)=-3$, el cual es un real negativo, por lo que no tenemos eigenvalores reales. Si estuviéramos trabajando en $\mathbb{C}$ tendríamos dos eigenvalores complejos:

\begin{align*}
x_{1,2}= \frac{1\pm i\sqrt{3}}{2}.
\end{align*}

De aquí, ¿cómo encontramos los eigenvectores y eigenespacios? Basta con resolver los sistemas lineales homogéneos de ecuaciones $(A-x_1I_2)X=0$ para encontrar el $x_1$-eigenespacio y $(A-x_2)X=0$ para encontrar el $x_2$-eigenespacio.

$\square$

Algunos cálculos de polinomios característicos

Ya que calcular polinomios característicos se reduce a calcular determinantes, te recomendamos fuertemente que recuerdes las propiedades que tienen los determinantes. Sobre todo, aquellas que permiten calcularlos.

¡A calcular polinomios característicos!

Problema. Encuentra el polinomio característico y los eigenvalores de $A$ dónde $A$ es

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0 & 0\\
2 & 0 & -1 & 0\\
0 & 7 & 0 &6\\
0 & 0 & 3 & 0
\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. Usamos la expansión de Laplace respecto al primer renglón:

\begin{align*}
\chi_A(X)&=\det(XI_4-A)\\&= \begin{vmatrix}
X & -1 & 0 & 0\\
-2 & X & 1 & 0\\
0 & -7 & X & -6\\
0 & 0 & -3 & X\end{vmatrix}\\
&= X\begin{vmatrix} X & 1 & 0\\ -7 & X & -6\\ 0 & -3 & X\end{vmatrix}+ \begin{vmatrix}
-2 & 1 & 0\\ 0 & X& -6\\ 0 &-3 & X\end{vmatrix}\\
&= X(X^3-11X)-2(X^2-18)\\
&= X^4-13X^2+36.
\end{align*}

Después, para encontrar los eigenvalores de $A$ tenemos que encontrar las raíces reales de la ecuación

\begin{align*}
x^4-13x^2+36=0.
\end{align*}

Sin embargo, no hay que desalentarse por ver una ecuación de grado $4$. Si hacemos el cambio $y=x^2$ podemos llevar nuestro problema a resolver

\begin{align*}
y^2-13y+36=0.
\end{align*}

¡Es una ecuación de segundo orden! Esta la podemos resolver usando ‘la chicharronera’ y obtenemos como soluciones $y_1=4$ y $y_2=9$. Pero todavía tenemos que resolver $x^2=y_1$ y $x^2=y_2$. Al resolver estas últimas dos ecuaciones obtenemos que $x=\pm 2,\pm 3$ son los eigenvalores de $A$.

$\square$

Problema. Calcula el polinomio característico y los eigenvalores de la matriz

\begin{align*}
A=\begin{pmatrix} 1 & 0 & 1\\ 1 & 1 & 0\\ 1 & 0 &1 \end{pmatrix}\in M_3(F_2).
\end{align*}

Solución. Nota que estamos trabajando en el campo de dos elementos $F_2$, por lo que $-1=1$. Usando la definición:

\begin{align*}
\chi_A(X)&=\det(XI_3-A)\\&= \begin{vmatrix} X-1 & 0 & -1\\ -1 & X-1 & 0\\ -1 & 0 &X-1\end{vmatrix}\\
&= \begin{vmatrix} X+1 & 0 & 1\\ 1 & X+1& 0 \\ 1 & 0 &X+1\end{vmatrix}.
\end{align*}

Aquí estamos usando repetidamente $-1=1$. Usamos otra vez la expansión de Laplace en el primer renglón para llegar a

\begin{align*}
\chi_A(X)&= (X+1)\begin{vmatrix} X+1 & 0 \\ 0 & X+1\end{vmatrix}+\begin{vmatrix} 1 & X+1\\ 1 & 0\end{vmatrix}\\
&= (X+1)^3-(X+1).
\end{align*}

Luego, si queremos encontrar los eigenvalores de $A$ tenemos que resolver

\begin{align*}
(x+1)^3-(x+1)=0.
\end{align*}

Si bien existen varias maneras de resolver la ecuación, podemos simplemente sustituir los únicos valores posibles de $x$ : $0$ o $1$. Sustituyendo es fácil ver que ambos satisfacen la ecuación, por lo que los eigenvalores de $A$ son $0$ y $1$.

$\square$

Más adelante…

En la próxima entrada calcularemos el polinomio característico de una variedad de matrices importantes: triangulares superiores, nilpotentes, etc. Esto nos permitirá entender mejor al polinomio característico y lidiar con muchos casos para facilitarnos los cálculos más adelante.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que $0$ es un eigenvalor de una matriz $A$ si y sólo si $\det(A)=0$.
  • ¿Una matriz compleja de tamaño $n$ tiene necesariamente $n$ eigenvalores distintos?
  • Calcular el polinomio característico y los eigenvalores de
    \begin{align*}A=\begin{pmatrix} 1 & 2 & 0\\ 0 & 1 &2\\ 2 & 0 & 1\end{pmatrix}\in M_3(F_3).
    \end{align*}
  • Usando la fórmula del determinante para matrices de tamaño $2$, encuentra un criterio simple para saber si una matriz con entradas reales de tamaño $2$ tiene dos, uno o ningún eigenvalor real.
  • Da un criterio simple para saber si una matriz de tamaño $2$ con entradas complejas tiene eigenvalores puramente imaginarios.

Entradas relacionadas

Álgebra Lineal II: Propiedades de eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En la entrada anterior platicamos acerca de eigenvectores, eigenvalores y eigenespacios de matrices y transformaciones lineales. Vimos algunos ejemplos básicos. En esta entrada profundizaremos en el estudio de estos objetos y exploraremos diversas de sus propiedades. Comenzaremos con algunas observaciones inmediatas. Después, veremos cómo encontrar de manera sencilla los eigenvalores de las matrices triangulares superiores. También veremos que «eigenvectores correspondientes a eigenvalores diferentes son linealmente independientes«. Finalmente, conectaremos estas nuevas ideas con un objeto que estudiamos previamente: el polinomio mínimo.

Primeras observaciones

A partir de la proposición de la entrada anterior que nos dice cómo calcular eigenvalores se desprenden algunas consecuencias sencillas pero útiles.

Por ejemplo, recuerda que el determinante de una matriz y su transpuesta es igual. En particular, si $A\in M_n(F)$ entonces

\begin{align*}
\det(\lambda I_n -\ ^{t}A)= \det(\ ^{t}(\lambda I_n- A))= \det(\lambda I_n-A).
\end{align*}

Luego $\det (\lambda I_n-A)=0$ si y sólo si $\det(\lambda I_n-\ ^{t}A)=0$. Recordando que las raíces de estos polinomios son precisamente los eigenvalores, se sigue que los eigenvalores de $A$ y $^{t}A$ son iguales.

Por otro lado, como los eigenvalores son las raíces de un polinomio de grado $n$, sabemos que hay a lo más $n$ soluciones. Entonces toda matriz tiene a lo más $n$ eigenvalores.

Esto también ocurre para transformaciones lineales en espacios de dimensión finita y lo podemos enunciar como sigue:

Corolario. Sea $V$ un espacio de dimensión finita sobre $F$ y $T:V\to V$ lineal. Entonces $T$ tiene a lo más $\dim V$ eigenvalores distintos.

Sin embargo, si el espacio no es de dimensión finita no podemos hacer tal afirmación. Si $V$ es el espacio de todas las funciones suaves (es decir con derivadas de todos los órdenes) de $\mathbb{R}$ en $\mathbb{R}$ y $T:V\to V$ es la función lineal que a cada función la manda en su derivada, entonces tenemos «muchos» eigenvalores. Haciendo esto más preciso, para cada real $r$ la función $e^{rx}$ es un eigenvector con eigenvalor $r$ puesto que

\begin{align*}
T(e^{rx})= \left(e^{rx}\right)’= re^{rx}.
\end{align*}

Así, tenemos al menos tantos eigenvalores como números reales. De hecho, estos son exactamente los eigenvalores de $T$, lo cual puede demostrarse mediante el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales, que estudiarás en otro momento de tu formación matemática.

Matrices triangulares superiores

Parte del interés de «triangular» matrices (es decir, encontrar una matriz similar que sea triangular superior) está dada por la facilidad de calcular sus eigenvalores. Exploramos esto mediante los siguientes dos problemas.

Problema. Sea $A=[a_{ij}]$ una matriz triangular superior en $M_n(F)$. Demuestra que los eigenvalores de $A$ son precisamente los elementos en la diagonal.

Solución. Ya establecimos que encontrar los valores propios se reduce a encontrar las raíces del polinomio $\det(\lambda I_n-A)$. Notamos que si $A$ es triangular superior, entonces $\lambda I_n-A$ también es triangular superior. Más aún, las entradas de la diagonal son simplemente $\lambda-a_{ii}$. Pero sabemos que el determinante de una matriz triangular superior es el producto de sus entradas diagonales. Así

\begin{align*}
\det(\lambda I_n -A)= (\lambda-a_{11})(\lambda-a_{22})\cdots (\lambda -a_{nn})
\end{align*}

cuyas raíces son exactamente los elementos $a_{ii}$.

$\square$

Podemos combinar el resultado anterior con otras propiedades de matrices triangulares superiores para resolver a mano algunos problemas que de entrada parecen complicados.

Problema. Encuentra los eigenvalores de $A^{3}$ donde

\begin{align*}
A=\begin{pmatrix} 1 & 2 &3 &4 \\ 0 & 5 & 6 & 7\\ 0 & 0 & 8 & 9\\ 0 &0 &0 & 10\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. En realidad no hace falta hacer el producto de matrices para encontrar la matriz $A^3$. Sabemos que el producto de dos matrices triangulares superiores es triangular superior y que de hecho las entradas de la diagonal son solo el producto de las entradas correspondientes. Es decir, si $[a_{ij}]$ y $[b_{ij}]$ son dos matrices triangulares superiores, las entradas de la diagonal son $a_{ii}b_{ii}$. En nuestro caso, las entradas de la diagonal son $1^3, 5^3, 8^3$ y $10^3$, y por el problema anterior, estos son precisamente los eigenvalores de $A^3$.

$\square$

Relaciones con independencia lineal y combinaciones polinomiales

El resultado principal de esta entrada es el siguiente teorema, que en particular afirma que si dos eigenvalores son distintos, sus eigenvectores son linealmente independientes. En realidad, el resultado es un poco más general y lo enunciamos a continuación

Teorema. Sean $\lambda_1,\dots, \lambda_k$ eigenvalores distintos dos a dos de una transformación lineal $T:V\to V$. Entonces los $\lambda_i$-eigenespacios están en posición de suma directa.

Demostración. Por definición, tenemos que demostrar que si tenemos una colección $\{v_i\}$ de vectores con $T(v_i)=\lambda_i v_i$ y $v_1+\dots+v_k=0$ entonces $v_1=\dots=v_k=0$. Procedemos por inducción sobre $k$.

Nuestro caso base es una tautología, pues si $k=1$ entonces tenemos que mostrar que si $v_1=0$ entonces $v_1=0$.

Asumamos que el resultado se cumple para $k-1$ y verifiquemos que se cumple para $k$. Supongamos que $v_1+\dots+v_k=0$. Aplicando $T$ de ambos lados de esta igualdad llegamos a

\begin{align*}
T(v_1+\dots+v_k)&= T(v_1)+\dots+T(v_k)\\
&=\lambda_1 v_1+\dots +\lambda _k v_k=0.
\end{align*}

Por otro lado, si multiplicamos a la igualdad $v_1+\dots+v_k=0$ por $\lambda_k$ de ambos lados llegamos a

\begin{align*}
\lambda_k v_1+\dots +\lambda _k v_k=0.
\end{align*}

Sustrayendo y factorizando estas dos igualdades se sigue que

\begin{align*}
(\lambda_k -\lambda_1)v_1+\dots +(\lambda_k-\lambda_{k-1})v_{k-1}=0.
\end{align*}

Esto es una combinación lineal de los primeros $k-1$ vectores $v_i$ igualada a cero. Luego, la hipótesis inductiva nos dice que $(\lambda_k-\lambda_i)v_i=0$ para todo $i=1,\dots, k-1$. Como $\lambda_k\neq \lambda_i$ entonces $\lambda_k-\lambda_i\neq 0$ y entonces $v_i=0$. Sustituyendo en la igualdad original, esto implica que $v_k=0$ inmediatamente.

$\square$

Enseguida veremos que si formamos un polinomio $P(T)$, entonces $P(\lambda)$ es un eigenvalor de $P(T)$ para cualquier eigenvalor $\lambda$ de $T$. Esto lo veremos en el siguiente problema.

Problema. Sea $\lambda$ un eigenvalor de $T:V\to V$ y sea $P$ un polinomio en una variable con coeficientes en $F$. Demuestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

Solución. Como $\lambda$ es un eigenvalor de $T$, existe $v$ un vector no cero tal que $T(v)=\lambda v$. Inductivamente, se cumple que $T^{k}(v)=\lambda^{k} v$. En efecto

\begin{align*}
T^{k+1}(v)&=T(T^{k}(v))\\
&= T(\lambda^{k} v)\\
&= \lambda^{k}T(v)\\
&=\lambda^{k+1}v.
\end{align*}

Usando esto, si $P(X)=a_n X^{n}+\dots+a_1 X+a_0$ se tiene que

\begin{align*}
P(T)(v)&= a_nT^{n}(v)+\dots +a_1 T(v)+ a_0 v\\
&= a_n\lambda^{n}v+\dots +a_1\lambda v+a_0v\\
&= (a_n\lambda^{n}+\dots +a_1\lambda +a_0)v\\
&= P(\lambda) v.
\end{align*}

Esto muestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

$\square$

Relación con el polinomio mínimo

Una consecuencia del problema previo es la siguiente proposición.

Proposición. Sea $A\in M_n(\mathbb{C})$ una matriz y $P\in \mathbb{C}[X]$ un polinomio tal que $P(A)=O_n$. Entonces cualquier eigenvalor $\lambda$ de $A$ satisface $P(\lambda)=0$.

Solución. Por el problema anterior, $P(\lambda)$ es un eigenvalor de $P(A)$, pero $P(A)=O_n$ y el único eigenvalor de la matriz cero es $0$. Luego $P(\lambda)=0$.

$\square$

De esto, podemos por fin establecer una conexión con el polinomio mínimo, que enunciamos en forma de teorema.

Teorema. Sea $T:V\to V$ una transformación lineal sobre un espacio de dimensión finita sobre un campo $F$. Los eigenvalores de $T$ son precisamente las raíces en $F$ del polinomio mínimo $\mu_T$.

Demostración. Dado que $\mu_T(T)=0$, el problema que acabamos de resolver nos dice que todos los eigenvalores de $T$ son raíces de $\mu_T$.

Conversamente, supongamos que existe $\lambda$ una raíz de $\mu_T$ que no es eigenvalor. Entonces la transformación $T-\lambda \operatorname{Id}$ es invertible. Como $\mu_T(\lambda)=0$, podemos factorizar la raíz y escribir $\mu_T(X)=(X-\lambda)Q(X)$ para algún $Q\in F[X]$. Dado que $\mu_T(T)=0$ deducimos que

\begin{align*}
(T-\lambda \operatorname{Id})\circ Q(T)=0.
\end{align*}

Recordando una vez más que $T-\lambda \operatorname{Id}$ es invertible, esta ecuación implica que $Q(T)=0$. Ya que $\mu_T$ es el polinomio mínimo, por una propiedad que mostramos anteriormente obtendríamos que $\mu_T$ divide a $Q$. Pero esto se contradice con la igualdad $\mu_T(X)=(X-\lambda)Q(X)$, que nos dice que $\mu_T$ tiene grado mayor. Esto concluye la demostración.

$\square$

Ejercicios

Terminamos con un par de ejercicios para repasar el material de estas secciones. El primero de entre ellos toma prestados nombres de la probabilidad (lo lo cuál puede sugerirte en qué tipo de texto te podrías encontrar con estas matrices).

Problema. Una matriz $A\in M_n(\mathbb{R})$ se dice estocástica si $a_{ij}\geq 0$ para todo $i,j\in \{1,\dots, n\}$ y $\sum_{j=1}^{n} a_{ij}=1$ para todo $i\in \{1,\dots, n\}$.

Demuestra que $1$ es un eigenvalor de cualquier matriz estocástica.

Solución. Consideremos el vector $v=(1,\dots, 1)$. Nota que

\begin{align*}
A\cdot v&= \begin{pmatrix}
a_{11} & a_{12} &\dots & a_{1n}\\
a_{21} & a_{22} & \dots & a_{2n}\\
\dots & \dots & \dots & \dots\\
a_{n1} & a_{n2} & \dots & a_{nn}
\end{pmatrix} \cdot \begin{pmatrix}
1\\
1\\
\vdots\\
1
\end{pmatrix}\\
&= \begin{pmatrix}
a_{11}+a_{12}+\dots+a_{1n}\\
a_{21}+a_{22}+\dots+a_{2n}\\
\vdots\\
a_{n1}+a_{n2}+\dots+a_{nn}
\end{pmatrix}\\
&=\begin{pmatrix}
1\\
1\\
\vdots\\
1\end{pmatrix}.
\end{align*}

Es decir $A\cdot v=v$, por lo que $v$ es un eigenvector de $A$ con eigenvalor asociado $1$.

$\square$

Problema. Sea $V$ el espacio de todos los polinomios con coeficientes reales. Sea $T:V\to V$ la transformación lineal dada por $P(X)\mapsto P(1-X)$. ¿Cuáles son los eigenvalores de $T$?

Solución. Observa que
\begin{align*}T^2(P)&=T\circ T(P)\\&= T(P(1-X))\\&= P(1-(1-X))\\&= P(X).\end{align*} Así $T^2=\operatorname{Id}$, o bien $T^2-\text{Id}=0$. Luego, el polinomio mínimo $\mu_T$ tiene que dividir al polinomio $X^2-1$. Sin embargo, los únicos factores de este polinomio son $X-1$ y $X+1$. Dado que $T\neq \pm \operatorname{Id}$ se tiene que $\mu_T(X)=X^2-1$. Por el último teorema que vimos, los eigenvalores de $T$ son precisamente las raíces de $\mu_T$ en $\mathbb{R}$, es decir $\pm 1$.

$\square$

Más adelante…

En las entradas subsecuentes iremos más a fondo en el concepto de polinomio característico, para eventualmente llegar al teorema de Cayley-Hamilton. Para eso tendremos que equiparnos de bastante teoría y repasar varias propiedades de dicho polinomio.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $V$ el espacio de polinomios con coeficientes reales de grado a lo más $n$. Encuentra los eigenvalores de la transformación $T:P(X)\mapsto P(X)-(1+X)P'(X)$.
  • Si $V$ es el espacio de polinomios con coeficientes reales, encuentra los eigenvalores de $T:P(X)\mapsto P(3X)$.
  • Sean $A,B$ matrices en $M_n(\mathbb{C})$ tales que $AB-BA=B$. Demuestra que para todo $k\geq 1$ se cumple que $AB^{k}-B^{k}A=kB^{k}$ y de esto deduce que $B$ es nilpotente: existe $m$ tal que $B^{m}=0$. Sugerencia: ¿Cuántos eigenvalores puede tener $T:X\mapsto AX-XA$?
  • ¿Puedes generalizar el último problema de la sección de matrices triangulares superiores?
  • Sea $A$ una matriz cuadrada con entradas reales. Supón que $\lambda$ es un real positivo que es eigenvalor de $A^2$. Demuestra que $\sqrt{\lambda}$ o $-\sqrt{\lambda}$ es un eigenvalor de $A$. ¿Sucederá a veces que sólo una de estas es eigenvalor?

Entradas relacionadas