Archivo de la etiqueta: polinomio característico

Álgebra Lineal II: Unicidad de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan y demostramos la existencia de dicha forma bajo ciertas hipótesis. Como corolario, quedó pensar cuál es la versión para matrices. En esta entrada enunciamos la versión para matrices (totalmente equivalente a la de transformaciones lineales) y nos enfocamos en mostrar la unicidad de la forma canónica de Jordan.

Unicidad de la forma canónica de Jordan

El siguiente teorema es totalmente análogo al enunciado en la entrada anterior. Recuerda que $\leq$ es un orden total fijo de $F$ (en $\mathbb{R}$, es el orden usual).

Teorema. Sea $A$ una matriz $M_n(F)$ cuyo polinomio característico $\chi_A(X)$ se divide en $F$. Entonces, existen únicos valores $\lambda_1\leq \ldots \leq \lambda_n$ en $F$ y únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} para los cuales $A$ es similar a la siguiente matriz de bloques de Jordan:

$$\begin{pmatrix} J_{\lambda_1,k_1} & 0 & \cdots & 0 \\ 0 & J_{\lambda_2,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{\lambda_d,k_d}\end{pmatrix}.$$

Usaremos esta versión para demostrar la unicidad, lo cual también implicará la unicidad para la versión de transformaciones lineales.

Mediante la demostración de existencia de la entrada anterior, llegamos a que si el polinomio característico de $A$ es

$$\chi_A(X)=(X-\lambda_1)^{m_1}(X-\lambda_2)^{m_2}\cdots(X-\lambda_r)^{m_r},$$

entonces $A$ es similar a una matriz conformada por matrices de bloques de Jordan $J_1,J_2,\ldots,J_r$, en donde cada $J_i$ es de tamaño $m_i$ y de bloques de Jordan de eigenvalor $\lambda_i$.

Si $A$ fuera similar a otra matriz $K$ de bloques de Jordan, podríamos agrupar por eigenvalores de los bloques $\kappa_1< \ldots < \kappa_s$ en matrices de bloques de Jordan tamaños $o_1,\ldots,o_s$, digamos $K_1,\ldots,K_s$. El polinomio característico de $K$ sería entonces

$$\chi_{K}(X)=(X-\kappa_1)^{o_1}(X-\kappa_2)^{o_2}\cdots(X-\kappa_s)^{o_s}.$$

Pero $K$ es similar a $A$, y entonces deben tener el mismo polinomio característico, así que conciden en raíces y multiplicidad. Esto demuestra que $r=s$ y como los $\lambda_i$ y los $\kappa_i$ están ordenados, también demuestra las igualdades $\lambda_i=\kappa_i$ y $m_i=o_i$ para todo $i\in\{1,\ldots,r\}.$

Sólo nos queda argumentar la igualdad entre cada $J_i$ y $K_i$ para $i\in\{1,\ldots,r\}$. Pero ambas una forma canónica de Jordan para la transformación nilpotente que se obtiene de restringir $T_{A-\lambda_i I}$ a $\ker(T_{A-\lambda_i I}^{m_i})$. Por la unicidad que demostramos para la forma canónica de Jordan para transformaciones nilpotentes, concluimos que $J_i=K_i$. Esto termina la demostración de la unicidad de la forma canónica de Jordan.

$\square$

Una receta para encontrar la forma canónica de Jordan

Ya con el teorema demostrado, ¿cómo juntamos todas las ideas para encontrar la forma canónica de Jordan de una matriz $A$ en $M_n(F)$ cuyo polinomio característico se divida en $F$? Podemos proceder como sigue.

  1. Encontramos el polinomio característico $\chi_A(X)$ y su factorización, digamos $$\chi_A(X)=(X-\lambda_1)^{m_1}(X-\lambda_2)^{m_2}\cdots(X-\lambda_r)^{m_r}.$$
  2. Nos enfocamos en encontrar las matrices de bloque de Jordan $J_i$ para cada eigenvalor $\lambda_i$. Sabemos que la matriz $J_i$ será de tamaño $m_i$.
  3. Para saber exactamente cuál matriz de bloques de Jordan es $J_i$, pensaremos en que tiene $b_1,b_2,\ldots,b_{m_i}$ bloques de Jordan de eigenvalor $\lambda_i$ de tamaños $1,2, \ldots,m_i$. Consideramos la matriz $A_i=A-\lambda_i I$. Los $b_1,\ldots,b_{m_i}$ son la solución al siguiente sistema de ecuaciones en las variables $x_1,\ldots,x_{m_i}$.
    \begin{align*}
    m_i&= 1\cdot x_1 + 2\cdot x_2 + 3 \cdot x_3 + \ldots + m_i \cdot x_{m_i}\\
    m_i-n+\text{rango}(A_i-\lambda_i I)&=0\cdot x_1 + 1\cdot x_2 + 2 \cdot x_3 + \ldots + (m_i-1) \cdot x_{m_i}\\
    m_i-n+\text{rango}({A_i-\lambda_i I}^2)&= 0 \cdot x_1 + 0 \cdot x_2 + 1 \cdot x_3 + \ldots + (m_i-2)\cdot x_{m_i}\\
    m_i-n+\text{rango}({A_i-\lambda_i I}^3)&= 0 \cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + (m_i-3)\cdot x_{m_i}\\
    &\vdots\\
    m_i-n+\text{rango}({A_i-\lambda_i I}^{m_i-1})&= 0\cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + 1 \cdot x_{m_i}.
    \end{align*}
  4. Juntamos todos los $J_i$ en una misma matriz y los ordenamos apropiadamente.

El paso número $3$ está motivado por lo que sabemos de las matrices nilpotentes, y es bueno que pienses por qué se estudia específicamente ese sistema de ecuaciones para cada eigenvalor $\lambda_i$ y multiplicidad $m_i$.

Ejemplo de obtener la forma canónica de Jordan

Veamos un ejemplo del procedimiento descrito en la sección anterior.

Ejemplo. Encontraremos la forma canónica de Jordan de la siguiente matriz: $$A=\begin{pmatrix}-226 & -10 & -246 & 39 & 246\\234 & 23 & 236 & -46 & -236\\-198 & -20 & -192 & 41 & 195\\-93 & 10 & -122 & 10 & 122\\-385 & -30 & -393 & 74 & 396\end{pmatrix}.$$

Con herramientas computacionales, podemos darnos cuenta de que el polinomio característico de esta matriz es $$\chi_A(X)=X^{5} – 11 X^{4} + 46 X^{3} – 90 X^{2} + 81 X- 27.$$

Este polinomio se puede factorizar como $$(X-1)^2(X-3)^3.$$ Así, la submatriz de bloques de Jordan $J_1$ de eigenvalor $1$ tendrá tamaño $2$ y la $J_3$ de eigenvalor $3$ tendrá tamaño $3$. Pero, ¿de qué tamaño son cada uno de los bloques de Jordan en cada una de estas matrices?

Para respondernos esto para $J_1$, notamos que sus bloques son de tamaño $1$ y $2$ solamente. Si hay $b_1$ bloques de tamaño $1$ y $b_2$ bloques de tamaño $2$, por la teoría desarrollada arriba tendremos:

\begin{align*}
b_1+2b_2&=2\\
b_2&=2-5+\text{rango}(A-I)=2-5+4=1.
\end{align*}

El rango de $A-I$ lo obtuvimos computacionalmente, pero recuerda que también puede ser obtenido con reducción gaussiana. Resolviendo el sistema, $b_2=1$ y entonces $b_1=0$. Concluimos que en $J_1$ hay un bloque de Jordan de tamaño $2$.

Para $J_3$, reciclemos las variables $b_i$ (para no introducir nuevas). Los bloques pueden ser de tamaño $1,2,3$. Supongamos que de estos tamaños respectivamente hay $b_1,b_2,b_3$ bloques. Los $b_i$ cumplen:

\begin{align*}
b_1+2b_2+3b_3&=3\\
b_2+2b_3&=3-5+\text{rango}(A-3I)=3-5+3=1\\
b_3&=3-5+\text{rango}((A-3I)^2)=3-5+2=0.
\end{align*}

Así, $b_3=0$, y en consecuencia $b_2=1$ y entonces $b_1=1$. Concluimos que $J_3$ tiene un bloque de tamaño $1$ y uno de tamaño $3$. Por lo tanto, la forma canónica de Jordan de $A$ es:

$$\begin{pmatrix} J_1 & 0 \\ 0 & J_3 \end{pmatrix} = \begin{pmatrix} J_{1,2} & 0 & 0 \\ 0 & J_{3,1} & 0 \\ 0 & 0 & J_{3,2} \end{pmatrix} = \begin{pmatrix}1 & 1 & 0 & 0 & 0\\0 & 1 & 0 & 0 & 0\\0 & 0 & 3 & 0 & 0\\0 & 0 & 0 & 3 & 1\\0 & 0 & 0 & 0 & 3\end{pmatrix}$$

$\triangle$

Otro problema sobre forma canónica de Jordan

La receta anterior funciona en general y da la forma canónica de Jordan. Esto es algo que probablemente en la práctica en aplicaciones no tendrás que hacer manualmente nunca, pues hay herramientas computacionales que te pueden ayudar. Sin embargo, es importante entender con profundidad el teorema y la receta de manera teórica, pues hay problemas conceptuales en los que no podrás usar herramientas computacionales. A continuación veremos un ejemplo.

Problema. Sea $A$ una matriz en $M_6(\mathbb{R})$ con polinomio característico $$\chi_A(X)=X^6-2X^4+X^2.$$

  • ¿Cuántas posibilidades hay para la forma canónica de Jordan de $A$?
  • Demuestra que si el rango de $A$ es $5$, entonces $A$ no es diagonalizable.

Solución. Podemos factorizar el polinomio característico de $A$ como sigue:

$$\chi_A(X)=X^2(X+1)^2(X-1)^2.$$

Así, la forma canónica de Jordan está conformada por una matriz de bloques de Jordan $J_0$ de eigenvalor $0$ y tamaño $2$; una $J_1$ de eigenvalor $1$ y tamaño $2$; y una $J_{-1}$ de eigenvalor $-1$ y tamaño $2$.

Cada $J_i$ tiene dos chances: o es un bloque de Jordan de tamaño $2$, o son dos bloques de Jordan de tamaño $1$. Así, en total tenemos $2\cdot 2 \cdot 2=8$ posibilidades.

Si $A$ es de rango $5$, entonces tendríamos en las cuentas de cantidad de bloques $b_1$ y $b_2$ para eigenvalor $0$ que

\begin{align*}
b_1+2b_2&=2\\
b_2&=2-6+\text{rango}(A)=2-6+5=1,
\end{align*}

de donde en $J_0$ tendría $1$ bloque de tamaño $2$ y ninguno de tamaño $1$. Si $A$ fuera diagonalizable, su diagonalización sería una forma canónica de Jordan donde para eigenvalor $0$ se tendrían $2$ bloques de tamaño $1$ y ninguno de tamaño $2$. Así, $A$ tendría dos formas canónicas de Jordan distintas, lo cual es imposible.

$\square$

Más adelante…

Con esta entrada terminamos de demostrar el teorema de la forma canónica de Jordan, uno de los teoremas más bonitos de álgebra lineal. ¿Te das cuenta de todo lo que utilizamos en su demostración? Forma matricial de transformaciones lineales, el teorema de Cayley-Hamilton, polinomio característico, subespacios estables, teoría de dualidad, sistemas de ecuaciones lineales, resultados auxiliares de polinomios, etc. Es un resultado verdaderamente integrador.

En la siguiente entrada, la última del curso, hablaremos de algunas de las consecuencias del teorema de la forma canónica de Jordan. Discutiremos cómo lo podemos utilizar para clasificar a las matrices por similaridad. Veremos una aplicación con respecto a una matriz y su transpuesta. También, esbozaremos un poco de por qué en cierto sentido el resultado no sólo vale para las matrices cuyo polinomio se divide sobre el campo, sino que para cualquier matriz. Con ello terminaremos el curso.

Tarea moral

  1. Calcula la forma canónica de Jordan $J$ de la matriz $$A=\begin{pmatrix} 1 & 0 & -3 \\ 1 & -1 & -6 \\ -1 & 2 & 5 \end{pmatrix}.$$ Además de encontrar $J$, encuentra de manera explícita una matriz invertible $P$ tal que $A=P^{-1}JP$.
  2. Calcula la forma canónica de Jordan de la matriz $$\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 2 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 2 \end{pmatrix}$$
  3. Explica y demuestra cómo obtener lo siguiente para una matriz de bloques de Jordan:
    • Su polinomio característico.
    • Su polinomio mínimo.
    • Su determinante.
    • Su traza.
    • Sus eigenespacios.
  4. Justifica con más detalle por qué la receta que se propone para calcular la forma canónica de Jordan en efecto funciona. Necesitarás varios de los argumentos que dimos en la entrada anterior.
  5. Demuestra que una matriz $A\in M_n(F)$ para la cual su polinomio característico se divide en $F$ es diagonalizable si y sólo si cada bloque de cada matriz de bloques de la forma canónica de Jordan tiene tamaño $1$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$. Si $\lambda \in \mathbb{R}$ es uno de estos eigenvalores, queremos poder encontrar vectores $\bar{v}\neq \bar{0}$ tales que $T(\bar{v})=\lambda \bar{v}$. Esto sucede si y sólo si $\lambda \bar{v}-T(\bar{v})=\bar{0}$, lo cual sucede si y sólo si $(\lambda \text{Id}-T)(\bar{v})=\bar{0}$, en donde $\text{Id}:\mathbb{R}^n\to \mathbb{R}^n$ es la transformación identidad de $\mathbb{R}^n$ en $\mathbb{R}^n$. Tenemos de esta manera que $\bar{v}$ es un eigenvector si y sólo si $\bar{v}\in \ker(\lambda\text{Id}-T)$.

Si existe $\bar{v}\neq \bar{0}$ tal que $\bar{v}\in \ker(\lambda \text{Id}-T)$; entonces $\ker(\lambda \text{Id}-T)\neq \{ \bar{0}\}$ por lo cual la transformación $\lambda \text{Id}-T$ no es invertible, pues no es inyectiva. Así, en ninguna base $\text{Mat}_\beta(\lambda \text{Id}-T)$ es invertible, y por tanto su determinante es $0$. Estos pasos son reversibles. Concluimos entonces que $\lambda\in \mathbb{R}$ es un eigenvalor de $T$ si y sólo si en alguna base $\beta$ se cumple que $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0.$ Esto motiva la siguiente definición.

Definición. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Llamamos a $\det(\text{Mat}_\beta(\lambda \text{Id} – T))$ al polinomio característico de $T$ en la base $\beta$.

Por la discusión anterior, los escalares que cumplen $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0$ son los eigenvalores $T$. Para obtener los correspondientes eigenvectores, basta con resolver $\text{Mat}_\beta(T)X=\lambda X$, lo cual es un sistema de ecuaciones en el vector de variables $X$. Las soluciones $X$ nos darán las representaciones matriciales de vectores propios $\bar{v}\in \mathbb{R}^n$ en la base $\beta$.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos $T:\mathbb{R}^{3}\rightarrow \mathbb{R}^{3}$ dada por $T(x,y,z)=(2x+z,y+x,-z)$. Calculemos su representación matricial con respecto a la base canónica $\beta$. Para ello, realizamos las siguientes evaluaciones:
\begin{align*}
T(1,0,0)&=(2,1,0)\\
T(0,1,0)&=(0,1,0)\\
T(0,0,1)&=(1,0,-1),
\end{align*}

de donde: $$\text{Mat}_\beta=\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix}.$$

Calculando el polinomio característico obtenemos: \[ det\begin{pmatrix} \lambda-2 & 0 & -1 \\ -1 & \lambda-1 & 0 \\ 0 & 0 & \lambda+1 \end{pmatrix}= (\lambda-2)(\lambda-1)(\lambda+1). \]

Las raíces de $(\lambda-2)(\lambda-1)(\lambda+1)$ son $\lambda_{1}=2$, $\lambda_{2}=1$ y $\lambda_{3}=-1$. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor $\lambda=2$. Para que $(x,y,z)$ represente a un eigenvector en la base canónica, debe pasar que:

\[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = 2\begin{pmatrix} x \\ y \\ z \end{pmatrix},\]

lo cual sucede si y sólo si:

\[\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} – 2\begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\left[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} – 2\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\right] \begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\begin{pmatrix} 0 & 0 & 1 \\ 1 & -1& 0 \\ 0 & 0 & -3 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

\[\begin{pmatrix} 1 & -1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

En esta forma es sencillo leer las soluciones. Tenemos que $z$ es variable pivote con $z=0$, que $y$ es variable libre, y que $x$ es variable pivote dada por $x=y$. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor $2$ son de la forma $(y,y,0)$, es decir $E_2=\{(y,y,0): y \in \mathbb{R}\}$.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores $1$ y $-1$.

$\triangle$

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ una transformación lineal y sean $\beta_1=\{ \bar{e}_{1}, \dots , \bar{e}_{n}\}$, $\beta_2=\{ \bar{u}_{1}, \dots , \bar{u}_{n}\}$ dos bases (ordenadas) de $\mathbb{R}^n$. Supongamos que:

\begin{align*}
A&=\text{Mat}_{\beta_1}(T)=[a_{ij}]\\
B&=\text{Mat}_{\beta_2}(T)=[b_{ij}].
\end{align*}

Por cómo se construyen las matrices $A$ y $B$, tenemos que:

\begin{align*}
T(\bar{e}_j)&=\sum_{i=1}^n a_{ij} \bar{e}_i\quad\text{para $j=1,\ldots,n$}\\
T(\bar{u}_k)&=\sum_{j=1}^n b_{jk} \bar{u}_j\quad\text{para $k=1,\ldots,n$}.
\end{align*}

Como $\beta_{1}$ es base, podemos poner a cada un de los $\bar{u}_k$ de $\beta_{2}$ en términos de la base $\beta_{1}$ mediante combinaciones lineales, digamos:

\begin{equation}
\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}
\label{eq:valor-u}
\end{equation}

en donde los $c_{jk}$ son escalares para $j=1,\ldots, n$ y $k=1,\ldots,n$. La matriz $C$ de $n\times n$, con entradas $c_{jk}$ representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que $CB=AC$. Para ello, tomaremos una $k$ en $[n]$ y expresaremos $T(\bar{u}_k)$ de dos formas distintas.

Por un lado, usando \eqref{eq:valor-u} y por como es cada $T(\bar{e}_k)$ en la base $\beta_{1}$ tenemos que:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^n c_{jk} T(\bar{e}_j)\\
&=\sum_{j=1}^n c_{jk} \sum_{i=1}^n a_{ij} \bar{e}_i\\
&=\sum_{j=1}^n \sum_{i=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n a_{ij} c_{jk}\right) \bar{e}_i.
\end{align*}

Por otro lado, usando $\eqref{eq:valor-u}$ y por como es cada $T(\bar{u}_k)$ en la base $\beta_{2}$:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^nb_{jk} \bar{u}_j\\
&=\sum_{j=1}^n b_{jk} \sum_{i=1}^{n}c_{ji}\bar{e}_{j} \\
&=\sum_{j=1}^n \sum_{i=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n c_{ij} b_{jk} \right) \bar{e}_i.
\end{align*}

Comparemos ambas expresiones para $T(\bar{u}_k)$. La primera es una combinación lineal de los $\bar{e}_i$ y la segunda también. Como $T(\bar{u}_k)$ tiene una única expresión como combinación lineal de los $\bar{e}_i$, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada $i$ se cumple:

$$\sum_{j=1}^n a_{ij} c_{jk}=\sum_{j=1}^n c_{ij} b_{jk}.$$

Pero esto precisamente nos dice que la entrada $(i,k)$ de la matriz $AC$ es igual a la entrada $(i,k)$ de la matriz $CB$. Con esto concluimos que $AC=CB$, como queríamos.

En resumen, obtuvimos que para dos matrices $A$ y $B$ que representan a la misma transformación lineal, existe una matriz invertible $C$ tal que: $B=C^{-1}AC$. Además $C$ es la matriz con entradas dadas por \eqref{eq:valor-u}.

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices $A$ y $B$ se llamarán similares (o semejantes), cuando existe otra matriz $C$ invertible tal que $B=C^{-1}AC$.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean $A$ y $B$ matrices similares. Entonces $A$ y $B$ representan a una misma transformación lineal $T$, quizás bajo distintas bases.

Demostración: Supongamos que las matrices $A$ y $B$ son similares con $B=C^{-1}AC$, donde las matrices $A$, $B$, $C$ están dadas por entradas $A=[a_{ij}]$ $B=[b_{ij}]$, $C=[c_{jk}]$. Tomemos una base ordenada $\beta=\{\bar{e}_{1}, \dots ,\bar{e}_{n}\}$ de $\mathbb{R}^n$. Consideremos la transformación lineal $T\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^n)$ dada por $$T(\bar{e}_j)=\sum_{i=1}^n a_{ij} \bar{e}_i.$$

De esta manera $T$ tiene forma matricial $A$ en la base $\beta$.

Construyamos ahora una nueva base ordenada de $\mathbb{R}^n$ dada por vectores $\bar{u}_k$ para $k=1,\ldots,n$ construidos como sigue:

$$\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}.$$

Como $C$ es invertible, en efecto tenemos que $\beta’:=\{\bar{u}_1,\ldots,\bar{u}_n\}$ también es base de $\mathbb{R}^n$. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de $T$ en la base $\beta’$ será $B$.

Así, hemos exhibido una transformación $T$ que en una base tiene representación $A$ y en otra tiene representación $B$.

$\square$

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices $A$ y $B$ en $M_n(\mathbb{R})$ son similares si y sólo si representan a una misma transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal en un espacio sobre $\mathbb{R}$ de dimensión finita. Sean $\beta$ y $\beta’$ bases de $\mathbb{R}^n$. Entonces se obtiene lo mismo calculando el polinomio característico de $T$ en la base $\beta$, que en la base $\beta’$.

Demostración. Tomemos $A=\text{Mat}_{\beta}(T)$ y $B=\text{Mat}_{\beta’}(T)$. Como $A$ y $B$ representan a la misma transformación lineal $T$, entonces son similares y por lo tanto existe $C$ invertible con $B=C^{-1}AC$.

Para encontrar el polinomio característico de $T$ en la base $\beta$, necesitamos $\Mat_{\beta}(\lambda\text{Id}-T)$, que justo es $\lambda I -A$. Así mismo, en la base $\beta’$ tenemos $\lambda I – B$. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

\begin{align*}
\det(\lambda I -B) &= \det (\lambda C^{-1}C – C^{-1} A C)\\
&=\det(C^{-1}(\lambda I – A) C)\\
&=\det(C^{-1})\det(\lambda I – A) \det(C)\\
&=\det(C^{-1})\det(C)\det(\lambda I-A)\\
&=\det(I)\det(\lambda I-A)\\
&=\det(\lambda I-A).
\end{align*}

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con $\det$, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

$\square$

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Supongamos que el polinomio característico de $T$ tiene raíces distintas $\lambda_{1}, \dots ,\lambda_{n}$. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector $\bar{u}_i$ para cada eigenvalor $\lambda_i$, entonces $\bar{u}_{1},\dots ,\bar{u}_{n}$ forman una base $\beta$ para $\mathbb{R}^n$.
  2. Con dicha base $\beta$, se cumple que $\text{Mat}_\beta(T)$ es una matriz diagonal con entradas $\lambda_{1},\dots ,\lambda_{n}$ en su diagonal.
  3. Si $\beta’$ es otra base de $\mathbb{R}^n$ y $A=\text{Mat}_{\beta’}(T)$, entonces $\text{Mat}_\beta(T) = C^{-1}AC$ para una matriz invertible $C$ con entradas dadas por \eqref{eq:valor-u}.

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación $T$: 1) la transformamos en una matriz $A$, 2) encontramos el polinomio característico mediante $\det(\lambda I – A)$, 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones $(\lambda I – A) X=0$ dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de $\mathbb{R}^n$ a sí mismo sea diagonalizable es que tenga $n$ eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de $\mathbb{R}^{n}$ a $\mathbb{R}^{m}$ son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal $T(x,y,z)=(2x+z,y+x,-z)$ de $\mathbb{R}^3$ en $\mathbb{R}^3$. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base $\{(1,1,1),(1,2,3),(0,1,1)\}$ de $\mathbb{R}^3$. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si $A$ y $B$ son dos representaciones matriciales de una misma transformación lineal $T$, entonces $\det(A)=\det(B)$.
  4. Sea $T:\mathbb{R}^{3}\to \mathbb{R}^{3}$ dada por $T(x,y,z)=(x+y+z,x,y)$. Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base $\beta$ en la cual $\text{Mat}_{\beta}(T)$ es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas

Álgebra Lineal II: Matrices y transformaciones nilpotentes

Por Elizabeth Chalnique Ríos Alvarado

Introducción

Hemos estudiado varias clases importantes de matrices y transformaciones lineales: diagonales, triangulares superiores, simétricas, ortogonales, normales, etc. Es momento de aprender sobre otro tipo fundamental de matrices y transformaciones lineales: las transformaciones nilpotentes. Nos hemos encontrado con estas matrices ocasionalmente a lo largo del primer curso de álgebra lineal y de éste. Ahora las trataremos de manera más sistemática.

Matrices y transformaciones nilpotentes

En la última unidad estuvimos trabajando únicamente en $\mathbb{R}$ o en $\mathbb{C}$. Los resultados que presentaremos a continuación son válidos para espacios vectoriales sobre cualquier campo $F$.

Definición. Sea $A$ una matriz en $M_n(F)$. Diremos que $A$ es nilpotente si $A^m = O_n$ para algún entero positivo $m$. Al menor entero positivo $m$ para el cual suceda esto le llamamos el índice de $A$.

Ejemplo 1. La matriz $A=\begin{pmatrix} 3 & -9\\ 1 & -3\end{pmatrix}$ es nilpotente. En efecto, tenemos que $A^2=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$. Como $A^1\neq 0$, entonces el índice de $A$ es igual a dos.

$\triangle$

Tenemos una definición correspondiente para transformaciones lineales.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$ y sea $T: V \to V$ una transformación lineal. Diremos que que $T$ es nilpotente si $T^m$ es la transformación lineal cero para algún entero positivo $m$. Al menor entero positivo $m$ para el cual suceda esto le llamamos el índice de $T$.

Recuerda que por definición $T^m$ es la transformación $T$ compuesta consigo misma $m$ veces.

Ejemplo 2. Si estamos trabajando en el espacio $V=\mathbb{R}_n[x]$ de polinomios reales de grado a lo más $n$, entonces la transformación derivada $D:V\to V$ para la cual $D(p)=p’$ es una transformación lineal nilpotente. En efecto, tras aplicarla $n+1$ veces a cualquier polinomio de grado a lo más $n$ obtenemos al polinomio $0$. Su índice es exactamente $n+1$ pues derivar $n$ veces no anula al polinomio $x^n$ de $V$.

Si estuviéramos trabajando en el espacio vectorial $\mathbb{R}[x]$ de todos los polinomios reales, entonces la transformación derivada ya no sería nilpotente. En efecto, para cualquier $m$ siempre existe un polinomio tal que al derivarlo $m$ veces no se anula.

$\triangle$

Bloques de Jordan de eigenvalor cero

Hay una familia importante de matrices nilpotentes.

Definición. Sea $F$ un campo. El bloque de Jordan de eigenvalor $0$ y tamaño $k$ es la matriz $J_{0,k}$ en $M_k(F)$ cuyas entradas son todas cero, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, $J_{0,k}=[a_{ij}]$ con $$a_{ij}=\begin{cases} 1 & \text{si $j=i+1$}\\ 0 & \text{en otro caso.} \end{cases}$$

También podemos expresarlo de la siguiente manera:

$$J_{0,k}=\begin{pmatrix} 0 & 1 & 0 & \cdots & 0 & 0 \\ 0 & 0 & 1 & \cdots & 0 & 0 \\ 0 & 0 & 0 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & 0 & 1 \\ 0 & 0 & 0 & \cdots & 0 & 0 \end{pmatrix},$$ en donde estamos pensando que la matriz es de $k\times k$.

Ejemplo 3. A continuación tenemos la matriz $J_{0,4}$:

\begin{align*}
J_{0,4}=\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

Esta es una matriz nilpotente. En efecto, haciendo las cuentas de matrices correspondientes tenemos que:

\begin{align*}
J_{0,4}^2&= \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

Luego que

\begin{align*}
J_{0,4} ^3&= J_{0,4} J_{0,4}^2\\
&=\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix} \\
&=\begin{pmatrix} 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

Y finalmente que

\begin{align*}
J_{0,4}^4&= J_{0,4} J_{0,4}^3\\
&=\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix} 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix} \\
&=\begin{pmatrix} 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

De esta manera, hay una potencia de $ J_{0,4}$ que se hace igual a cero. Como la mínima potencia es $4$, entonces $ J_{0,4} $ es nilpotente de índice $4$. Observa cómo la diagonal de unos «se va recorriendo hacia arriba a la derecha».

$\triangle$

Todos los bloques de Jordan son nilpotentes

El siguiente resultado generaliza el ejemplo anterior y nos da una mejor demostración, interpretando a la matriz como transformación lineal.

Teorema. La matriz $J_{0,k}$ es nilpotente de índice $k$.

Demostración. Veamos qué hace la matriz $J_{0,k}$ cuando la multiplicamos por un vector: $$J_{0,k}\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_{k-1} \\ x_k \end{pmatrix}= \begin{pmatrix} 0 & 1 & 0 & \cdots & 0 & 0 \\ 0 & 0 & 1 & \cdots & 0 & 0 \\ 0 & 0 & 0 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & 0 & 1 \\ 0 & 0 & 0 & \cdots & 0 & 0 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_{k-1} \\ x_k \end{pmatrix} = \begin{pmatrix} x_2 \\ x_3 \\ x_4 \\ \vdots \\ x_k \\ 0 \end{pmatrix}.$$

En otras palabras, la matriz $J_{0,k}$ «recorre» las entradas del vector hacia arriba «empujando» con ceros desde abajo. Al hacer esto $k$ veces, claramente llegamos al vector $0$, así, $J_{0,k}^k$ está asociada a la transformación lineal cero y por lo tanto es la matriz $O_k$. Y $J_{0,k}^{k-1}$ no es la matriz cero pues al aplicarla en $e_k$, el $k$-ésimo vector de la base canónica de $F^k$ tenemos por las mismas ideas de arriba que $J_{0,k}^{k-1}e_n=e_1$.

$\square$

Una caracterización de matrices y transformaciones nilpotentes

El siguiente resultado nos da algunas equivalencias para que una transformación sea nilpotente.

Proposición. Sea $A\in M_n(F)$ una matriz. Todo lo siguiente es equivalente:

  1. $A$ es nilpotente.
  2. El polinomio mínimo de $A$ es de la forma $\mu_A(X)=X^k$.
  3. El polinomio característico de $A$ es $\chi_A(X)=X^n$.

Demostración. $1)\Rightarrow 2).$ Si $A$ es nilpotente, entonces hay un entero $m$ tal que $A^m=O_n$. Entonces, el polinomio $p(X)=X^m$ anula a la matriz $A$. Pero el polinomio mínimo divide a cualquier polinomio que anule a $A$, entonces $\mu_A(X)|X^m$, de donde $\mu_A(X)$ debe ser también de la forma $X^k$. De hecho, no puede suceder que $k<m$ pues en dicho caso como el polinomio mínimo anula a la matriz, tendríamos que $A^k=O_n$, pero esto es imposible pues $m$ es el menor entero tal que $A^m=O_n$. Así, en este caso $k$ es justo el índice de $A$.

$2) \Rightarrow 3).$ Supongamos que el polinomio mínimo de $A$ es de la forma $\mu_A(X)=X^k$. Como el polinomio mínimo anula a la matriz tenemos que $A^k=O_n$. Tomemos un escalar $\lambda$ en $F$ fijo. Tenemos que:

\begin{align*}
\lambda^k I_n &= \lambda^k I_n – A^{k}\\&= (\lambda I_n – A)(\lambda^{k-1}I_n+\lambda^{k-2}A + \ldots + \lambda A^{k-2} + A^{k-1})
\end{align*}

Al tomar determinante de ambos lados y usando en la derecha la multiplicatividad del determinante, tenemos:

$$\det(\lambda^k I_n) = \det(\lambda I_n – A)\det(\lambda^{k-1}I_n+\lambda^{k-2}A + \ldots + \lambda A^{k-2} + A^{k-1}).$$

Del lado izquierdo tenemos $\det(\lambda^k I_n)=\lambda^{nk}$. Del lado derecho tenemos $\chi_A(\lambda)$ multiplicado por otra expresión polinomial en $\lambda$, digamos $P(\lambda)$. Como esto se vale para todo escalar $\lambda$, se vale polinomialmente que $X^{nk}=\chi_A(X)P(X)$. Así, $\chi_A(X)|X^{nk}$ y como el polinomio característico es de grado exactamente $n$, obtenemos que $\chi_A(X)=X^n$.

$3) \Rightarrow 1).$ Si el polinomio característico de $A$ es $\chi_A(X)=X^n$, entonces por el teorema de Cayley-Hamilton tenemos que $A^n=O_n$, de donde $A$ es nilpotente.

$\square$

Como consecuencia del teorema anterior, obtenemos los siguientes resultados.

Corolario. Si $A$ es una matriz nilpotente en $M_n(F)$, entonces $A^n=O_n$ y por lo tanto el índice de $A$ es menor o igual a $n$. Análogamente, si $T:V\to V$ es nilpotente y $\dim(V)=n$, entonces el índice de $T$ es menor o igual a $n$.

Corolario. Si $A$ es una matriz nilpotente en $M_n(F)$, entonces su traza, su determinante y cualquier eigenvalor son todos iguales a cero.

Más adelante…

En esta entrada definimos a las matrices y transformaciones nilpotentes. También enunciamos algunas de sus propiedades. En la siguiente entrada enunciaremos nuestra primer versión del teorema de Jordan, en donde nos enfocaremos únicamente en lo que nos dice para las matrices nilpotentes. Esto servirá más adelante como uno de los peldaños que usaremos para demostrar el teorema de Jordan en general.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz nilpotente de índice $2$ en $M_7(\mathbb{R})$. En general, para cualquier entero positivo $n$ y cualquier entero $k$ con $1\leq k \leq n$, da una forma de construir una matriz nilpotente de índice $n$ en $M_n(\mathbb{R})$.
  2. Encuentra una matriz con determinante cero y que no sea una matriz nilpotente. Encuentra una matriz con traza cero y que no sea una matriz nilpotente.
  3. Sea $V$ un espacio vectorial de dimensión finita $n$. Demuestra que las siguientes afirmaciones son equivalentes:
    1. Una transformación $T:V\to V$ es nilpotente de índice $k$.
    2. Alguna forma matricial de $T$ es nilpotente de índice $k$.
    3. Todas las formas matriciales de $T$ son nilpotentes de índice $k$.
    4. $T^n$ es la transformación lineal $0$.
  4. Demuestra los dos corolarios al final de la entrada. Como sugerencia para el segundo, recuerda que la traza, determinante y los eigenvalores de una matriz están muy relacionados con su polinomio característico.
  5. Prueba que la única matriz nilpotente diagonalizable en $M_n(F)$ es $O_n$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz $A$ en $M_n(F)$ tiene polinomio característico $$\chi_A(x)=x^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0.$$ Como $a_0=\det(A)$, si $a_0=0$ entonces la matriz no es invertible. Supongamos entonces que $a_0\neq 0$. Por el teorema de Cayley-Hamilton tenemos que $$A^n+a_{n-1}A^{n-1}+\ldots+a_1A+a_0I_n=O_n.$$ De aquí podemos despejar la matriz identidad como sigue:

\begin{align*}
I_n&=-\frac{1}{a_0}\left( A^n+a_{n-1}A^{n-1}+\ldots+a_1A \right)\\
&=-\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right) A.
\end{align*}

Estos cálculos muestran que la inversa de $A$ es la matriz $$ -\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right).$$

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz $$A=\begin{pmatrix} 2 & 2 & 0 \\ 0 & -1 & 0 \\ 1 & 1 & 1 \end{pmatrix}.$$ Su polinomio característico es $\lambda^3-2\lambda^2 – \lambda +2$. Usando la fórmula de arriba, tenemos que

$$A^{-1}=-\frac{1}{2}(A^2-2A-I).$$

Necesitamos entonces $A^2$, que es:

$$A^2=\begin{pmatrix} 4 & 2 & 0 \\ 0 & 1 & 0 \\ 3 & 2 & 1 \end{pmatrix}.$$

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

$$A^{-1}=\begin{pmatrix} \frac{1}{2} & 1 & 0 \\ 0 & -1 & 0 \\ -\frac{1}{2} & 0 & 1\end{pmatrix}.$$

Puedes verificar que en efecto esta es la inversa de $A$ realizando la multiplicación correspondiente.

$\triangle$

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si $A$ es una matriz con entradas en los enteros y determinante $1$ ó $-1$, entonces $A^{-1}$ tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor $\lambda$ ya vimos que $\lambda$ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor $x-\lambda$ en el polinomio mínimo para cada eigenvalor $\lambda$.

Ejemplo 1. Encontramos el polinomio mínimo de la siguiente matriz:

$$B=\begin{pmatrix} 2 & 0 & 4 \\ 3 & -1 & -1 \\0 & 0 & 2 \end{pmatrix}.$$

Una cuenta estándar muestra que el polinomio característico es $(x-2)^2(x+1)$. El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor $(x-2)$ y un factor $(x+1)$. Sólo hay dos polinomios con esas condiciones: $(x-2)(x+1)$ y $(x-2)^2(x+1)$. Si $(x-2)(x+1)$ anula a $B$, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

\begin{align*}
(B-2I_3)(B+I_3)&=\begin{pmatrix}0 & 0 & 4 \\ 3 & -3 & -1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 3 & 0 & 4 \\ 3 & 0 & -1 \\ 0 & 0 & 3 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 12 \\ 0 & 0 & 12 \\ 0 & 0 & 0 \end{pmatrix}.
\end{align*}

Así, $(x-2)(x+1)$ no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico $(x-2)^2(x+1)$.

$\triangle$

Ejemplo 2. Consideremos la matriz $C=\begin{pmatrix} 3 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix}$. Su polinomio característico es $(x-3)^3$. Así, su polinomio mínimo es $x-3$, $(x-3)^2$ ó $(x-3)^3$. Nos damos cuenta rápidamente que $x-3$ sí anula a la matriz pues $A-3I_3=O_3$. De este modo, el polinomio mínimo es $x-3$.

$\triangle$

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en $M_n(\mathbb{R})$ que son su propia inversa? La condición algebraica es $A^2=I_2$. Si el polinomio característico de $A$ es $x^2+bx+c$, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que $O_2=A^2+bA+cI_2=bA+(c+1)I_2$. De aquí tenemos un par de casos:

  • Si $b\neq 0$, podemos despejar a $A$ como $A=-\frac{c+1}{b}I_2$, es decir $A$ debe ser un múltiplo de la identidad. Simplificando la notación, $A=xI_2$. Así, la condición $A^2=I_2$ se convierte en $x^2I_2=I_2$, de donde $x^2=1$ y por lo tanto $x=\pm 1$. Esto nos da las soluciones $A=I_2$ y $A=-I_2$.
  • Si $b=0$, entonces $O_2=(c+1)I_2$, de donde $c=-1$. De este modo, el polinomio característico es $x^2-1=(x+1)(x-1)$. Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$, y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz $\begin{pmatrix}-3 & 1 & 0 & 0 \\ 0 & -3 & 0 & 0 \\ 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 2\end{pmatrix}$.
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & -1 & 2\\ 2 & 2 & 1 \end{pmatrix}.$$
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es $1$ ó $-1$.
  4. ¿Cómo son todas las matrices en $M_2(\mathbb{R})$ tales que $A^2=A$?
  5. ¿Cómo son todas las matrices en $M_3(\mathbb{R})$ de determinante $0$ tales que $A^3=O_3$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Ecuaciones Diferenciales I: Valores y vectores propios para resolver sistemas lineales

Por Omar González Franco

En la vida real, te lo aseguro, no hay algo como el álgebra.
– Fran Lebowitz

Introducción

Ya hemos dado inicio con el desarrollo de métodos de resolución de sistemas lineales de primer orden. En la entrada anterior desarrollamos el método de eliminación de variables que, a pesar de ser muy limitado, es un método sencillo y práctico para resolver sistemas con dos ecuaciones diferenciales lineales de primer orden.

Debido a que un sistema lineal puede ser visto como una ecuación matricial los resultados de álgebra lineal sobre valores y vectores propios de matrices pueden ser aplicados aquí. En esta entrada daremos un breve repaso sobre estos conceptos y veremos cómo es que estos resultados nos pueden ayudar a determinar la solución general de algunos sistemas de ecuaciones diferenciales.

La teoría que desarrollaremos a continuación es aplicable a sistemas lineales homogéneos con coeficientes constantes.

Sistemas lineales homogéneos

Un sistema lineal homogéneo con coeficientes constantes es de la forma

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}y_{1} + a_{12}y_{2} + \cdots + a_{1n}y_{n} \\
y_{2}^{\prime}(t) &= a_{21}y_{1} + a_{22}y_{2} + \cdots + a_{2n}y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}y_{1} + a_{n2}y_{2} + \cdots + a_{nn}y_{n} \label{1} \tag{1}
\end{align*}

Si $\mathbf{A}$ es la matriz de $n \times n$ con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

entonces el sistema lineal a resolver es

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

En la segunda entrada de esta unidad vimos que la solución general del sistema lineal homogéneo

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}e^{0t} + c_{2} \begin{pmatrix}
1 \\ 1 \\ 0
\end{pmatrix}e^{2t} + c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}e^{3t}$$

Y en la entrada anterior vimos que la solución del sistema lineal homogéneo

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y}$$

es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t}$$

Aunque para el primer caso aún no sabemos cómo obtener esa solución lo que sabemos es que efectivamente corresponde a la solución general del sistema homogéneo. Notemos que cada vector solución es de la forma

$$\mathbf{Y}_{i} = \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix}e^{\lambda_{i}t}, \hspace{1cm} i = 1, 2 ,3$$

donde $k_{i}$ y $\lambda_{i}$, $i = 1, 2, 3$, son constantes. Lo mismo para el segundo caso, con $k_{i}$, $\lambda_{i}$, $i = 1, 2$, constantes. Esta particularidad nos hace preguntarnos si siempre es posible hallar una solución de la forma

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t} \label{4} \tag{4}$$

como solución general del sistema lineal (\ref{3}).

La respuesta es que sí, pero antes de continuar con nuestro desarrollo nos parece pertinente repasar brevemente algunos conceptos de Álgebra Lineal, en particular el de valores y vectores propios.

Valores y vectores propios

Sea $T: V \rightarrow W$ una transformación lineal, en álgebra lineal muchas veces resulta útil encontrar un vector $v$ en el espacio vectorial $V$ tal que $T\mathbf{v}$ y $\mathbf{v}$ sean paralelos, es decir, se busca un vector $\mathbf{v}$ y un escalar $\lambda$, tal que

$$T\mathbf{v} = \lambda \mathbf{v} \label{5} \tag{5}$$

Recordemos que si $\mathbf{v} \neq \mathbf{0}$ y $\lambda$ satisfacen la ecuación (\ref{5}), entonces $\lambda$ se denomina un valor característico o valor propio de $T$ y $\mathbf{v}$ un vector característico o vector propio de $T$ correspondiente al valor propio $\lambda$.

También recordemos que si $V$ tiene dimensión finita, entonces la transformación $T$ se puede representar por una matriz $\mathbf{A}_{T}$, de manera que se pueden definir los valores y vectores propios de esta matriz.

Denotaremos con $M_{n \times n}$ al conjunto de todas las matrices cuadradas de $n \times n$ con componentes reales y constantes.

Como nota interesante, los valores y vectores propios también son conocidos como valores y vectores característicos o eigenvalores y eigenvectores, donde el término eigen es un término alemán que significa propio. En este curso los llamaremos valores y vectores propios.

Recordemos nuevamente el concepto de matriz inversa.

Para el caso especial $\mathbf{A} = \mathbf{I}$, con $\mathbf{I}$ la matriz identidad, se tiene que para cualquier vector $\mathbf{v} \in V$

$$\mathbf{Av} = \mathbf{Iv} = \mathbf{v} \label{8} \tag{8}$$

Así, el único valor propio de $\mathbf{A}$ es $1$ y todo $\mathbf{v} \neq \mathbf{0} \in V$ es un vector propio de $\mathbf{I}$.

Otra observación interesante es que cualquier múltiplo de un vector propio de $\mathbf{A}$ es también un vector propio de $\mathbf{A}$, con el mismo valor propio.

$$\mathbf{A}(c \mathbf{v}) = c \mathbf{Av} = c \lambda \mathbf{v} = \lambda (c \mathbf{v}) \label{9} \tag{9}$$

Ecuación característica

Supongamos que $\lambda $ es un valor propio de $A$, entonces existe un vector diferente de cero

$$\mathbf{v} = \begin{pmatrix}
v_{1} \\ v_{2} \\ \vdots \\ v_{n}
\end{pmatrix} \neq \mathbf{0}$$

tal que

$$\mathbf{Av} = \lambda \mathbf{v} = \lambda \mathbf{Iv} \label{10} \tag{10}$$

Reescribiendo esto, se tiene

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{v} = \mathbf{0} \label{11} \tag{11}$$

Si $A$ es una matriz de $n \times n$, la ecuación anterior corresponde a un sistema homogéneo de $n$ ecuaciones con las incógnitas $v_{1}, v_{2}, \cdots, v_{n}$. Como se ha supuesto que $ \mathbf{v} \neq \mathbf{0}$, entonces el sistema no tiene solución trivial y por tanto el determinante de (\ref{11}) debe ser cero.

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{12} \tag{12}$$

De manera equivalente, si ocurre que $|\mathbf{A} -\lambda \mathbf{I}| \neq 0$, entonces la única solución a (\ref{11}) es la trivial $\mathbf{v} = \mathbf{0}$, lo que significa que $\lambda$ no es un valor propio de $A$.

Estos resultados quedan establecidos en el siguiente teorema.

La relación (\ref{13}) es muy importante, tanto que merece nombres particulares.

El polinomio $P(\lambda )$ es del mismo grado que el número de filas y columnas de la matriz $\mathbf{A}$. Si $\mathbf{A} \in M_{n \times n}$, entonces $P(\lambda)$ es un polinomio de grado $n$ en $\lambda$. Por ejemplo, si

$$\mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} \label{14} \tag{14}$$

entonces,

$$\mathbf{A} -\lambda \mathbf{I} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} -\begin{pmatrix}
\lambda & 0 \\ 0 & \lambda
\end{pmatrix} = \begin{pmatrix}
a -\lambda & b \\ c & d -\lambda
\end{pmatrix} \label{15} \tag{15}$$

y

\begin{align*}
P(\lambda ) &= |\mathbf{A} -\lambda \mathbf{I}| \\
&= (a -\lambda)(d -\lambda) -bc \\
&= \lambda^{2} -(a + d) \lambda + (ad -bc) \label{16} \tag{16}
\end{align*}

La matriz es de $2 \times 2$ y el polinomio característico es un polinomio de grado $2$.

El teorema fundamental del álgebra nos dice que cualquier polinomio de grado $n$ con coeficientes reales o complejos tiene exactamente $n$ raíces contando multiplicidades y dado que cualquier valor propio de $\mathbf{A}$ es una raíz de la ecuación característica de $\mathbf{A}$, se concluye que, contando multiplicidades, toda matriz $\mathbf{A} \in M_{n \times n}$ tiene exactamente $n$ valores propios.

Realicemos dos ejemplos sencillos en donde determinemos los valores y vectores propios de una matriz. Uno en donde los valores propios sean distintos (con multiplicidad $1$) y uno en donde los valores propios sean números complejos.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

$$\mathbf{A} = \begin{pmatrix}
-81 & 16 \\ -420 & 83
\end{pmatrix}$$

Solución: De acuerdo a (\ref{13}), determinemos la ecuación característica.

$$\begin{vmatrix}
-81 -\lambda & 16 \\ -420 & 83 -\lambda
\end{vmatrix} = (-81 -\lambda)(83 -\lambda) -16(-420) = 0$$

Reordenando obtenemos que la ecuación característica es

$$\lambda^{2} -2 \lambda -3 = 0$$

y el polinomio característico es

$$P(\lambda) = \lambda^{2} -2 \lambda -3$$

Resolviendo para $\lambda$ se obtienen las raíces $\lambda_{1} = -1$ y $\lambda_{2} = 3$. Para obtener los vectores propios buscamos un vector $\mathbf{v} \neq 0$, tal que se cumpla (\ref{11}) para cada valor propio $\lambda$. Comencemos con $\lambda_{1}$.

Caso 1: $\lambda_{1} = -1$.

$$\begin{pmatrix}
-81 -(-1) & 16 \\ -420 & 83 -(-1)
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
-80 & 16 \\ -420 & 84
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Este resultado lo podemos escribir como las siguientes dos ecuaciones.

\begin{align*}
-80 v_{1} + 16 v_{2} &= 0 \\
-420 v_{1} + 84 v_{2} &= 0
\end{align*}

Que en realidad corresponden a una sola.

\begin{align*}
-5v_{1} + v_{2} &= 0 \\
v_{2} &= 5v_{1}
\end{align*}

Si elegimos $v_{1} = 1$, entonces $v_{2} = 5$, así el primer vector propio es

$$\mathbf{v}_{1} = \begin{pmatrix}
1 \\ 5
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 3$.

$$\begin{pmatrix}
-81 -3 & 16 \\ -420 & 83-3
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
-84 & 16 \\ -420 & 80
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
-21v_{1} + 4v_{2} &= 0 \\
v_{2} &= \dfrac{21}{4}v_{1}
\end{align*}

Por conveniencia elegimos $v_{1} = 4$, entonces $v_{2} = 21$, así

$$\mathbf{v}_{2} = \begin{pmatrix}
4 \\ 21
\end{pmatrix}$$

En conclusión, los valores y vectores propios de la matriz $\mathbf{A}$ son $\lambda_{1} = -1$, $\lambda_{2} = 3$, $\mathbf{v}_{1} = \begin{pmatrix} 1 \\ 5 \end{pmatrix}$ y $\mathbf{v}_{2} = \begin{pmatrix} 4 \\ 21 \end{pmatrix}$, respectivamente.

$\square$

Realicemos el segundo ejemplo.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

$$\mathbf{A} = \begin{pmatrix}
2 & -1 \\ 5 & -2
\end{pmatrix}$$

Solución: Determinemos la ecuación característica.

$$\begin{vmatrix}
2 -\lambda & -1 \\ 5 & -2 -\lambda
\end{vmatrix} = (2 -\lambda)(-2 -\lambda) + 5 = 0$$

La ecuación característica es

$$\lambda^{2} + 1 = 0$$

De donde $\lambda_{1} = i$ y $\lambda_{2} = -i$. Determinemos los vectores propios.

Caso 1: $\lambda_{1} = i$.

$$\begin{pmatrix}
2 -i & -1 \\ 5 & -2 -i
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
(2 -i)v_{1} -v_{2} &= 0 \\
5v_{1} -(2 + i)v_{2} &= 0
\end{align*}

Resolviendo el sistema se obtiene que $v_{1} = 2 + i$ y $v_{2} = 5$, así

$$\mathbf{v}_{1} = \begin{pmatrix}
2 + i \\ 5
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -i$

$$\begin{pmatrix}
2 + i & -1 \\ 5 & -2 + i
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
(2 + i) v_{1} -v_{2} &= 0 \\
5v_{1} + (-2 + i)v_{2} &= 0
\end{align*}

Resolviendo el sistema se obtiene que $v_{1} = 2 -i$ y $v_{2} = 5$, así

$$\mathbf{v}_{2} = \begin{pmatrix}
2 -i \\ 5
\end{pmatrix}$$

$\square$

En caso de requerir conocer más a fondo sobre el algoritmo que llevamos a cabo para obtener los valores y vectores propios de una matriz se recomienda revisar directamente en el curso de Álgebra Lineal I. Recordemos que aquí sólo estamos haciendo un breve repaso.

Para concluir con nuestro repaso, enunciemos un teorema de suma importancia que nos será de utilidad mas adelante. Haremos la demostración por inducción.

Demostración: Como el caso $m = 1$ se trata de un solo vector es evidente que se satisface el teorema, hagamos el caso $m = 2$, para ello consideremos la combinación lineal

$$c_{1} \mathbf{v}_{1} + c_{2} \mathbf{v}_{2} = \mathbf{0} \label{17} \tag{17}$$

Multipliquemos ambos lados de la ecuación por la matriz $\mathbf{A}$.

$$c_{1} \mathbf{Av}_{1} + c_{2} \mathbf{Av}_{2} = \mathbf{0} \label{18} \tag{18}$$

Como $\mathbf{Av}_{i} = \lambda_{i}\mathbf{v}_{i}$, para $i = 1, 2$, entonces

$$c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2} = \mathbf{0} \label{19} \tag{19}$$

A la ecuación (\ref{17}) la multiplicamos por $\lambda_{1}$ y la restamos de la ecuación (\ref{19}).

$$(c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2}) -(c_{1} \lambda_{1} \mathbf{v}_{1} -c_{2} \lambda_{1} \mathbf{v}_{2}) = \mathbf{0}$$

que se reduce a

$$c_{2}(\lambda_{2} -\lambda_{1}) \mathbf{v}_{2} = \mathbf{0} \label{20} \tag{20}$$

Como $\mathbf{v}_{2} \neq \mathbf{0}$ por definición de vector característico y por hipótesis $\lambda_{1} \neq \lambda_{2}$, entonces se concluye que $c_{2} = 0$, sustituyendo en (\ref{17}) se ve que $c_{1} = 0$, por tanto se cumple el teorema para $m = 2$, es decir, $\mathbf{v}_{1}$ y $\mathbf{v}_{2}$ son linealmente independientes.

Ahora supongamos que el teorema es cierto para $m = n$, es decir, cualquier conjunto de $n$ vectores propios de $\mathbf{A}$ con valores propios diferentes es linealmente independiente. Hay que demostrar que cualquier conjunto de $n + 1$ vectores propios de $\mathbf{A}$ con valores propios diferentes es también linealmente independiente. La demostración sigue el mismo procedimiento que como lo hicimos para $m = 2$, consideremos la siguiente combinación lineal.

$$c_{1} \mathbf{v}_{1} + c_{2} \mathbf{v}_{2} + \cdots + c_{n + 1} \mathbf{v}_{n + 1} = \mathbf{0} \label{21} \tag{21}$$

Multipliquemos por $\mathbf{A}$ en ambos lados.

$$c_{1} \mathbf{Av}_{1} + c_{2} \mathbf{Av}_{2} + \cdots + c_{n + 1} \mathbf{Av}_{n + 1} = \mathbf{0} \label{22} \tag{22}$$

Aplicando $\mathbf{Av}_{i} = \lambda_{i} \mathbf{v}_{1}$ para $i = 1, 2, 3, \cdots, n + 1$, se tiene

$$c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2} + \cdots + c_{n + 1} \lambda_{n + 1} \mathbf{v}_{n + 1} = \mathbf{0} \label{23} \tag{23}$$

Si se multiplica ambos lados de la ecuación (\ref{21}) por $\lambda_{1}$ y se resta de (\ref{23}), se obtiene

$$c_{2}(\lambda_{2} -\lambda_{1}) \mathbf{v}_{2} + c_{3}(\lambda_{3} -\lambda_{1}) \mathbf{v}_{3} + \cdots + c_{n + 1}(\lambda_{n + 1} -\lambda_{1})\mathbf{v}_{n + 1} = \mathbf{0} \label{24} \tag{24}$$

Pero $\mathbf{v}_{2}, \mathbf{v}_{3}, \cdots, \mathbf{v}_{n + 1}$ son vectores propios de $\mathbf{A}$ con valores propios distintos $\lambda_{2}, \lambda_{3}, \cdots, \lambda_{n + 1}$, respectivamente. Por hipótesis de inducción, los vectores son linealmente independientes, así que

$$c_{2}(\lambda_{2} -\lambda_{1}) = 0, \hspace{1cm} c_{3}(\lambda_{3} -\lambda_{1}) = 0, \hspace{1cm} \cdots, \hspace{1cm} c_{n + 1}(\lambda_{n + 1} -\lambda_{1}) = 0$$

Como los valores propios son distintos entre sí, entonces necesariamente

$$c_{2} = c_{3} = \cdots = c_{n + 1} = 0$$

Con este resultado la ecuación (\ref{21}) obliga a que $c_{1}$ sea cero. Por lo tanto, $\mathbf{v}_{1}, \mathbf{v}_{2}, \mathbf{v}_{3}, \cdots, \mathbf{v}_{n + 1}$ son linealmente independientes. De esta manera queda demostrado el teorema.

$\square$

En conclusión, vectores propios correspondientes a valores propios distintos son linealmente independientes.

Con este breve repaso en mente regresemos a los sistemas de ecuaciones diferenciales.

Valores y vectores propios en sistemas de ecuaciones diferenciales

Ahora que hemos recordado las definiciones de valores y vectores propios y algunas propiedades veamos cómo es que estos conceptos son útiles para resolver sistemas lineales de primer orden homogéneos.

Al inicio de la entrada decíamos que es posible encontrar soluciones de la forma (\ref{4}).

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t}$$

Si derivamos este vector, se obtiene

$$\mathbf{Y}^{\prime} = \mathbf{K} \lambda e^{\lambda t} \label{25} \tag{25}$$

Sustituyamos en el sistema homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$.

$$\mathbf{K} \lambda e^{\lambda t} = \mathbf{AK}e^{\lambda t} \label{26} \tag{26}$$

Si dividimos entre $e^{\lambda t}$ y reordenamos, se tiene

$$\mathbf{AK} = \lambda \mathbf{K}$$

o bien,

$$\mathbf{AK} -\lambda \mathbf{K} = \mathbf{0}$$

Debido a que $\mathbf{K} = \mathbf{IK}$, con $\mathbf{I}$ la matriz identidad, la última expresión se puede escribir como

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0}\label{27} \tag{27}$$

Si $\mathbf{A}$ es la matriz dada en (\ref{2}), entonces la ecuación matricial (\ref{27}) es equivalente a las $n$ ecuaciones algebraicas simultáneas

\begin{align*}
(a_{11} -\lambda)k_{1} + \hspace{1.2cm} a_{12}k_{2} + \cdots + \hspace{1.2cm} a_{1n}k_{n} &= 0 \\
a_{21}k_{1} + (a_{22} -\lambda)k_{2} + \cdots + \hspace{1.2cm} a_{2n}k_{n} &= 0 \\
\vdots \\
a_{n1}k_{1} + \hspace{1.2cm} a_{n2}k_{2} + \cdots + (a_{nn} -\lambda)k_{n} &= 0 \label{28} \tag{28}
\end{align*}

Si queremos encontrar soluciones $\mathbf{Y}(t)$ como (\ref{4}), necesitamos primero encontrar una solución no trivial del sistema (\ref{28}), de lo visto en nuestro repaso de valores y vectores propios, si la solución debe ser la no trivial, entonces se requiere que el determinante sea igual a cero, esto es

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{29} \tag{29}$$

Esta ecuación polinomial corresponde a la ecuación característica de la matriz $\mathbf{A}$. Sus soluciones son los valores propios de $\mathbf{A}$. Una solución $\mathbf{K} \neq 0$ de (\ref{27}) correspondiente a un valor propio $\lambda$ es el vector propio de $\mathbf{A}$.

La ecuación (\ref{29}) al tratarse de una ecuación polinomial existen tres casos posibles, cuando los valores propios son reales y distintos, cuando son repetidos y cuando son complejos. Para cada caso existe una forma particular de la solución de (\ref{3}).

Para concluir con esta entrada demostremos un resultado que establece la forma de la solución general del sistema lineal (\ref{3}).

Demostración: Definamos las funciones

$$\mathbf{Y}_{1}(t) = e^{\lambda_{1}t}\mathbf{K}_{1}, \hspace{1cm} \mathbf{Y}_{2}(t) = e^{\lambda_{2}t}\mathbf{K}_{2}, \hspace{1cm} \cdots, \hspace{1cm} \mathbf{Y}_{n}(t) = e^{\lambda_{n}t} \mathbf{K}_{n}$$

Notemos que para la $i$-ésima función $\mathbf{Y}_{i}(t) = e^{\lambda_{i}t} \mathbf{K}_{i}$ se cumple lo siguiente.

$$\mathbf{Y}^{\prime}_{i} = e^{\lambda_{i}t} (\lambda_{i} \mathbf{K}_{i}) = e^{\lambda_{i}t} (\mathbf{AK}_{i}) = \mathbf{AY}_{i} \label{32} \tag{32}$$

En donde se hecho uso de la relación (\ref{6}). Esto nos muestra que $\mathbf{Y}_{i}(t)$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ para cada $i = 1, 2, \cdots, n$. Basta mostrar que el Wronskiano es distinto de cero para probar que las funciones definidas forman un conjunto fundamental de soluciones. El Wronskiano está dado por

\begin{align*}
W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots,\mathbf{Y}_{n}) &= \begin{vmatrix} e^{\lambda_{1}t} \mathbf{K}_{1} & e^{\lambda_{2}t} \mathbf{K}_{2} & \cdots & e^{\lambda_{n}t} \mathbf{K}_{n} \end{vmatrix} \\
&= e^{(\lambda_{1} + \lambda_{2} + \cdots + \lambda_{n})t} \begin{vmatrix} \mathbf{K}_{1} & \mathbf{K}_{2} & \cdots & \mathbf{K}_{n} \end{vmatrix} \label{33} \tag{33}
\end{align*}

Como la exponencial nunca se hace cero y por hipótesis los vectores $\mathbf{K}_{1}, \mathbf{K}_{2}, \cdots, \mathbf{K}_{n}$ son linealmente independientes, es decir, el determinante nunca es cero

$$\begin{vmatrix} \mathbf{K}_{1} & \mathbf{K}_{2} & \cdots & \mathbf{K}_{n} \end{vmatrix} \neq 0 \label{34} \tag{34}$$

entonces el Wronskiano es distinto de cero. Por el teorema de solución general de un sistema homogéneo concluimos que el conjunto

$$S = \{e^{\lambda_{1}t} \mathbf{K}_{1}, e^{\lambda_{2}t} \mathbf{K}_{2}, \cdots, e^{\lambda_{n}t} \mathbf{K}_{n}\}$$

es un conjunto fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ y la solución general es

$$\mathbf{Y}(t) = c_{1} e^{\lambda_{1}t} \mathbf{K}_{1} + c_{2} e^{\lambda_{2}t} \mathbf{K}_{2} + \cdots + c_{n} e^{\lambda_{n}t} \mathbf{K}_{n}$$

con $c_{1}, c_{2}, \cdots, c_{n}$ constantes arbitrarias.

$\square$

En la siguiente entrada aplicaremos todo esto en el desarrollo de un nuevo método de resolución de sistemas lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener los valores y vectores propios de las siguientes matrices.
  • $\mathbf{A} = \begin{pmatrix}
    -62 & -20 \\ 192 & 62
    \end{pmatrix}$
  • $\mathbf{A} = \begin{pmatrix}
    -2 & 5 & 0 \\ 5 & -2 & 0 \\ 0 & 0 & 1
    \end{pmatrix}$
  1. Demostrar que para cualesquiera números reales $\alpha$ y $\beta$, la matriz $$\mathbf{A} = \begin{pmatrix} \alpha & \beta \\ -\beta & \alpha \end{pmatrix}$$ tiene valores propios $\alpha \pm i\beta$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar lo siguiente:
  • Demostrar que $\mathbf{A}^{-1}$ (la matriz inversa de $\mathbf{A}$) existe si y sólo si $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$ son todos distintos de cero.
  • Si $\mathbf{A}^{-1}$ existe, demostrar que los valores propios de $\mathbf{A}^{-1}$ son $\dfrac{1}{\lambda_{1}}, \dfrac{1}{\lambda_{2}}, \cdots, \dfrac{1}{\lambda_{n}}$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar que la matriz $\mathbf{A} -\alpha \mathbf{I}$ tiene valores propios $\lambda_{1} -\alpha, \lambda_{2} -\alpha, \cdots, \lambda_{n} -\alpha$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar que los valores propios de $\mathbf{A}^{m}$ son $\lambda^{m}_{1}, \lambda^{m}_{2}, \cdots, \lambda^{m}_{n}$ para $m = 1, 2, 3, \cdots$.

    Recuerda que para calcular la potencia de una matriz, debemos multiplicar la matriz por ella misma tantas veces como indique el exponente, por ejemplo
    $$\mathbf{A}^{5} = \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A}$$

Más adelante…

Un nuevo método para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas con coeficientes constantes es el que estamos por desarrollar. Dicho método involucra obtener los valores y vectores propios de la matriz que conforma al sistema lineal, es por ello que hemos dedicado esta entrada en hacer un breve repaso sobre estos conceptos y hemos visto cómo es que se ven involucrados en la resolución de estos sistemas.

Como vimos, los valores propios se obtienen de encontrar las raíces del polinomio característico lo que significa que se pueden tener raíces reales y distintas, raíces con multiplicidad mayor a uno, es decir, que se repiten o raíces complejas, para cada caso existe una forma distinta de obtener la solución de los sistemas lineales homogéneos $\mathbf{Y}^{\prime} = \mathbf{AY}$.

En las próximas tres entradas estudiaremos cada caso. Comenzaremos con el caso en el que los valores propios del sistema son todos reales y distintos entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»