Archivo de la etiqueta: polinomio característico

Álgebra Lineal II: Polinomio característico

Por Julio Sampietro

Introducción

En el transcurso de esta unidad hemos construido varios de los objetos algebraicos que nos interesan. En primer lugar, dejamos claro qué quería decir evaluar un polinomio en una matriz o transformación lineal. Esto nos llevó a preguntarnos por aquellos polinomios que anulan a una matriz o transformación lineal. De manera natural, descubrimos que aquellos polinomios que anulan son múltiplos de un polinomio especial asociado a la matriz o transformación lineal llamado polinomio mínimo.

De manera un poco separada, comenzamos a estudiar los eigenvalores, eigenvectores y eigenespacios de una transformación lineal y en la entrada anterior nos enfocamos en varias de sus propiedades principales. Uno de los resultados clave que encontramos es que los eigenvalores de una matriz o transformación lineal son las raíces del polinomio mínimo que estén en el campo en el que estemos trabajando.

Aunque este resultado sea interesante de manera teórica, en la práctica debemos hacer algo diferente pues no es tan sencillo encontrar el polinomio mínimo de una matriz o transformación lineal. Es por esto que ahora estudiaremos con profundidad otro objeto que resultará fundamental en nuestro estudio: el polinomio característico. Ya nos encontramos con él anteriormente. Si $A$ es una matriz en $M_n(F)$, dicho polinomio en la variable $\lambda$ es el determinante $\det(\lambda I_n-A)$.

Esta entrada es más bien una introducción, así que nos enfocaremos en probar las cosas más básicas de este objeto. Lo primero, y más importante, es verificar que en efecto es un polinomio (y con ciertas características específicas). También, aprovecharemos para calcularlo en varios contextos (y campos) diferentes.

Definición de polinomio característico

Comencemos con una matriz $A\in M_n(F)$. Vimos que encontrar los eigenvalores de $A$ se reduce a encontrar las soluciones de la ecuación

\begin{align*}
\det(\lambda I_n-A)=0
\end{align*}

en $F$. Vamos a estudiar más a detalle la expresión de la izquierda.

El siguiente teorema va un poco más allá y de hecho estudia expresiones un poco más generales.

Teorema. Sean $A,B\in M_n(F)$ dos matrices. Existe un polinomio $P\in F[X]$ tal que para todo $x\in F$ se cumple

\begin{align*}
P(x)=\det(xA+B).
\end{align*}

Si denotamos a este polinomio por $P(X)=\det(XA+B)$, entonces

\begin{align*}
\det(XA+B)=\det(A)X^{n}+\alpha_{n-1}X^{n-1}+\dots+\alpha_1 X+\det B
\end{align*}

para algunas expresiones polinomiales $\alpha_1,\dots, \alpha_{n-1}$ con coeficientes enteros en las entradas de $A$ y $B$.

Demostración. Consideremos el siguiente polinomio en la variable $X$ y coeficientes en $F$, es decir, el siguiente polinomio en $F[X]$:

\begin{align*}
P(X)=\sum_{\sigma\in S_n} \operatorname{sign}(\sigma)\left(a_{1\sigma(1)} X+b_{1\sigma(1)}\right)\cdots \left(a_{n\sigma(n)}X+b_{n\sigma(n)}\right).
\end{align*}

Por construcción, $P$ es un polinomio cuyos coeficientes son expresiones polinomiales enteras en las entradas de $A$ y $B$. Más aún, se cumple que $P(x)=\det(xA+B)$ para $x\in F$ (podría ser útil revisar la entrada sobre determinantes para convencerte de ello). El término constante lo obtenemos al evaluar en $X=0$, pero eso no es más que $P(0)=\det(0\cdot A+B)=\det(B)$. Finalmente para cada $\sigma\in S_n$ tenemos que el primer término de cada sumando es

\begin{align*}
\operatorname{sign}(\sigma)(a_{1\sigma(1)}X+b_{1\sigma(1)})\cdots (a_{n\sigma(n)} X+b_{n\sigma(n)})
\end{align*}

Notemos que la única manera de obtener un término $X^n$ en esta expresión es cuando en cada binomio que se está multiplicando se usa el término $X$. Así, el coeficiente de $X^n$ es $\operatorname{sign}(\sigma) a_{1\sigma(1)}\cdots a_{n\sigma(n)}X^{n}$.

Agrupando todos los sumandos para todas las $\sigma$ y comparando con la definición del determinante llegamos a que $$P(X)=\det(A)X^{n}+\ldots,$$ es decir el término de orden $n$ es en efecto $\det(A)$.

$\square$

Del teorema se sigue que si $A$ y $B$ tienen entradas enteras o racionales, $\det(XA+B)$ tiene coeficientes enteros o racionales respectivamente.

Enseguida podemos definir (gracias al teorema) el siguiente objeto:

Definición. El polinomio característico de la matriz $A\in M_n(F)$ es el polinomio $\chi_A\in F[X]$ definido por

\begin{align*}
\chi_A(X)=\det(X\cdot I_n-A).
\end{align*}

Una observación inmediata es que, de acuerdo al teorema, el coeficiente principal de $\chi_A(X)$ tiene coeficiente $\det(I_n)=1$. En otras palabras, acabamos de demostrar la siguiente propiedad fundamental del polinomio característico.

Proposición. El polinomio característico de una matriz en $M_n(F)$ siempre tiene grado exactamente $n$ y además es un polinomio mónico, es decir, que el coeficiente que acompaña al término de grado $n$ es igual a $1$.

Veamos un ejemplo sencillo.

Ejemplo. Si queremos calcular el polinomio característico de

\begin{align*}
A=\begin{pmatrix} 1 & -1\\ 1 &0\end{pmatrix}\in M_2(\mathbb{R})
\end{align*}

entonces usamos la definición

\begin{align*}
\chi_A(X)&=\det(X\cdot I_2-A)\\&=\begin{vmatrix} X-1 & 1\\ -1 & X\end{vmatrix}\\&= X(X-1)+1.
\end{align*}

Y así los eigenvalores de $A$ son las raíces reales de $\chi_A(X)$. Es decir, tenemos que resolver

\begin{align*} 0=x(x-1)+1=x^2-x+1.\end{align*}

Sin embargo, el discriminante de esta ecuación cuadrática es $(-1)^2-4(1)(1)=-3$, el cual es un real negativo, por lo que no tenemos eigenvalores reales. Si estuviéramos trabajando en $\mathbb{C}$ tendríamos dos eigenvalores complejos:

\begin{align*}
x_{1,2}= \frac{1\pm i\sqrt{3}}{2}.
\end{align*}

De aquí, ¿cómo encontramos los eigenvectores y eigenespacios? Basta con resolver los sistemas lineales homogéneos de ecuaciones $(A-x_1I_2)X=0$ para encontrar el $x_1$-eigenespacio y $(A-x_2)X=0$ para encontrar el $x_2$-eigenespacio.

$\triangle$

Algunos cálculos de polinomios característicos

Ya que calcular polinomios característicos se reduce a calcular determinantes, te recomendamos fuertemente que recuerdes las propiedades que tienen los determinantes. Sobre todo, aquellas que permiten calcularlos.

¡A calcular polinomios característicos!

Problema 1. Encuentra el polinomio característico y los eigenvalores de $A$ dónde $A$ es

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0 & 0\\
2 & 0 & -1 & 0\\
0 & 7 & 0 &6\\
0 & 0 & 3 & 0
\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. Usamos la expansión de Laplace respecto al primer renglón:

\begin{align*}
\chi_A(X)&=\det(XI_4-A)\\&= \begin{vmatrix}
X & -1 & 0 & 0\\
-2 & X & 1 & 0\\
0 & -7 & X & -6\\
0 & 0 & -3 & X\end{vmatrix}\\
&= X\begin{vmatrix} X & 1 & 0\\ -7 & X & -6\\ 0 & -3 & X\end{vmatrix}+ \begin{vmatrix}
-2 & 1 & 0\\ 0 & X& -6\\ 0 &-3 & X\end{vmatrix}\\
&= X(X^3-11X)-2(X^2-18)\\
&= X^4-13X^2+36.
\end{align*}

Después, para encontrar los eigenvalores de $A$ tenemos que encontrar las raíces reales de la ecuación

\begin{align*}
x^4-13x^2+36=0.
\end{align*}

Sin embargo, no hay que desalentarse por ver una ecuación de grado $4$. Si hacemos el cambio $y=x^2$ podemos llevar nuestro problema a resolver

\begin{align*}
y^2-13y+36=0.
\end{align*}

¡Es una ecuación de segundo orden! Esta la podemos resolver usando ‘la chicharronera’ y obtenemos como soluciones $y_1=4$ y $y_2=9$. Pero todavía tenemos que resolver $x^2=y_1$ y $x^2=y_2$. Al resolver estas últimas dos ecuaciones obtenemos que $x=\pm 2,\pm 3$ son los eigenvalores de $A$.

$\triangle$

Problema 2. Calcula el polinomio característico y los eigenvalores de la matriz

\begin{align*}
A=\begin{pmatrix} 1 & 0 & 1\\ 1 & 1 & 0\\ 1 & 0 &1 \end{pmatrix}\in M_3(F_2).
\end{align*}

Solución. Nota que estamos trabajando en el campo de dos elementos $F_2$, por lo que $-1=1$. Usando la definición:

\begin{align*}
\chi_A(X)&=\det(XI_3-A)\\&= \begin{vmatrix} X-1 & 0 & -1\\ -1 & X-1 & 0\\ -1 & 0 &X-1\end{vmatrix}\\
&= \begin{vmatrix} X+1 & 0 & 1\\ 1 & X+1& 0 \\ 1 & 0 &X+1\end{vmatrix}.
\end{align*}

Aquí estamos usando repetidamente $-1=1$. Usamos otra vez la expansión de Laplace en el primer renglón para llegar a

\begin{align*}
\chi_A(X)&= (X+1)\begin{vmatrix} X+1 & 0 \\ 0 & X+1\end{vmatrix}+\begin{vmatrix} 1 & X+1\\ 1 & 0\end{vmatrix}\\
&= (X+1)^3-(X+1).
\end{align*}

Luego, si queremos encontrar los eigenvalores de $A$ tenemos que resolver

\begin{align*}
(x+1)^3-(x+1)=0.
\end{align*}

Si bien existen varias maneras de resolver la ecuación, podemos simplemente sustituir los únicos valores posibles de $x$ : $0$ o $1$. Sustituyendo es fácil ver que ambos satisfacen la ecuación, por lo que los eigenvalores de $A$ son $0$ y $1$.

$\triangle$

Más adelante…

En la próxima entrada calcularemos el polinomio característico de una variedad de matrices importantes: triangulares superiores, nilpotentes, etc. Esto nos permitirá entender mejor al polinomio característico y lidiar con muchos casos para facilitarnos los cálculos más adelante.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que $0$ es un eigenvalor de una matriz $A$ si y sólo si $\det(A)=0$.
  • ¿Una matriz compleja de tamaño $n$ tiene necesariamente $n$ eigenvalores distintos?
  • Calcular el polinomio característico y los eigenvalores de
    \begin{align*}A=\begin{pmatrix} 1 & 2 & 0\\ 0 & 1 &2\\ 2 & 0 & 1\end{pmatrix}\in M_3(F_3).
    \end{align*}
  • Usando la fórmula del determinante para matrices de tamaño $2$, encuentra un criterio simple para saber si una matriz con entradas reales de tamaño $2$ tiene dos, uno o ningún eigenvalor real.
  • Da un criterio simple para saber si una matriz de tamaño $2$ con entradas complejas tiene eigenvalores puramente imaginarios.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Propiedades de eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En la entrada anterior platicamos acerca de eigenvectores, eigenvalores y eigenespacios de matrices y transformaciones lineales. Vimos algunos ejemplos básicos. En esta entrada profundizaremos en el estudio de estos objetos y exploraremos diversas de sus propiedades. Comenzaremos con algunas observaciones inmediatas. Después, veremos cómo encontrar de manera sencilla los eigenvalores de las matrices triangulares superiores. También veremos que «eigenvectores correspondientes a eigenvalores diferentes son linealmente independientes«. Finalmente, conectaremos estas nuevas ideas con un objeto que estudiamos previamente: el polinomio mínimo.

Primeras observaciones

A partir de la proposición de la entrada anterior que nos dice cómo calcular eigenvalores se desprenden algunas consecuencias sencillas pero útiles.

Por ejemplo, recuerda que el determinante de una matriz y su transpuesta es igual. En particular, si $A\in M_n(F)$ entonces

\begin{align*}
\det(\lambda I_n -\ ^{t}A)= \det(\ ^{t}(\lambda I_n- A))= \det(\lambda I_n-A).
\end{align*}

Luego $\det (\lambda I_n-A)=0$ si y sólo si $\det(\lambda I_n-\ ^{t}A)=0$. Recordando que las raíces de estos polinomios son precisamente los eigenvalores, se sigue que los eigenvalores de $A$ y $^{t}A$ son iguales.

Por otro lado, como los eigenvalores son las raíces de un polinomio de grado $n$, sabemos que hay a lo más $n$ soluciones. Entonces toda matriz tiene a lo más $n$ eigenvalores.

Esto también ocurre para transformaciones lineales en espacios de dimensión finita y lo podemos enunciar como sigue:

Corolario. Sea $V$ un espacio de dimensión finita sobre $F$ y $T:V\to V$ lineal. Entonces $T$ tiene a lo más $\dim V$ eigenvalores distintos.

Sin embargo, si el espacio no es de dimensión finita no podemos hacer tal afirmación. Si $V$ es el espacio de todas las funciones suaves (es decir con derivadas de todos los órdenes) de $\mathbb{R}$ en $\mathbb{R}$ y $T:V\to V$ es la función lineal que a cada función la manda en su derivada, entonces tenemos «muchos» eigenvalores. Haciendo esto más preciso, para cada real $r$ la función $e^{rx}$ es un eigenvector con eigenvalor $r$ puesto que

\begin{align*}
T(e^{rx})= \left(e^{rx}\right)’= re^{rx}.
\end{align*}

Así, tenemos al menos tantos eigenvalores como números reales. De hecho, estos son exactamente los eigenvalores de $T$, lo cual puede demostrarse mediante el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales, que estudiarás en otro momento de tu formación matemática.

Matrices triangulares superiores

Parte del interés de «triangular» matrices (es decir, encontrar una matriz similar que sea triangular superior) está dada por la facilidad de calcular sus eigenvalores. Exploramos esto mediante los siguientes dos problemas.

Problema 1. Sea $A=[a_{ij}]$ una matriz triangular superior en $M_n(F)$. Demuestra que los eigenvalores de $A$ son precisamente los elementos en la diagonal.

Solución. Ya establecimos que encontrar los valores propios se reduce a encontrar las raíces del polinomio $\det(\lambda I_n-A)$. Notamos que si $A$ es triangular superior, entonces $\lambda I_n-A$ también es triangular superior. Más aún, las entradas de la diagonal son simplemente $\lambda-a_{ii}$. Pero sabemos que el determinante de una matriz triangular superior es el producto de sus entradas diagonales. Así

\begin{align*}
\det(\lambda I_n -A)= (\lambda-a_{11})(\lambda-a_{22})\cdots (\lambda -a_{nn})
\end{align*}

cuyas raíces son exactamente los elementos $a_{ii}$.

$\square$

Podemos combinar el resultado anterior con otras propiedades de matrices triangulares superiores para resolver a mano algunos problemas que de entrada parecen complicados.

Problema 2. Encuentra los eigenvalores de $A^{3}$ donde

\begin{align*}
A=\begin{pmatrix} 1 & 2 &3 &4 \\ 0 & 5 & 6 & 7\\ 0 & 0 & 8 & 9\\ 0 &0 &0 & 10\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. En realidad no hace falta hacer el producto de matrices para encontrar la matriz $A^3$. Sabemos que el producto de dos matrices triangulares superiores es triangular superior y que de hecho las entradas de la diagonal son solo el producto de las entradas correspondientes. Es decir, si $[a_{ij}]$ y $[b_{ij}]$ son dos matrices triangulares superiores, las entradas de la diagonal son $a_{ii}b_{ii}$. En nuestro caso, las entradas de la diagonal son $1^3, 5^3, 8^3$ y $10^3$, y por el problema anterior, estos son precisamente los eigenvalores de $A^3$.

$\triangle$

Relaciones con independencia lineal y combinaciones polinomiales

El resultado principal de esta entrada es el siguiente teorema, que en particular afirma que si dos eigenvalores son distintos, sus eigenvectores son linealmente independientes. En realidad, el resultado es un poco más general y lo enunciamos a continuación

Teorema. Sean $\lambda_1,\dots, \lambda_k$ eigenvalores distintos dos a dos de una transformación lineal $T:V\to V$. Entonces los $\lambda_i$-eigenespacios están en posición de suma directa.

Demostración. Por definición, tenemos que demostrar que si tenemos una colección $\{v_i\}$ de vectores con $T(v_i)=\lambda_i v_i$ y $v_1+\dots+v_k=0$ entonces $v_1=\dots=v_k=0$. Procedemos por inducción sobre $k$.

Nuestro caso base es una tautología, pues si $k=1$ entonces tenemos que mostrar que si $v_1=0$ entonces $v_1=0$.

Asumamos que el resultado se cumple para $k-1$ y verifiquemos que se cumple para $k$. Supongamos que $v_1+\dots+v_k=0$. Aplicando $T$ de ambos lados de esta igualdad llegamos a

\begin{align*}
T(v_1+\dots+v_k)&= T(v_1)+\dots+T(v_k)\\
&=\lambda_1 v_1+\dots +\lambda _k v_k=0.
\end{align*}

Por otro lado, si multiplicamos a la igualdad $v_1+\dots+v_k=0$ por $\lambda_k$ de ambos lados llegamos a

\begin{align*}
\lambda_k v_1+\dots +\lambda _k v_k=0.
\end{align*}

Sustrayendo y factorizando estas dos igualdades se sigue que

\begin{align*}
(\lambda_k -\lambda_1)v_1+\dots +(\lambda_k-\lambda_{k-1})v_{k-1}=0.
\end{align*}

Esto es una combinación lineal de los primeros $k-1$ vectores $v_i$ igualada a cero. Luego, la hipótesis inductiva nos dice que $(\lambda_k-\lambda_i)v_i=0$ para todo $i=1,\dots, k-1$. Como $\lambda_k\neq \lambda_i$ entonces $\lambda_k-\lambda_i\neq 0$ y entonces $v_i=0$. Sustituyendo en la igualdad original, esto implica que $v_k=0$ inmediatamente.

$\square$

Enseguida veremos que si formamos un polinomio $P(T)$, entonces $P(\lambda)$ es un eigenvalor de $P(T)$ para cualquier eigenvalor $\lambda$ de $T$. Esto lo veremos en el siguiente problema.

Problema. Sea $\lambda$ un eigenvalor de $T:V\to V$ y sea $P$ un polinomio en una variable con coeficientes en $F$. Demuestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

Solución. Como $\lambda$ es un eigenvalor de $T$, existe $v$ un vector no cero tal que $T(v)=\lambda v$. Inductivamente, se cumple que $T^{k}(v)=\lambda^{k} v$. En efecto

\begin{align*}
T^{k+1}(v)&=T(T^{k}(v))\\
&= T(\lambda^{k} v)\\
&= \lambda^{k}T(v)\\
&=\lambda^{k+1}v.
\end{align*}

Usando esto, si $P(X)=a_n X^{n}+\dots+a_1 X+a_0$ se tiene que

\begin{align*}
P(T)(v)&= a_nT^{n}(v)+\dots +a_1 T(v)+ a_0 v\\
&= a_n\lambda^{n}v+\dots +a_1\lambda v+a_0v\\
&= (a_n\lambda^{n}+\dots +a_1\lambda +a_0)v\\
&= P(\lambda) v.
\end{align*}

Esto muestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

$\square$

Relación con el polinomio mínimo

Una consecuencia del problema previo es la siguiente proposición.

Proposición. Sea $A\in M_n(\mathbb{C})$ una matriz y $P\in \mathbb{C}[X]$ un polinomio tal que $P(A)=O_n$. Entonces cualquier eigenvalor $\lambda$ de $A$ satisface $P(\lambda)=0$.

Solución. Por el problema anterior, $P(\lambda)$ es un eigenvalor de $P(A)$, pero $P(A)=O_n$ y el único eigenvalor de la matriz cero es $0$. Luego $P(\lambda)=0$.

$\square$

De esto, podemos por fin establecer una conexión con el polinomio mínimo, que enunciamos en forma de teorema.

Teorema. Sea $T:V\to V$ una transformación lineal sobre un espacio de dimensión finita sobre un campo $F$. Los eigenvalores de $T$ son precisamente las raíces en $F$ del polinomio mínimo $\mu_T$.

Demostración. Dado que $\mu_T(T)=0$, el problema que acabamos de resolver nos dice que todos los eigenvalores de $T$ son raíces de $\mu_T$.

Conversamente, supongamos que existe $\lambda$ una raíz de $\mu_T$ que no es eigenvalor. Entonces la transformación $T-\lambda \operatorname{Id}$ es invertible. Como $\mu_T(\lambda)=0$, podemos factorizar la raíz y escribir $\mu_T(X)=(X-\lambda)Q(X)$ para algún $Q\in F[X]$. Dado que $\mu_T(T)=0$ deducimos que

\begin{align*}
(T-\lambda \operatorname{Id})\circ Q(T)=0.
\end{align*}

Recordando una vez más que $T-\lambda \operatorname{Id}$ es invertible, esta ecuación implica que $Q(T)=0$. Ya que $\mu_T$ es el polinomio mínimo, por una propiedad que mostramos anteriormente obtendríamos que $\mu_T$ divide a $Q$. Pero esto se contradice con la igualdad $\mu_T(X)=(X-\lambda)Q(X)$, que nos dice que $\mu_T$ tiene grado mayor. Esto concluye la demostración.

$\square$

Ejercicios

Terminamos con un par de ejercicios para repasar el material de estas secciones. El primero de entre ellos toma prestados nombres de la probabilidad (lo lo cuál puede sugerirte en qué tipo de texto te podrías encontrar con estas matrices).

Problema 1. Una matriz $A\in M_n(\mathbb{R})$ se dice estocástica si $a_{ij}\geq 0$ para todo $i,j\in \{1,\dots, n\}$ y $\sum_{j=1}^{n} a_{ij}=1$ para todo $i\in \{1,\dots, n\}$.

Demuestra que $1$ es un eigenvalor de cualquier matriz estocástica.

Solución. Consideremos el vector $v=(1,\dots, 1)$. Nota que

\begin{align*}
A\cdot v&= \begin{pmatrix}
a_{11} & a_{12} &\dots & a_{1n}\\
a_{21} & a_{22} & \dots & a_{2n}\\
\dots & \dots & \dots & \dots\\
a_{n1} & a_{n2} & \dots & a_{nn}
\end{pmatrix} \cdot \begin{pmatrix}
1\\
1\\
\vdots\\
1
\end{pmatrix}\\
&= \begin{pmatrix}
a_{11}+a_{12}+\dots+a_{1n}\\
a_{21}+a_{22}+\dots+a_{2n}\\
\vdots\\
a_{n1}+a_{n2}+\dots+a_{nn}
\end{pmatrix}\\
&=\begin{pmatrix}
1\\
1\\
\vdots\\
1\end{pmatrix}.
\end{align*}

Es decir $A\cdot v=v$, por lo que $v$ es un eigenvector de $A$ con eigenvalor asociado $1$.

$\square$

Problema 2. Sea $V$ el espacio de todos los polinomios con coeficientes reales. Sea $T:V\to V$ la transformación lineal dada por $P(X)\mapsto P(1-X)$. ¿Cuáles son los eigenvalores de $T$?

Solución. Observa que
\begin{align*}T^2(P)&=T\circ T(P)\\&= T(P(1-X))\\&= P(1-(1-X))\\&= P(X).\end{align*} Así $T^2=\operatorname{Id}$, o bien $T^2-\text{Id}=0$. Luego, el polinomio mínimo $\mu_T$ tiene que dividir al polinomio $X^2-1$. Sin embargo, los únicos factores de este polinomio son $X-1$ y $X+1$. Dado que $T\neq \pm \operatorname{Id}$ se tiene que $\mu_T(X)=X^2-1$. Por el último teorema que vimos, los eigenvalores de $T$ son precisamente las raíces de $\mu_T$ en $\mathbb{R}$, es decir $\pm 1$.

$\triangle$

Más adelante…

En las entradas subsecuentes iremos más a fondo en el concepto de polinomio característico, para eventualmente llegar al teorema de Cayley-Hamilton. Para eso tendremos que equiparnos de bastante teoría y repasar varias propiedades de dicho polinomio.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $V$ el espacio de polinomios con coeficientes reales de grado a lo más $n$. Encuentra los eigenvalores de la transformación $T:P(X)\mapsto P(X)-(1+X)P'(X)$.
  • Si $V$ es el espacio de polinomios con coeficientes reales, encuentra los eigenvalores de $T:P(X)\mapsto P(3X)$.
  • Sean $A,B$ matrices en $M_n(\mathbb{C})$ tales que $AB-BA=B$. Demuestra que para todo $k\geq 1$ se cumple que $AB^{k}-B^{k}A=kB^{k}$ y de esto deduce que $B$ es nilpotente: existe $m$ tal que $B^{m}=0$. Sugerencia: ¿Cuántos eigenvalores puede tener $T:X\mapsto AX-XA$?
  • ¿Puedes generalizar el último problema de la sección de matrices triangulares superiores?
  • Sea $A$ una matriz cuadrada con entradas reales. Supón que $\lambda$ es un real positivo que es eigenvalor de $A^2$. Demuestra que $\sqrt{\lambda}$ o $-\sqrt{\lambda}$ es un eigenvalor de $A$. ¿Sucederá a veces que sólo una de estas es eigenvalor?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Seminario de Resolución de Problemas: Polinomios asociados a matrices y el teorema de Cayley-Hamilton

Por Leonardo Ignacio Martínez Sandoval

Introducción

Para terminar esta serie de entradas de álgebra lineal, y con ello el curso de resolución de problemas, hablaremos de polinomios especiales asociados a una matriz: el polinomio mínimo y el polinomio característico. Después, hablaremos del teorema de Cayley-Hamilton, que a grandes rasgos dice que una matriz se anula en su polinomio característico.

Estos resultados forman parte fundamental de la teoría que se aprende en un curso de álgebra lineal. En resolución de problemas, ayudan mucho para entender a los eigenvalores de una matriz, y expresiones polinomiales de matrices.

Polinomio mínimo de una matriz

Podemos evaluar un polinomio en una matriz cuadrada de acuerdo a la siguiente definición.

Definición. Si $A$ es una matriz de $n\times n$ con entradas reales y $p(x)$ es un polinomio en $\mathbb{R}[x]$ de la forma $$p(x)=a_0+a_1x+a_2x^2+\ldots+a_nx^n,$$ definimos a la matriz $p(A)$ como la matriz $$a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.$$

De manera análoga se puede dar una definición cuando las entradas de la matriz, o los coeficientes del polinomio, son números complejos.

Cuando una matriz está diagonalizada, digamos $A=P^{-1}DP$ con $P$ invertible y $D$ diagonal, entonces evaluar polinomios en $A$ es sencillo. Se tiene que $p(A)=P^{-1} p(D) P$, y si las entradas en la diagonal principal de $D$ son $d_1,\ldots,d_n$, entonces $p(D)$ es diagonal con entradas en la diagonal principal iguales a $p(d_1),\ldots,p(d_n)$.

Dada una matriz $A$, habrá algunos polinomios $p(x)$ en $\mathbb{R}[x]$ para los cuales $p(A)=0$. Si $p(x)$ es uno de estos, entonces cualquier eigenvalor de $A$ debe ser raíz de $p(x)$. Veamos un problema de la International Mathematics Competition de 2011 que usa esto. Es el Problema 2 del día 1.

Problema. Determina si existe una matriz $A$ de $3\times 3$ con entradas reales tal que su traza es cero y $A^2+ {^tA} = I_3$.

Sugerencia pre-solución. Busca un polinomio $p(x)$ tal que $p(A)=0$.

Solución. La respuesta es que no existe dicha matriz. Procedamos por contradicción. Si existiera, podríamos transponer la identidad dada para obtener que
\begin{align*}
A&=I _3- {^t(A^2)}\\
&=I_3-({^tA})^2\\
&=I_3-(I_3 – A^2)^2\\
&=2A^2 – A^4.
\end{align*}

De aquí, tendríamos que $A^4-2A^2+A = 0$, de modo que cualquier eigenvalor de $A$ debe ser una raíz del polinomio $$p(x)=x^4-2x^2+x=x(x-1)(x^2+x-1),$$

es decir, debe ser alguno de los números $$0,1,\frac{-1+\sqrt{5}}{2}, \frac{-1-\sqrt{5}}{2}.$$

Los eigenvalores de $A^2$ son los cuadrados de los eigenvalores de $A$, así que son algunos de los números $$0,1,\frac{3+\sqrt{5}}{2}, \frac{3-\sqrt{5}}{2}.$$

Como la traza de $A$ es $0$, la suma de sus tres eigenvalores (con multiplicidades), debe ser $0$. Como la traza de $A^2$ es la de $I_3-{ ^tA}$, que es $3$, entonces la suma de los eigenvalores de $A$ al cuadrado (con multiplicidades), debe ser $0$. Un sencillo análisis de casos muestra que esto no es posible.

$\square$

De entre los polinomios que se anulan en $A$, hay uno especial. El polinomio mínimo de una matriz $A$ con entradas reales es el polinomio mónico $\mu_A(x)$ de menor grado tal que $\mu_A(A)=O_n$, donde $O_n$ es la matriz de $n\times n$ con puros ceros. Este polinomio siempre es de grado menor o igual a $n$.

Una propiedad fundamental del polinomio mínimo de una matriz es que es mínimo no sólo en un sentido de grado, sino también de divisibilidad.

Teorema. Sea $A$ una matriz de $n\times n$ con entradas reales. Entonces para cualquier polinomio $p(x)$ en $\mathbb{R}[x]$ tal que $p(A)=O_n$, se tiene que $\mu_A(x)$ divide a $p(x)$ en $\mathbb{R}[x]$.

Veamos cómo se puede usar este resultado.

Problema. La matriz $A$ de $2\times 2$ con entradas reales cumple que $$A^3-A^2+A=O_2.$$ Determina los posibles valores que puede tener $A^2-A$.

Sugerencia pre-solución. Encuentra las posibles opciones que puede tener el polinomio mínimo de $A$ y haz un análisis de casos con respecto a esto.

Solución. La matriz $A$ se anula en el polinomio $$p(x)=x^3-x^2+x=x(x^2-x+1),$$ en donde $x^2-x+1$ tiene discriminante negativo y por lo tanto es irreducible.

El polinomio mínimo $\mu_A(x)$ debe ser un divisor de $p(x)$. Además, es de grado a lo más $2$. Esto nos deja con las siguientes opciones:

  • $\mu_A(x)=x$, de donde $A=O_2$, y por lo tanto $A^2=O_2$. De aquí, $A^2-A=O_2$.
  • $\mu_A(x)=x^2-x+1$. En este caso, tenemos que $A^2-A+I_2=0$. Así, $A^2-A=-I_2$.

Para mostrar que ambas opciones son posibles, en el primer caso usamos $A=O_2$ y en el segundo caso usamos $$A=\begin{pmatrix} 0 & -1 \\ 1 & 1 \end{pmatrix}.$$

$\square$

Polinomio característico de una matriz

El polinomio característico de una matriz $A$ de $n\times n$ se define como $$\chi_A(x)=\det(xI_n – A).$$

Teorema. El polinomio característico de una matriz $A$ cumple que:

  • Es un polinomio mónico en $x$ de grado $n$.
  • El coeficiente del término de grado $n-1$ es la traza de $A$.
  • El coeficiente libre es $\chi_A(0)=(-1)^n\det(A)$.
  • Es igual al polinomio característico de cualquier matriz similar a $A$.

Para ver ejemplos de cómo obtener el polinomio característico y cómo usar sus propiedades, hacemos referencia a la siguiente entrada:

Propiedades del polinomio característico

En particular, para fines de este curso, es importante leer los ejemplos y problemas resueltos de esa entrada.

El teorema de Cayley-Hamilton y una demostración con densidad

Finalmente, hablaremos de uno de los resultados fundamentales en álgebra lineal.

Teorema (Cayley-Hamilton). Si $A$ es una matriz de $n\times n$ con entradas en $\mathbb{C}$ y $\chi_A(x)$ es su polinomio característico, entonces $$\chi_A(A)=O_n.$$

En realidad el teorema de Cayley-Hamilton es válido para matrices más generales. Daremos un esbozo de demostración sólo para matrices con entradas complejas pues eso nos permite introducir una técnica de perturbaciones.

Esbozo de demostración. Vamos a hacer la técnica de la bola de nieve, construyendo familias poco a poco más grandes de matrices que satisfacen el teorema.

Si $A$ es una matriz diagonal, las entradas en su diagonal son sus eigenvalores $\lambda_1,\ldots, \lambda_n$. Por la discusión al inicio de esta entrada, $\chi_A(A)$ es diagonal con entradas $\chi_A(\lambda_1),\ldots,\chi_A(\lambda_n)$, y como los eigenvalores son raíces del polinomio característico, entonces todos estos valores son $0$, y por lo tanto $\chi_A(A)=0$.

Si $A$ es diagonalizable, digamos, de la forma $A=P^{-1} D P$, entonces $A$ y $D$ tienen el mismo polinomio característico. Por la discusión al inicio de la entrada, y por el caso anterior:
\begin{align*}
\chi_A(A) &= \chi_D(A)\\
&= \chi_D(P^{-1} D P)\\
&=P^{-1}\chi_D(D) P\\
&=P^{-1}O_n P \\
&=O_n.
\end{align*}

Si $A$ tiene todos sus eigenvalores distintos, se puede mostrar que $A$ es diagonalizable. Ahora viene la idea clave del argumento de continuidad.

Pensemos al espacio métrico de matrices de $n\times n$. Afirmamos que las matrices con eigenvalores todos distintos son densas en este espacio métrico. Para ello, tomemos una matriz $A$. En efecto, como estamos trabajando en $\mathbb{C}$, existe una matriz invertible $P$ tal que $P^{-1}A P$ es triangular. Como $P$ es invertible, define una transformación continua. Los eigenvalores de $P^{-1} A P$ son sus entradas en la diagonal, y podemos perturbarlos tan poquito como queramos para hacer que todos sean distintos.

De esta forma, existe una sucesión de matrices $A_k$, todas ellas diagonalizables, tales que $A_k \to A$ conforme $k\to \infty$. El resultado se sigue entonces de las siguientes observaciones:

  • Los coeficientes del polinomio característico de una matriz dependen continuamente de sus entradas.
  • Las entradas de potencias de una matriz dependen continuamente de sus entradas.
  • Así, la función $\chi_{M}(M)$ es continua en la matriz variable $M$.

Concluimos como sigue $\chi_{A_k}(A_k)=0$, por ser cada una de las matrices $A_k$ diagonalizables. Por la continuidad de $\chi_{M}(M)$, tenemos que
\begin{align*}
\chi_A(A)&=\lim_{k\to \infty} \chi_{A_k}(A_k)\\
&= \lim_{k\to \infty} O_n \\
&= O_n.
\end{align*}

$\square$

Terminamos esta entrada con un problema que usa el teorema de Cayley-Hamilton.

Problema. Muestra que para cualesquiera matrices $X,Y,Z$ de $2\times 2$ con entradas reales se cumple que
\begin{align*}
&ZXYXY + ZYXYX + XYYXZ + YXXYZ\\
= &XYXYZ + YXYXZ + ZXYYX + ZYXXY.
\end{align*}

Sugerencia pre-solución. Muestra que las matrices reales de $2\times 2$ de traza cero conmutan con cualquier matriz de $2\times 2$.

Solución. Si $A$ es una matriz de $2\times 2$ de traza cero, su polinomio característico es
\begin{align*}
\chi_A(x)&=x^2 – \text{tr}(A) x + \det(A)\\
&=x^2 + \det(A).
\end{align*}

Por el teorema de Cayley-Hamilton, se satisface entonces que $A^2=-\det(A) I_2$, así que $A^2$ es un múltiplo de la identidad, y por lo tanto conmuta con cualquier matriz de $2\times 2$.

La identidad que queremos mostrar se puede reescribir como $$Z(XY-YX)^2 = (XY-YX)^2Z.$$

La traza de $XY$ es igual a la traza de $YX$, y como la traza es una transformación lineal, tenemos que $$\text{tr}(XY-YX)= \text{tr}(XY)-\text{tr}(YX)=0.$$ El problema se termina aplicando la discusión de arriba a la matriz $$A=XY-YX.$$

$\square$

Más problemas

Puedes encontrar más problemas relacionados con el polinomio mínimo, el polinomio característico y el teorema de Cayley-Hamilton en la Sección 8.2, 8.4 y 8.5 del libro Essential Linear Algebra de Titu Andreescu. También hay más problemas relacionados con el teorema de Cayley-Hamilton en el Capítulo 4 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.

Álgebra Lineal I: Problemas de eigenvalores, eigenvectores y polinomio característico.

Por Ayax Calderón

Para esta entrada haremos uso de las definiciones y propiedades básicas de eigenvalores y polinomio característico vistas en las clases del miércoles y viernes de la semana pasada.

Problema 1. Encuentra los valores propios de la matriz.
$$A=\begin{pmatrix}
0 & -1\\
1 & 0\end{pmatrix}$$

Solución. Consideremos a $A$ como una matriz con entradas complejas. Sea $\lambda$ un eigenvalor y $x$ un vector no nulo tal que $Ax=\lambda x$. Si $x_1,x_2$ son las coordenadas de $x$, la condición $Ax=\lambda x$ es equivalente a las ecuaciones

$$-x_2=\lambda x_1, \hspace{0.5cm} x_1=\lambda x_2.$$

Sustituyendo $x_1$ en la primera ecuación se sigue que $-x_2=\lambda ^2 x_2.$
Si $x_2=0$, entonces $x_1=0$, lo cual es imposible. Por lo tanto $x_2\neq 0$ y necesariamente $\lambda ^2 =-1$, entonces $\lambda\in \{-i,i\}$. Conversamente, $i$ y $-i$ son ambos eigenvalores, ya que podemos escoger $x_2=1$ y $x_1=\lambda$ como solución del sistema anterior. Así que vista como matriz compleja, $A$ tiene dos valores propios $\pm i$.

Por otro lado, si vemos a $A$ como matriz con entradas reales, y $\lambda\in \mathbb{R}$ es un eigenvalor y $x$ un eigenvector como arriba, entonces

$$(\lambda^2 +1)x_2=0.$$

Como $\lambda$ es real, $\lambda^2 +1$ es distinto de cero y así $x_2=0$, luego $x_1=0$ y $x=0$. Así que, en conclusión, vista como matriz con entradas reales, $A$ no tiene eigenvalores.

Problema 2. Encuentra el polinomio característico y los eigenvalores de la matriz

$$A=\begin{pmatrix}
0 & 1 & 1\\
1 & 0 & 1\\
1 & 1 & 1\end{pmatrix} \in M_3(F_2).$$

Solución. $\chi_A(\lambda)= \det (\lambda I_3 -A)= \det (\lambda I_3 +A)$ (pues $-1=1$ en $F_2$).

$\begin{vmatrix}
\lambda & 1 & 1\\
1 & \lambda & 1\\
1 & 1 & \lambda + 1 \end{vmatrix} = \begin{vmatrix}
1+ \lambda & 0 & 1\\
1 + \lambda & 1+ \lambda & 1\\
0 & \lambda & \lambda + 1 \end{vmatrix}$

La igualdad anterior se obtiene de sumar la segunda columna a la primera y la tercera columna a la segunda.

Ahora vemos que

$\begin{vmatrix}
\lambda +1 & 0 & 1\\
1+ \lambda & 1+ \lambda & 1\\
0 & \lambda & \lambda + 1 \end{vmatrix} = (\lambda +1)\begin{vmatrix}
1 & 0 & 1\\
1 & 1+ \lambda & 1\\
0 & \lambda & \lambda + 1 \end{vmatrix}$

$=(\lambda +1)(\lambda +1)^2=(\lambda +1)^3.$

Por lo tanto, $\chi_A(\lambda)=(\lambda +1)^3$, y así el único eigenvalor es $1$.

$\triangle$

Problema 3. Sean $a_0, a_1, \dots, a_{n-1}\in F$ y sea

$A=\begin{pmatrix}
0 & 0 & 0 & \dots & 0 & a_0\\
1 & 0 & 0 & \dots & 0 & a_1\\
0 & 1 & 0 & \dots & 0 & a_2\\
\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\
0 & 0 & 0 & \dots & 1 & a_{n-1}\end{pmatrix}.$

Demuestra que

$$\chi_A=x^n-a_{n-1}x^{n-1}-\dots – a_0.$$

Demostración. Sea $P=x^n-a_{n-1}x^{n-1}-\dots -a_1x- a_0$. Considera la matriz

$$B=xI_n-A=\begin{pmatrix}
x & 0 & 0 & \dots & 0 & -a_0\\
-1 & x & 0 & \dots & 0 & -a_1\\
0 & -1 & x & \dots & 0 & -a_2\\
\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\
0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.$$

Sumando a la primera fila de $B$ la segunda fila multiplicada por $x$, la tercera fila multiplicada por $x^2$, $\dots$, la $n-$ésima fila multiplicada por $x^{n-1}$ obtenemos la matriz.

$$C=\begin{pmatrix}
0 & 0 & 0 & \dots & 0 & P\\
-1 & x & 0 & \dots & 0 & -a_1\\
0 & -1 & x & \dots & 0 & -a_2\\
\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\
0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.$$

Tenemos que $\chi_A=\det B = \det C$ y, desarrollando $\det C$ con respecto a la primera fila, obtenemos

$$\det C = (-1)^{n+1}P\cdot \begin{vmatrix}
-1 & x & \dots & 0\\
0 & -1 & \dots & 0\\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \dots & -1\end{vmatrix} = (-1)^{n+1}P(-1)^{n-1}=P. $$

$\square$

Problema 4. Sea $A\in M_n(F)$ una matriz con polinomio característico
$$\chi_A(t)=(-1)^nt^n+\dots +a_1t+a_0.$$
Demuestra que$\chi_A(0)=a_0$. Deduce que $A$ es invertible si y sólo si $a_0\neq 0$.

Demostración. Es fácil ver que $\chi_A(0)=a_0$, ya que $a_0$ es el término independiente. Por otro lado, recordamos que $\chi_A(t)=\det(A-tI_n)$, entonces $\chi_A(0)=\det A$. se sigue que $\chi_A(0)=a_0= \det A$, y por la última igualdad sabemos que $A$ es invertible si y sólo si $a_0\neq 0$.

$\square$

Problema 5. Demuestra que cualquier matriz $A\in M_n(\mathbb{R})$ es suma de dos matrices invertibles.

Demostración. Veamos que existen $B,C\in M_n(\mathbb{R})$ tales que $A=B+C$.
Definimos la matriz $B$ como: $b_{ii}=-1$ si $a_{ii}=0$ y $b_{ii}=\frac{a_{ii}}{2}$ si $a_{ii}\neq 0$,$ b_{ij}=a_{ij}$ si $i>j$ y $b_{ij}=0$ si $i<j$.

Similarmente definimos la matriz $C$ como: $c_{ii}=1$ si $a_{ii}=0$, $c_{ii}=\frac{a_{ii}}{2}$ si $a_{ii}\neq 0$, $ c_{ij}=a_{ij}$ si $i<j$ y $c_{ij}=0$ si $i>j$.

Por construcción $B$ y $C$ son matrices triangulares con todas sus entradas diagonales distintas de cero. Por lo tanto $0\not\in\{\det B, \det C\}$, es decir, $B$ y $C$ son invertibles. Además por la manera en la que construimos las matrices $B$ y $C$ se tiene que $A=B+C$.

$\square$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Matrices simétricas reales y sus eigenvalores

Por Leonardo Ignacio Martínez Sandoval

Introducción

Hemos llegado a la cima del curso. En estas últimas entradas probaremos uno de los teoremas más bellos en álgebra lineal: el teorema espectral para matrices simétricas reales. También hablaremos de varias de las consecuencias que tiene.

Hay dos formas equivalentes de enunciar el teorema.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Teorema. Sea $A$ una matriz simétrica en $\mathbb{R}^n$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $\mathbb{R}^n$, tales que $$A=P^{-1}DP.$$

Para hablar de la demostración y de las consecuencias del teorema espectral para matrices simétricas reales, necesitaremos usar teoría de todas las unidades del curso. En particular, usaremos las siguientes definiciones:

  • Una matriz $A$ en $M_n(F)$ es simétrica si es igual a su transpuesta.
  • Una matriz $A$ en $M_n(F)$ es ortogonal si es invertible y $A^{-1}= {^tA}$.
  • Si $T:V\to V$ es una transformación lineal de un espacio vectorial $V$ a sí mismo y $W$ es un subespacio de $V$, entonces decimos que $W$ es estable bajo $T$ si $T(W)\subseteq W$.
  • Un producto interior es una forma bilineal simétrica y positiva definida.
  • Un espacio Euclideano es un espacio vectorial de dimensión finita con un producto interior.
  • Si $W$ es un subespacio de un espacio Euclideano $V$, entonces $W^\bot$ es el conjunto de todos los vectores que de $V$ que son ortogonales a todos los vectores de $W$.
  • Una matriz $A$ en $M_n(F)$ es diagonalizable si existen matrices $P$ y $D$ en $M_n(F)$ con $P$ invertible, $D$ diagonal y tales que $A=P^{-1}DP$.

Y los siguientes resultados principales:

En esta entrada enunciaremos tres resultados auxiliares de interés propio. A partir de estos resultados, la demostración del teorema espectral para matrices simétricas reales y la equivalencia entre ambas versiones será mucho más limpia.

Los eigenvalores de matrices simétricas reales

El polinomio característico de una matriz $A$ en $M_n(\mathbb{R})$ tiene coeficientes reales. Por el teorema fundamental del álgebra, debe tener exactamente $n$ raíces en $\mathbb{C}$, contando multiplicidades. Si alguna de estas raíces $r$ no es real, entonces $A$ no puede ser diagonalizable en $M_n(\mathbb{R})$. La razón es que $A$ sería similar a una matriz diagonal $D$, y los eigenvalores de las matrices diagonales (incluso triangulares) son las entradas de la diagonal principal. Como $A$ y $D$ comparten eigenvalores (por ser similares), entonces $r$ tendría que ser una entrada de $D$, pero entonces $D$ ya no sería una matriz de entradas reales.

Lo primero que veremos es que las matrices simétricas reales «superan esta dificultad para poder diagonalizarse». Esta va a ser nuestra primer herramienta para demostrar el teorema espectral.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y $\lambda$ una raíz del polinomio característico de $A$. Entonces, $\lambda$ es un número real.

Demostración. El polinomio característico de $A$ es un polinomio con coeficientes reales, así que por el teorema fundamental del álgebra se tiene que $\lambda$ debe ser un número en $\mathbb{C}$. Así, podemos escribirlo de la forma $\lambda = a+ib$, con $a$ y $b$ números reales. Lo que mostraremos es que $b=0$.

Se tiene que $\lambda$ es un eigenvalor de $A$ vista como matriz en $M_n(\mathbb{C})$, y por lo tanto le corresponde un eigenvector $U$ en $\mathbb{C}^n$, es decir, un $U\neq 0$ tal que $$AU=\lambda U.$$ Este vector $U$ lo podemos separar en partes reales e imaginarias con vectores $V$ y $W$ en $\mathbb{R}^n$ tales que $$U=V+iW.$$

En estos términos,
\begin{align*}
AU&=A(V+iW)=AV+iAW \quad\text{y}\\
\lambda U &= (a+ib)(V+iW)\\
&=(aV-bW) + i (aW+bV),
\end{align*}

de modo que igualando partes reales e imaginarias en la expresión $AU=\lambda U$ tenemos que
\begin{align*}
AV&=aV-bW\quad\text{y}\\
AW&=aW+bV.
\end{align*}

Como $A$ es simétrica, tenemos que

\begin{equation}
\langle AV,W \rangle=\langle {^tA}V,W \rangle= \langle V, AW\rangle.
\end{equation}

Estudiemos las expresiones en los extremos, reemplazando los valores de $AV$ y $AW$ que encontramos arriba y usando la bilinealidad del producto interior. Se tiene que

\begin{align*}
\langle AV,W \rangle &= \langle aV-bW,W \rangle\\
&=a\langle V,W \rangle – b \langle W,W \rangle\\
&=a \langle V,W \rangle – b \norm{W}^2,
\end{align*}

y que

\begin{align*}
\langle V,AW \rangle &= \langle V,aW+bV \rangle\\
&=a\langle V,W \rangle + b \langle V,V \rangle\\
&=a \langle V,W \rangle + b \norm{V}^2.
\end{align*}

Substituyendo estos valores en la expresión (1), obtenemos la igualdad

$$a \langle V,W \rangle – b \norm{W}^2 = a \langle V,W \rangle + b \norm{V}^2,$$

que se simplifica a $$b(\norm{V}^2+\norm{W}^2)=0.$$

Estamos listos para dar el argumento final. Como $U=V+iW$ es un eigenvector, entonces no es nulo, de modo que no es posible que $V$ y $W$ sean ambos el vector $0$ de $\mathbb{R}^n$. Como el producto interior es positivo definido, entonces alguna de las normas $\norm{V}$ o $\norm{W}$ no es cero, de modo que $$\norm{V}^2+\norm{W}^2\neq 0.$$

Concluimos que $b=0$, y por lo tanto que $\lambda$ es un número real.

$\square$

La demostración anterior es ejemplo de un truco que se usa mucho en las matemáticas. Aunque un problema o un teorema no hablen de los números complejos en su enunciado, se puede introducir a $\mathbb{C}$ para usar sus propiedades y trabajar ahí. Luego, se regresa lo obtenido al contexto real. Aquí en el blog hay otra entrada en donde damos más ejemplos de «brincar a los complejos».

Un resultado auxiliar de transformaciones simétricas

A continuación damos la segunda herramienta que necesitaremos para probar el teorema espectral. Recuerda que si $V$ es un espacio Euclideano y $T:V\to V$ es una transformación lineal, entonces decimos que $T$ es simétrica si para todo par de vectores $u$ y $v$ en $V$ se tiene que $$\langle T(u),v\rangle = \langle u, T(v) \rangle.$$ Enunciamos el resultado en términos de transformaciones, pero también es válido para las matrices simétricas asociadas.

Teorema. Sea $V$ un espacio Eucideano y $T:V\to V$ una transformación lineal simétrica. Sea $W$ un subespacio de $V$ estable bajo $T$. Entonces:

  • $W^\bot$ también es estable bajo $T$ y
  • Las restricciones de $T$ a $W$ y a $W^\bot$ son transformaciones lineales simétricas en esos espacios.

Demostración. Para el primer punto, lo que tenemos que mostrar es que si $w$ pertenece a $W^\bot$, entonces $T(w)$ también, es decir, que $T(w)$ es ortogonal a todo vector $v$ en $W$.

Tomemos entonces un vector $v$ en $W$. Como $W$ es estable bajo $T$, tenemos que $T(v)$ está en $W$, de modo que $\langle w, T(v) \rangle =0$. Como $T$ es simétrica, tenemos entonces que $$\langle T(w),v \rangle = \langle w, T(v) \rangle = 0.$$ Esto es lo que queríamos probar.

Para la segunda parte, si $T_1$ es la restricción de $T_1$ a $W$ y tomamos vectores $u$ y $v$ en $W$, tenemos que
\begin{align*}
\langle T_1(u), v \rangle &= \langle T(u), v \rangle\\
&=\langle u, T(v) \rangle \\
&=\langle u, T_1(v) \rangle,
\end{align*}

lo cual muestra que $T_1$ es simétrica. La prueba para $W^\bot $ es análoga y queda como tarea moral.

$\square$

Matrices diagonalizables y bases ortonormales de eigenvectores

El tercer y último resultado enuncia una equivalencia entre que una matriz en $M_n(F)$ sea diagonalizable, y que exista una base especial para $F^n$. Es lo que usaremos para probar la equivalencia entre ambas formulaciones del teorema espectral para matrices simétricas reales.

Teorema. Sea $A$ una matriz en $M_n(F)$. Las siguientes dos afirmaciones son equivalentes:

  • $A$ es diagonalizable, es decir, existen matrices $P$ y $D$ en $M_n(F)$, con $P$ invertible y $D$ diagonal tales que $A=P^{-1}DP.$
  • Existe una base para $F^n$ que consiste de eigenvectores de $A$.

Demostración. Antes de comenzar la demostración, recordemos que si tenemos una matriz $B$ en $M_n(F)$ de vectores columna $$C_1,\ldots,C_n,$$ entonces los vectores columna del producto $AB$ son $$AC_1,\ldots AC_n.$$ Además, si $D$ es una matriz diagonal en $M_n(F)$ con entradas en la diagonal $d_1,\ldots,d_n$, entonces los vectores columna de $BD$ son $$d_1C_1,\ldots,d_nC_n.$$

Comencemos la prueba del teorema. Supongamos que $A$ es diagonalizable y tomemos matrices $P$ y $D$ en $M_n(F)$ con $P$ invertible y $D$ diagonal de entradas $d_1,\ldots,d_n$, tales que $A=P^{-1}DP$. Afirmamos que los vectores columna $C_1,\ldots,C_n$ de $P^{-1}$ forman una base de $F^n$ que consiste de eigenvectores de $A$.

Por un lado, como son los vectores columna de una matriz invertible, entonces son linealmente independientes. En total son $n$, como la dimensión de $F^n$. Esto prueba que son una base.

De $A=P^{-1}DP$ obtenemos la igualdad $AP^{-1}=P^{-1}D$. Por las observaciones al inicio de la prueba, tenemos al igualar columnas que para cada $j=1,\ldots,n$ se cumple $$AC_j = d_j C_j.$$ Como $C_j$ forma parte de un conjunto linealmente independiente, no es el vector $0$. Así, $C_j$ es un eigenvector de $A$ con eigenvalor $d_j$. Con esto terminamos una de las implicaciones.

Supongamos ahora que existe una base de $F^n$ que consiste de eigenvectores $C_1,\ldots,C_n$ de $A$. Para cada $j=1,\ldots,n$, llamemos $\lambda_j$ al eigenvalor correspondiente a $C_j$, y llamemos $D$ a la matriz diagonal con entradas $\lambda_1,\ldots,\lambda_n$.

Como $C_1,\ldots,C_n$ son vectores linealmente independientes, la matriz $B$ cuyas columnas son $C_1,\ldots, C_n$ es invertible. Además, por las observaciones al inicio de la prueba, se tiene que la columna $j$ de la matriz$AB$ es $AC_j$ y la columna $j$ de la matriz $BD$ es $\lambda_j C_j$. Entonces, por construcción, estas matrices son iguales columna a columna, y por lo tanto lo son iguales. De esta forma, tenemos que $AB=BD$, o bien, reescribiendo esta igualdad, que $$A=BDB^{-1}.$$ Así, la matriz invertible $P=B^{-1}$ y la matriz diagonal $D$ diagonalizan a $A$.

$\square$

Las matrices simétricas reales serán todavía más especiales que simplemente las matrices diagonalizables. Lo que asegura el teorema espectral es que podremos encontrar no sólo una base de eigenvectores, sino que además podemos garantizar que esta base sea ortonormal. En términos de diagonalización, la matriz $P$ no sólo será invertible, sino que además será ortogonal.

Más adelante…

En esta entrada enunciamos dos formas del teorema espectral y hablamos de algunas consecuencias que tiene. Además, repasamos un poco de la teoría que hemos visto a lo largo del curso y vimos cómo nos ayuda a entender mejor este teorema.

En la siguiente entrada, que es la última del curso, demostraremos las dos formas del teorema espectral que enunciamos en esta entrada y haremos un pequeño comentario sobre qué hay más allá del teorema espectral en el álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Encuentra un ejemplo de una matriz simétrica en $M_n(\mathbb{C})$ cuyos eigenvalores no sean reales.
  • En el contexto del segundo teorema, muestra que la restricción de $T$ a $W^\bot$ es simétrica.
  • Realiza la demostración de que si $A$ y $B$ son matrices en $M_n(F)$ y los vectores columna de $B$ son $C_1,\ldots,C_n$, entonces los vectores columna de $AB$ son $AC_1,\ldots,AC_n$. También, prueba que si $D$ es diagonal de entradas $d_1,\ldots,d_n$, entonces las columnas de $BD$ son $d_1C_1,\ldots,d_nC_n$.
  • Encuentra una matriz $A$ con entradas reales similar a la matriz $$\begin{pmatrix} 1 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -3 \end{pmatrix},$$ tal que ninguna de sus entradas sea igual a $0$. Encuentra una base ortogonal de eigenvectores de $A$ para $\mathbb{R}^3$.
  • Diagonaliza la matriz $$\begin{pmatrix}-2 & 0 & 0 & 0\\0 & 2 & 0 & 0\\ \frac{19}{7} & \frac{30}{7} & \frac{65}{7} & \frac{24}{7}\\ \frac{6}{7} & – \frac{20}{7} & – \frac{48}{7} & – \frac{23}{7}\end{pmatrix}.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»