Archivo de la etiqueta: vectores propios

Álgebra Lineal I: Matrices simétricas reales y sus eigenvalores

Introducción

Hemos llegado a la cima del curso. En estas últimas entradas probaremos uno de los teoremas más bellos en álgebra lineal: el teorema espectral para matrices simétricas reales. También hablaremos de varias de las consecuencias que tiene.

Hay dos formas equivalentes de enunciar el teorema.

Teorema. Sea V un espacio euclideano y T:V\to V una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Teorema. Sea A una matriz simétrica en \mathbb{R}^n. Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en \mathbb{R}^n, tales que

    \[A=P^{-1}DP.\]

Para hablar de la demostración y de las consecuencias del teorema espectral para matrices simétricas reales, necesitaremos usar teoría de todas las unidades del curso. En particular, usaremos las siguientes definiciones:

  • Una matriz A en M_n(F) es simétrica si es igual a su transpuesta.
  • Una matriz A en M_n(F) es ortogonal si es invertible y A^{-1}= {^tA}.
  • Si T:V\to V es una transformación lineal de un espacio vectorial V a sí mismo y W es un subespacio de V, entonces decimos que W es estable bajo T si T(W)\subseteq W.
  • Un producto interior es una forma bilineal simétrica y positiva definida.
  • Un espacio Euclideano es un espacio vectorial de dimensión finita con un producto interior.
  • Si W es un subespacio de un espacio Euclideano V, entonces W^\bot es el conjunto de todos los vectores que de V que son ortogonales a todos los vectores de W.
  • Una matriz A en M_n(F) es diagonalizable si existen matrices P y D en M_n(F) con P invertible, D diagonal y tales que A=P^{-1}DP.

Y los siguientes resultados principales:

En esta entrada enunciaremos tres resultados auxiliares de interés propio. A partir de estos resultados, la demostración del teorema espectral para matrices simétricas reales y la equivalencia entre ambas versiones será mucho más limpia.

Los eigenvalores de matrices simétricas reales

El polinomio característico de una matriz A en M_n(\mathbb{R}) tiene coeficientes reales. Por el teorema fundamental del álgebra, debe tener exactamente n raíces en \mathbb{C}, contando multiplicidades. Si alguna de estas raíces r no es real, entonces A no puede ser diagonalizable en M_n(\mathbb{R}). La razón es que A sería similar a una matriz diagonal D, y los eigenvalores de las matrices diagonales (incluso triangulares) son las entradas de la diagonal principal. Como A y D comparten eigenvalores (por ser similares), entonces r tendría que ser una entrada de D, pero entonces D ya no sería una matriz de entradas reales.

Lo primero que veremos es que las matrices simétricas reales «superan esta dificultad para poder diagonalizarse». Esta va a ser nuestra primer herramienta para demostrar el teorema espectral.

Teorema. Sea A una matriz simétrica en M_n(\mathbb{R}) y \lambda una raíz del polinomio característico de A. Entonces, \lambda es un número real.

Demostración. El polinomio característico de A es un polinomio con coeficientes reales, así que por el teorema fundamental del álgebra se tiene que \lambda debe ser un número en \mathbb{C}. Así, podemos escribirlo de la forma \lambda = a+ib, con a y b números reales. Lo que mostraremos es que b=0.

Se tiene que \lambda es un eigenvalor de A vista como matriz en M_n(\mathbb{C}), y por lo tanto le corresponde un eigenvector U en \mathbb{C}^n, es decir, un U\neq 0 tal que

    \[AU=\lambda U.\]

Este vector U lo podemos separar en partes reales e imaginarias con vectores V y W en \mathbb{R}^n tales que

    \[U=V+iW.\]

En estos términos,

    \begin{align*}AU&=A(V+iW)=AV+iAW \quad\text{y}\\\lambda U &= (a+ib)(V+iW)\\&=(aV-bW) + i (aW+bV),\end{align*}

de modo que igualando partes reales e imaginarias en la expresión AU=\lambda U tenemos que

    \begin{align*}AV&=aV-bW\quad\text{y}\\AW&=aW+bV.\end{align*}

Como A es simétrica, tenemos que

(1)   \begin{equation*}\langle AV,W \rangle=\langle {^tA}V,W \rangle= \langle V, AW\rangle.\end{equation*}

Estudiemos las expresiones en los extremos, reemplazando los valores de AV y AW que encontramos arriba y usando la bilinealidad del producto interior. Se tiene que

    \begin{align*}\langle AV,W \rangle &= \langle aV-bW,W \rangle\\&=a\langle V,W \rangle - b \langle W,W \rangle\\&=a \langle V,W \rangle - b \norm{W}^2,\end{align*}

y que

    \begin{align*}\langle V,AW \rangle &= \langle V,aW+bV \rangle\\&=a\langle V,W \rangle + b \langle V,V \rangle\\&=a \langle V,W \rangle + b \norm{V}^2.\end{align*}

Substituyendo estos valores en la expresión (1), obtenemos la igualdad

    \[a \langle V,W \rangle - b \norm{W}^2 = a \langle V,W \rangle + b \norm{V}^2,\]

que se simplifica a

    \[b(\norm{V}^2+\norm{W}^2)=0.\]

Estamos listos para dar el argumento final. Como U=V+iW es un eigenvector, entonces no es nulo, de modo que no es posible que V y W sean ambos el vector 0 de \mathbb{R}^n. Como el producto interior es positivo definido, entonces alguna de las normas \norm{V} o \norm{W} no es cero, de modo que

    \[\norm{V}^2+\norm{W}^2\neq 0.\]

Concluimos que b=0, y por lo tanto que \lambda es un número real.

\square

La demostración anterior es ejemplo de un truco que se usa mucho en las matemáticas. Aunque un problema o un teorema no hablen de los números complejos en su enunciado, se puede introducir a \mathbb{C} para usar sus propiedades y trabajar ahí. Luego, se regresa lo obtenido al contexto real. Aquí en el blog hay otra entrada en donde damos más ejemplos de «brincar a los complejos».

Un resultado auxiliar de transformaciones simétricas

A continuación damos la segunda herramienta que necesitaremos para probar el teorema espectral. Recuerda que si V es un espacio Euclideano y T:V\to V es una transformación lineal, entonces decimos que T es simétrica si para todo par de vectores u y v en V se tiene que

    \[\langle T(u),v\rangle = \langle u, T(v) \rangle.\]

Enunciamos el resultado en términos de transformaciones, pero también es válido para las matrices simétricas asociadas.

Teorema. Sea V un espacio Eucideano y T:V\to V una transformación lineal simétrica. Sea W un subespacio de V estable bajo T. Entonces:

  • W^\bot también es estable bajo T y
  • Las restricciones de T a W y a W^\bot son transformaciones lineales simétricas en esos espacios.

Demostración. Para el primer punto, lo que tenemos que mostrar es que si w pertenece a W^\bot, entonces T(w) también, es decir, que T(w) es ortogonal a todo vector v en W.

Tomemos entonces un vector v en W. Como W es estable bajo T, tenemos que T(v) está en W, de modo que \langle w, T(v) \rangle =0. Como T es simétrica, tenemos entonces que

    \[\langle T(w),v \rangle = \langle w, T(v) \rangle = 0.\]

Esto es lo que queríamos probar.

Para la segunda parte, si T_1 es la restricción de T_1 a W y tomamos vectores u y v en W, tenemos que

    \begin{align*}\langle T_1(u), v \rangle &= \langle T(u), v \rangle\\&=\langle u, T(v) \rangle \\&=\langle u, T_1(v) \rangle,\end{align*}

lo cual muestra que T_1 es simétrica. La prueba para W^\bot es análoga y queda como tarea moral.

\square

Matrices diagonalizables y bases ortonormales de eigenvectores

El tercer y último resultado enuncia una equivalencia entre que una matriz en M_n(F) sea diagonalizable, y que exista una base especial para F^n. Es lo que usaremos para probar la equivalencia entre ambas formulaciones del teorema espectral para matrices simétricas reales.

Teorema. Sea A una matriz en M_n(F). Las siguientes dos afirmaciones son equivalentes:

  • A es diagonalizable, es decir, existen matrices P y D en M_n(F), con P invertible y D diagonal tales que A=P^{-1}DP.
  • Existe una base para F^n que consiste de eigenvectores de A.

Demostración. Antes de comenzar la demostración, recordemos que si tenemos una matriz B en M_n(F) de vectores columna

    \[C_1,\ldots,C_n,\]

entonces los vectores columna del producto AB son

    \[AC_1,\ldots AC_n.\]

Además, si D es una matriz diagonal en M_n(F) con entradas en la diagonal d_1,\ldots,d_n, entonces los vectores columna de BD son

    \[d_1C_1,\ldots,d_nC_n.\]

Comencemos la prueba del teorema. Supongamos que A es diagonalizable y tomemos matrices P y D en M_n(F) con P invertible y D diagonal de entradas d_1,\ldots,d_n, tales que A=P^{-1}DP. Afirmamos que los vectores columna C_1,\ldots,C_n de P^{-1} forman una base de F^n que consiste de eigenvectores de A.

Por un lado, como son los vectores columna de una matriz invertible, entonces son linealmente independientes. En total son n, como la dimensión de F^n. Esto prueba que son una base.

De A=P^{-1}DP obtenemos la igualdad AP^{-1}=P^{-1}D. Por las observaciones al inicio de la prueba, tenemos al igualar columnas que para cada j=1,\ldots,n se cumple

    \[AC_j = d_j C_j.\]

Como C_j forma parte de un conjunto linealmente independiente, no es el vector 0. Así, C_j es un eigenvector de A con eigenvalor d_j. Con esto terminamos una de las implicaciones.

Supongamos ahora que existe una base de F^n que consiste de eigenvectores C_1,\ldots,C_n de A. Para cada j=1,\ldots,n, llamemos \lambda_j al eigenvalor correspondiente a C_j, y llamemos D a la matriz diagonal con entradas \lambda_1,\ldots,\lambda_n.

Como C_1,\ldots,C_n son vectores linealmente independientes, la matriz B cuyas columnas son C_1,\ldots, C_n es invertible. Además, por las observaciones al inicio de la prueba, se tiene que la columna j de la matrizAB es AC_j y la columna j de la matriz BD es \lambda_j C_j. Entonces, por construcción, estas matrices son iguales columna a columna, y por lo tanto lo son iguales. De esta forma, tenemos que AB=BD, o bien, reescribiendo esta igualdad, que

    \[A=BDB^{-1}.\]

Así, la matriz invertible P=B^{-1} y la matriz diagonal D diagonalizan a A.

\square

Las matrices simétricas reales serán todavía más especiales que simplemente las matrices diagonalizables. Lo que asegura el teorema espectral es que podremos encontrar no sólo una base de eigenvectores, sino que además podemos garantizar que esta base sea ortonormal. En términos de diagonalización, la matriz P no sólo será invertible, sino que además será ortogonal.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra un ejemplo de una matriz simétrica en M_n(\mathbb{C}) cuyos eigenvalores no sean reales.
  • En el contexto del segundo teorema, muestra que la restricción de T a W^\bot es simétrica.
  • Realiza la demostración de que si A y B son matrices en M_n(F) y los vectores columna de B son C_1,\ldots,C_n, entonces los vectores columna de AB son AC_1,\ldots,AC_n. También, prueba que si D es diagonal de entradas d_1,\ldots,d_n, entonces las columnas de BD son d_1C_1,\ldots,d_nC_n.
  • Encuentra una matriz A con entradas reales similar a la matriz

        \[\begin{pmatrix} 1 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -3 \end{pmatrix},\]

    tal que ninguna de sus entradas sea igual a 0. Encuentra una base ortogonal de eigenvectores de A para \mathbb{R}^3.
  • Diagonaliza la matriz

        \[\begin{pmatrix}-2 & 0 & 0 & 0\\0 & 2 & 0 & 0\\ \frac{19}{7} & \frac{30}{7} & \frac{65}{7} & \frac{24}{7}\\ \frac{6}{7} & - \frac{20}{7} & - \frac{48}{7} & - \frac{23}{7}\end{pmatrix}.\]

Álgebra Lineal I: Propiedades del polinomio característico

Introducción

En esta entrada continuamos con el estudio de eigenvalores y eigenvectores de matrices y trasformaciones lineales. Para ello, estudiaremos más a profundidad el polinomio característico.

Como recordatorio, en una entrada pasada demostramos que si A es una matriz en M_n(F), entonces la expresión \det (\lambda I_n - A) es un polinomio en \lambda de grado n con coeficientes en F. A partir de ello, definimos el polinomio característico de A como

    \[\chi_A(\lambda)=\det(\lambda I_n - A).\]

En esta entrada probaremos algunas propiedades importantes del polinomio característico de matrices. Además, hablaremos de la multiplicidad algebraica de los eigenvalores. Finalmente enunciaremos sin demostración dos teoremas fundamentales en álgebra lineal: el teorema de caracterización de matrices diagonalizables y el teorema de Cayley-Hamilton.

Las raíces del polinomio característico son los eigenvalores

Ya vimos que las raíces del polinomio característico son los eigenvalores. Pero hay que tener cuidado. Deben ser las raíces que estén en el campo en el cual la matriz esté definida. Veamos un ejemplo más.

Problema. Encuentra el polinomio característico y los eigenvalores de la matriz

    \begin{align*}\begin{pmatrix}0&1&0&0\\2&0&-1&0\\0& 7 & 0 & 6\\0 & 0 & 3 & 0\end{pmatrix}.\end{align*}

Solución. Debemos encontrar las raíces del polinomio dado por el siguiente determinante:

    \begin{align*}\begin{vmatrix}\lambda&-1&0&0\\-2&\lambda&1&0\\0& -7 & \lambda & -6\\0 & 0 & -3 & \lambda\end{vmatrix}.\end{align*}

Haciendo expansión de Laplace en la primer columna, tenemos que este determinante es igual a

    \begin{align*}\lambda\begin{vmatrix}\lambda&1&0\\ -7 & \lambda & -6\\ 0 & -3 & \lambda\end{vmatrix}+2\begin{vmatrix}-1&0&0\\-7 & \lambda & -6\\0 & -3 & \lambda\end{vmatrix}.\end{align*}

Para calcular los determinantes de cada una de las matrices de 3\times 3 podemos aplicar la fórmula por diagonales para obtener:

    \begin{align*}\lambda\begin{vmatrix}\lambda&1&0\\-7 & \lambda & -6\\0 & -3 & \lambda\end{vmatrix}&=\lambda(\lambda^3-18\lambda+7\lambda)\\&=\lambda(\lambda^3-11\lambda)\\&=\lambda^4-11\lambda^2\end{align*}

y

    \begin{align*}2\begin{vmatrix}-1&0&0\\-7 & \lambda & -6\\0 & -3 & \lambda\end{vmatrix}&=2(-\lambda^2+18)\\&=-2\lambda^2+36.\end{align*}

Concluimos que el polinomio característico es

    \begin{align*}\lambda^4-13\lambda^2+36&=(\lambda^2-4)(\lambda^2-9)\\&=(\lambda+2)(\lambda-2)(\lambda+3)(\lambda-3).\end{align*}

De esta factorización, las raíces del polinomio (y por lo tanto los eigenvalores que buscamos) son -2,2,-3,3.

Si quisiéramos encontrar un eigenvector para, por ejemplo, el eigenvalor -2, tenemos que encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo

    \[(-2I_n-A)X=0.\]

\square

Propiedades del polinomio característico

Veamos ahora algunas propiedades importantes del polinomio característico. El primer resultado habla del polinomio característico de matrices triangulares superiores. Un resultado análogo se cumple para matrices inferiores, y su enunciado y demostración quedan como tarea moral.

Proposición. Si A=[a_{ij}] es una matriz triangular superior en M_n(F), entonces su polinomio característico es

    \[\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).\]

Demostración. Como A es triangular superior, entonces \lambda I_n -A también, y sus entradas diagonales son precisamente \lambda-a_{ii} para i=1,\ldots,n. Como el determinante de una matriz diagonal es el producto de sus entradas en la diagonal, tenemos que

    \[\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).\]

\square

Como el polinomio característico es un determinante, podemos aprovechar otras propiedades de determinantes para obtener otros resultados.

Proposición. Una matriz y su transpuesta tienen el mismo polinomio característico.

Demostración. Sea A una matriz en M_n(F). Una matriz y su transpuesta tienen el mismo determinante. Además, transponer es una transformación lineal. De este modo:

    \begin{align*}\chi_A(\lambda)&=\det(\lambda I_n - A)\\&=\det({^t(\lambda I_n-A)})\\&=\det(\lambda({^tI_n})-{^tA})\\&=\det(\lambda I_n - {^tA})\\&=\chi_{^tA}(\lambda).\end{align*}

\square

Ya antes habíamos mostrado que matrices similares tienen los mismos eigenvalores, pero que dos polinomios tengan las mismas raíces no necesariamente implica que sean iguales. Por ejemplo, los polinomios

    \[(x-1)^2(x+1) \quad \text{y} \quad (x+1)^2(x-1)\]

tienen las mismas raíces, pero no son iguales.

De esta forma, el siguiente resultado es más fuerte de lo que ya habíamos demostrado antes.

Proposición. Sean A y P matrices en M_n(F) con P invertible. Entonces A y P^{-1}AP tienen el mismo polinomio característico.

Demostración. El resultado se sigue de la siguiente cadena de igualdades, en donde usamos que \det(P)\det(P^{-1})=1 y que el determinante es multiplicativo:

    \begin{align*}\chi_{P^{-1}AP}(\lambda) &= \det(P) \chi_{P^{-1}AP}(\lambda) \det(P)^{-1}\\&=\det(P) \det(\lambda I_n - P^{-1}AP) \det(P^{-1})\\&=\det(P(\lambda I_n - P^{-1}AP)P^{-1})\\&=\det(\lambda PP^{-1}-PP^{-1}APP^{-1})\\&=\det(\lambda I_n - A)\\&=\chi_{A}(\lambda)\end{align*}

\square

Ten cuidado. El determinante es multiplicativo, pero el polinomio característico no es multiplicativo. Esto es evidente por el siguiente argumento. Si A y B son matrices en M_n(F), entonces \chi_A(\lambda) y \chi_B(\lambda) son cada uno polinomios de grado n, así que su producto es un polinomio de grado 2n, que por lo tanto no puede ser igual al polinomio característico \chi_{AB}(\lambda) pues este es de grado n. Así mismo, \chi_{A^2}(\lambda) no es \chi_{A}(\lambda)^2.

Una última propiedad que nos interesa es mostrar que el determinante de una matriz y su traza aparecen en los coeficientes del polinomio característico.

Teorema. Sea A una matriz en M_n(F) y \chi_A(\lambda) su polinomio característico. Entonces \chi_{A}(\lambda) es de la forma

    \[\lambda^n-(\text{tr} A) \lambda^{n-1}+\ldots+(-1)^n \det A.\]

Demostración. Tenemos que mostrar tres cosas:

  • El polinomio \chi_{A} es mónico, es decir, tiene coeficiente principal 1,
  • que el coeficiente del término de grado n-1 es \text{tr} A y
  • el coeficiente libre es (-1)^n \det A.

El coeficiente libre de un polinomio es su evaluación en cero. Usando la homogeneidad del determinante, dicho coeficiente es:

    \begin{align*}\chi_A(0)&=\det(0\cdot I_n-A)\\&=\det(-A)\\&=(-1)^n\det(A).\end{align*}

Esto muestra el tercer punto.

Para el coeficiente del término de grado n-1 y el coeficiente principal analicemos con más detalle la fórmula del determinante

    \begin{align*}\begin{vmatrix}\lambda - a_{11} & -a_{12} & \ldots & -a_{1n}\\-a_{21} & \lambda - a_{22} & \ldots & -a_{1n}\\\vdots & & \ddots & \\-a_{n1} & -a_{n2} & \ldots & \lambda - a_{nn}\end{vmatrix}\end{align*}


en términos de permutaciones.

Como discutimos anteriormente, la única forma de obtener un término de grado n es cuando elegimos a la permutación identidad. Pero esto también es cierto para términos de grado n-1, pues si no elegimos a la identidad, entonces la permutación elige por lo menos dos entradas fuera de la diagonal, y entonces el grado del producto de entradas correspondiente es a lo más n-2.

De este modo, los únicos términos de grado n y n-1 vienen del producto

    \[(\lambda-a_{11})\cdot\ldots\cdot(\lambda-a_{nn}).\]

El único término de grado n viene de elegir \lambda en todos los factores, y se obtiene el sumando \lambda^n, lo cual muestra que el polinomio es mónico.

Los únicos términos de grado n-1 se obtienen de elegir \lambda en n-1 factores y un término del estilo -a_{ii}. Al considerar todas las opciones, el término de grado n-1 es

    \[-(a_{11}+a_{22}+\ldots+a_{nn})\lambda^{n-1}=-(\text{tr} A) \lambda^{n-1},\]

que era lo último que debíamos mostrar.

\square

Ejemplo. El teorema anterior muestra que si A es una matriz en M_2(F), es decir, de 2\times 2, entonces

    \[\chi_A(\lambda)=\lambda^2 - (\text{tr}A) \lambda +\det A.\]

De manera explícita en términos de las entradas tendríamos entonces que si A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}, entonces su polinomio característico es

    \[\lambda^2-(a+d)\lambda+(ad-bc).\]

Como ejemplo, si A=\begin{pmatrix} 5 & 2 \\ -8 & -3 \end{pmatrix}, entonces su polinomio característico es

    \[\lambda^2 -2\lambda +1=(\lambda-1)^2.\]

Su único eigenvalor sería entonces 1.

\square

Suma y producto de eigenvalores de matrices complejas

A veces queremos referirnos al conjunto de todos los eigenvalores de una matriz.

Definición. Para A una matriz en M_n(F), el espectro de A es el conjunto de eigenvalores de A. Lo denotamos por \text{spec} (A)

Tenemos una definición análoga para el espectro de una transformación lineal. Esa definición da un poco de intuición de por qué los teoremas de diagonalización de matrices se llaman teoremas espectrales. La siguiente definición habla de un sentido en el cual un eigenvalor «se repite».

Definición. Sea A una matriz en M_n(F) y \lambda un eigenvalor de A. La multiplicidad algebraica de \lambda es el mayor entero m_{\lambda} tal que (x-\lambda)^{m_\lambda} divide a \chi_A(x).

Cuando estamos en \mathbb{C}, por el teorema fundamental del álgebra todo polinomio de grado n se puede factorizar en exactamente n términos lineales. Además, los polinomios característicos son mónicos. De este modo, si tenemos una matriz A en M_n(\mathbb{C}), su polinomio característico se puede factorizar como sigue:

    \[\chi_A(\lambda) = \prod_{j=1}^n (\lambda-\lambda_j),\]

en donde \lambda_1,\ldots,\lambda_n son eigenvalores de A, no necesariamente distintos, pero en donde cada eigenvalor aparece en tantos términos como su multiplicidad algebraica.

Desarrollando parcialmente el producto del lado derecho, tenemos que el coeficiente de \lambda^{n-1} es

    \[-(\lambda_1+\ldots+\lambda_n)\]

y que el coeficiente libre es

    \[(-1)^n\lambda_1\cdot\ldots\cdot\lambda_n.\]

Combinando este resultado con el de la sección anterior y agrupando eigenvalores por multiplicidad, se demuestra el siguiente resultado importante. Los detalles de la demostración quedan como tarea moral.

Teorema. Sea A una matriz en M_n(\mathbb{C})

  • La traza A es igual a la suma de los eigenvalores, contando multiplicidades algebraicas, es decir:

        \[\text{tr} A = \sum_{\lambda \in \text{spec}(A)} m_{\lambda} \lambda.\]

  • El determinante de A es igual al producto de los eigenvalores, contando multiplicidades algebraicas, es decir:

        \[\det A = \prod_{\lambda \in \text{spec} (A)} \lambda^{m_{\lambda}}.\]

Veamos un problema en donde se usa este teorema.

Problema. Sea A una matriz en M_n(\mathbb{C}) tal que A^2-4A+3I_n=0. Muestra que el determinante de A es una potencia de 3.

Solución. Sea \lambda un eigenvalor de A y v un eigenvector para \lambda. Tenemos que

    \[A^2v=A(\lambda v) = \lambda(Av)=\lambda^2 v.\]

De esta forma, tendríamos que

    \begin{align*}0&=(A^2-4A+3I_n)v\\&=(\lambda^2 v - 4\lambda v + 3 v)\\&=(\lambda^2-4\lambda+3) v.\end{align*}

Como v no es el vector 0, debe suceder que \lambda^2-4\lambda+3=0. Como \lambda^2-4\lambda+3 = (\lambda-3)(\lambda-1), entonces \lambda=1 ó \lambda=3. Con esto concluimos que los únicos posibles eigenvectores de A son 1 y 3.

Como A es una matriz en \mathbb{C}, tenemos entonces que su polinomio característico es de la forma (x-1)^a(x-3)^b con a y b enteros no negativos tales que a+b=n. Pero entonces por el teorema de producto de eigenvalores, tenemos que el determinante es 1^a\cdot 3^b=3^b, con lo que queda demostrado que es una potencia de 3.

\square

Dos teoremas fundamentales de álgebra lineal (opcional)

Tenemos todo lo necesario para enunciar dos resultados de álgebra lineal. Sin embargo, las demostraciones de estos resultados requieren de más teoría, y se ven en un siguiente curso. No los demostraremos ni los usaremos en el resto de este curso, pero te pueden servir para anticipar el tipo de resultados que verás al continuar tu formación en álgebra lineal.

El primer resultado fundamental es una caracterización de las matrices que pueden diagonalizarse. Para ello necesitamos una definición adicional. Hay otro sentido en el cual un eigenvalor \lambda de una matriz A puede repetirse.

Definición. Sea A una matriz en M_n(F) y \lambda un eigenvalor de A. La multiplicidad geométrica de \lambda es la dimensión del kernel de la matriz \lambda I_n -A pensada como transformación lineal.

En estos términos, el primer teorema al que nos referimos queda enunciado como sigue.

Teorema. Una matriz A en M_n(F) es diagonalizable si y sólo si su polinomio característico \chi_A(\lambda) se puede factorizar en términos lineales en F[\lambda] y además, para cada eigenvalor, su multiplicidad algebraica es igual a su multiplicidad geométrica.

Ejemplo. La matriz

    \[A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\]

tiene como polinomio característico a \chi_A(\lambda)=\lambda^2+1. Este polinomio no se puede factorizar en \mathbb{R}[x], así que A no es diagonalizable con matrices de entradas reales.

Sin embargo, en \mathbb{C} tenemos la factorización en términos lineales \lambda^2+1=(\lambda+i)(\lambda-i), que dice que i y -i son eigenvalores de multiplicidad algebraica 1. Se puede mostrar que la multiplicidad geométrica también es 1. Así, A sí es diagonalizable con matrices de entradas complejas.

\square

El segundo resultado fundamental dice que «cualquier matriz se anula en su polinomio característico». Para definir correctamente esto, tenemos que decir qué quiere decir evaluar un polinomio en una matriz. La definición es más o menos natural.

Definición. Si A es una matriz en M_n(F) y p es un polinomio en F[\lambda] de la forma

    \[p(\lambda)=a_0+a_1\lambda+a_2\lambda^2+\ldots+a_n\lambda^n,\]

definimos a la matriz p(A) como la matriz

    \[a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.\]

En estos términos, el resultado queda enunciado como sigue.

Teorema (Cayley-Hamilton). Si A es una matriz en M_n(F) y \chi_A(x) es su polinomio característico, entonces

    \[\chi_A(A)=O_n.\]

Ejemplo. Tomemos de nuevo a la matriz

    \[A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\]

del ejemplo anterior. Su polinomio característico es x^2+1. En efecto, verificamos que se cumple el teorema de Cayley-Hamilton pues:

    \begin{align*}A^2+I_2 &= \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} + \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} -1 & 0 \\ 0 & -1 \end{pmatrix}+\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.\end{align*}

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Enuncia y demuestra cómo es el polinomio característico de una matriz triangular inferior.
  • Completa los detalles de la demostración del teorema de suma y producto de eigenvalores. Úsalo para encontrar la suma y producto (con multiplicidades) de los eigenvalores de la matriz

        \[\begin{pmatrix}5 & 0 & -1 & 2 \\ 3 & -2 & 1 & -2 \\ 0 & 0 & 0 & 5\\ 0 & 2 & 4 & 0 \end{pmatrix}.\]

  • Sea A una matriz en M_n(F). ¿Cómo es el polinomio característico de -A en términos del polinomio característico de A?
  • Tomemos A una matriz en M_n(F) y k un entero positivo. Muestra que si \lambda es un eigenvalor de la matriz A, entonces \lambda^k es un eigenvalor de la matriz A^k.

De la sección opcional:

  • Demuestra, haciendo todas las cuentas, el caso particular del teorema de Cayley-Hamilton para matrices de 2\times 2.
  • Ya sabemos calcular el polinomio característico de matrices diagonales. Muestra el teorema de Cayley-Hamilton en este caso particular.
  • Las matrices diagonales trivialmente son diagonalizables. Muestra que la multiplicidad algebraica de sus eigenvalores en efecto coincide con la multiplicidad geométrica.