Archivo de la etiqueta: eigenvectores

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en M_n(\mathbb{R}) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en M_n(F) también lo sean.

Problema. Demuestra que la matriz simétrica con coeficientes complejos

A=\begin{pmatrix} 1 & i \\ i & -1 \end{pmatrix}

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P^{-1}DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos \lambda \in \mathbb{C} tal que \text{det}(\lambda I-A)=0,

    \begin{align*}\text{det}(\lambda I-A)&=\begin{vmatrix} \lambda -1 & -i \\ i & \lambda +1 \end{vmatrix} \\&=(\lambda-1)(\lambda+1)-i^2=\lambda^2 -1+1 \\&=\lambda^2=0.\end{align*}

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es \lambda =0. Si D es de la forma

D=\begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix},

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P^{-1}DP=0, contradiciendo la definición de A.

\square

Problema. Sea A una matriz simétrica con entradas reales y supongamos que A^k=I para algún entero positivo k. Prueba que A^2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser \pm 1. Esto implica que todos los eigenvalores de A^2 son iguales a 1. Dado que A^2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A^2=I.

\square

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

\norm{T}=\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}.

Por ende, decimos que una transformación es acotada si su norma es acotada, \norm{T}<\infty.

Problema. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean \lambda_1,\ldots,\lambda_n los eigenvalores de T. Prueba que

\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}} =\max_{1\leq i\leq n} |\lambda_i|.

Solución. Renumerando a los eigenvalores, podemos decir que \max_i |\lambda_i|=|\lambda_n|. Sea e_1,\ldots,e_n una base ortonormal de V tal que T(e_i)=\lambda_i e_i para todo i. Si x\in V\setminus {0}, podemos escribirlo como x=x_1e_1+\ldots+x_n e_n para algunos reales x_i. Entonces, por linealidad de T,

T(x)=\sum_{i=1}^n \lambda_i x_ie_i.

Dado que |\lambda_i|\leq |\lambda_n| para toda i, tenemos que

\frac{\norm{T(x)}}{\norm{x}}=\sqrt{\frac{\sum_{i=1}^n \lambda_i^2 x_i^2}{\sum_{i=1}^n x_i^2}}\leq |\lambda_n|,

por lo tanto

    \begin{align*} \max_{1\leq i\leq n} |\lambda_i|&=|\lambda_n|=\frac{\norm{T(e_n)}}{\norm{e_n}}\\&\leq \sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}\\ &\leq |\lambda_n|= \max_{1\leq i\leq n} |\lambda_i|. \end{align*}

Obteniendo lo que queremos.

\square

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=\frac{1}{7}\begin{pmatrix} -2 & 6 & -3 \\ 6 & 3 & 2 \\ -3 & 2 & 6 \end{pmatrix}.

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

    \begin{align*}0&=\text{det}(\lambda I-A)=\begin{vmatrix} \lambda+2/7 & -6/7 & 3/7 \\ -6/7 & \lambda-3/7 & -2/7 \\ 3/7 & -2/7 & \lambda-6/7 \end{vmatrix} \\&= \lambda^3-\lambda^2-\lambda+1 \\&= (\lambda -1)(\lambda^2 -1),\end{align*}

entonces los eigenvalores de A son 1,-1, (\lambda=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=\lambda v, para todo eigenvalor \lambda.

Si \lambda=-1,

(\lambda I-A)v=\frac{1}{7}\begin{pmatrix} -5 & -6 & 3 \\ -6 & -10 & -2 \\ 3 & -2 & -13 \end{pmatrix}v=0,

reduciendo, obtenemos que v=(3\alpha, -2\alpha, \alpha) para todo \alpha\in \mathbb{R}.

Si \lambda=1, resolviendo de la misma manera (\lambda I-A)v=(I-A)v=0, tenemos que v=(\beta,\gamma,-3\beta+2\gamma) para todo \beta,\gamma. Entonces el conjunto de eigenvectores es

B=\{ v_1=(3,-2,1), \quad v_2=(1,0,-3), \quad v_3=(0,1,2) \}.

Es fácil ver que el conjunto B es linealmente independiente, más aún \text{dim}(\mathbb{R}^3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

\square

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Álgebra Lineal I: Problemas de eigenvalores, eigenvectores y polinomio característico.

Para esta entrada haremos uso de las definiciones y propiedades básicas de eigenvalores y polinomio característico vistas en las clases del miércoles y viernes de la semana pasada.

Problema 1. Encuentra los valores propios de la matriz.

    \[A=\begin{pmatrix}0 & -1\\1 & 0\end{pmatrix}\]

Solución. Consideremos a A como una matriz con entradas complejas. Sea \lambda un eigenvalor y x un vector no nulo tal que Ax=\lambda x. Si x_1,x_2 son las coordenadas de x, la condición Ax=\lambda x es equivalente a las ecuaciones

    \[-x_2=\lambda x_1, \hspace{0.5cm} x_1=\lamda x_2.\]

Sustituyendo x_1 en la primera ecuación se sigue que -x_2=\lambda ^2 x_2.
Si x_2=0, entonces x_1=0, lo cual es imposible. Por lo tanto x_2\neq 0 y necesariamente \lambda ^2 =-1, entonces \lambda\in \{-i,i\}. Conversamente, i y -i son ambos eigenvalores, ya que podemos escoger x_2=1 y x_1=\lambda como solución del sistema anterior. Así que vista como matriz compleja, A tiene dos valores propios \pm i.

Por otro lado, si vemos a A como matriz con entradas reales, y \lambda\in \mathbb{R} es un eigenvalor y x un eigenvector como arriba, entonces

    \[(\lambda^2 +1)x_2=0.\]

Como \lambda es real, \lambda^2 +1 es distinto de cero y así x_2=0, luego x_1=0 y x=0. Así que, en conclusión, vista como matriz con entradas reales, A no tiene eigenvalores.

Problema 2. Encuentra el polinomio característico y los eigenvalores de la matriz

    \[A=\begin{pmatrix}0 & 1 & 1\\1 & 0 & 1\\1 & 1 & 1\end{pmatrix} \in M_3(F_2).\]

Solución. \chi_A(\lambda)= \det (\lambda I_3 -A)= \det (\lambda I_3 +A) (pues -1=1 en F_2).

\begin{vmatrix}\lambda & 1 & 1\\1 & \lambda & 1\\1 & 1 & \lambda + 1 \end{vmatrix} = \begin{vmatrix}1+ \lambda & 0 & 1\\1 + \lambda & 1+ \lambda & 1\\0 & \lambda & \lambda + 1 \end{vmatrix}

La igualdad anterior se obtiene de sumar la segunda columna a la primera y la tercera columna a la segunda.

Ahora vemos que

\begin{vmatrix}\lambda +1 & 0 & 1\\1+  \lambda & 1+ \lambda & 1\\0 & \lambda & \lambda + 1 \end{vmatrix} = (\lambda +1)\begin{vmatrix}1 & 0 & 1\\1 & 1+ \lambda & 1\\0 & \lambda & \lambda + 1 \end{vmatrix}

=(\lambda +1)(\lambda +1)^2=(\lambda +1)^3.

Por lo tanto, \chi_A(\lambda)=(\lambda +1)^3, y así el único eigenvalor es 1.

\square

Problema 3. Sean a_0, a_1, \dots, a_{n-1}\in F y sea

A=\begin{pmatrix}0 & 0 & 0 & \dots & 0 & a_0\\1 & 0 & 0 & \dots & 0 & a_1\\0 & 1 & 0 & \dots & 0 & a_2\\\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\0 & 0 & 0 & \dots & 1 & a_{n-1}\end{pmatrix}.

Demuestra que

    \[\chi_A=x^n-a_{n-1}x^{n-1}-\dots - a_0.\]

Demostración. Sea P=x^n-a_{n-1}x^{n-1}-\dots -a_1x- a_0. Considera la matriz

    \[B=xI_n-A=\begin{pmatrix}x & 0 & 0 & \dots  & 0 & -a_0\\1 & x & 0 & \dots & 0 & -a_1\\0 & 1 & x & \dots & 0  & -a_2\\\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.\]

Sumando a la primera fila de B la segunda fila multiplicada por x, la tercera fila multiplicada por x^2, \dots, la n-ésima fila multiplicada por x^{n-1} obtenemos la matriz.

    \[C=\begin{pmatrix}0 & 0 & 0 & \dots & 0 & P\\-1 & x & 0 & \dots & 0 & -a_1\\0 & -1 & x & \dots & 0 & -a_2\\\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.\]

Tenemos que \chi_A=\det B = \det C y, desarrollando \det C con respecto a la primera fila, obtenemos

    \[\det C = (-1)^{n+1}P\cdot \begin{vmatrix} -1 & x & \dots & 0\\0 & -1 & \dots & 0\\\vdots & \vdots & \ddots & \vdots \\0 & 0 & \dots & -1\end{vmatrix} = (-1)^{n+1}P(-1)^{n-1}=P.\]

\square

Problema 4. Sea A\in M_n(F) una matriz con polinomio característico

    \[\chi_A(t)=(-1)^nt^n+\dots +a_1t+a_0.\]


Demuestra que\chi_A(0)=a_0. Deduce que A es invertible si y sólo si a_0\neq 0.

Demostración. Es fácil ver que \chi_A(0)=a_0, ya que a_0 es el término independiente. Por otro lado, recordamos que \chi_A(t)=\det(A-tI_n), entonces \chi_A(0)=\det A. se sigue que \chi_A(0)=a_0= \det A, y por la última igualdad sabemos que A es invertible si y sólo si a_0\neq 0.

\square

Problema 5. Demuestra que cualquier matriz A\in M_n(\mathbb{R}) es suma de dos matrices invertibles.

Demostración. Veamos que existen B,C\in M_n(\mathbb{R}) tales que A=B+C.
Definimos la matriz B como: b_{ii}=-1 si a_{ii}=0 y b_{ii}=a_{ii} si a_{ii}\neq 0,b_{ij}=a_{ij} si i>j y b_{ij}=0 si i<j.

Similarmente definimos la matriz C como: c_{ii}=1 si a_{ii}=0, c_{ii}=a_{ii} si a_{ii}\neq 0, c_{ij}=a_{ij} si i<j y c_{ij}=0 si i>j.

Por construcción B y C son matrices triangulares con todas sus entradas diagonales distintas de cero. Por lo tanto 0\not\in\{\det B, \det C\}, es decir, B y C son invertibles. Además por la manera en la que construimos las matrices B y C se tiene que A=B+C.

\square

Álgebra Lineal I: Matrices simétricas reales y sus eigenvalores

Introducción

Hemos llegado a la cima del curso. En estas últimas entradas probaremos uno de los teoremas más bellos en álgebra lineal: el teorema espectral para matrices simétricas reales. También hablaremos de varias de las consecuencias que tiene.

Hay dos formas equivalentes de enunciar el teorema.

Teorema. Sea V un espacio euclideano y T:V\to V una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Teorema. Sea A una matriz simétrica en \mathbb{R}^n. Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en \mathbb{R}^n, tales que

    \[A=P^{-1}DP.\]

Para hablar de la demostración y de las consecuencias del teorema espectral para matrices simétricas reales, necesitaremos usar teoría de todas las unidades del curso. En particular, usaremos las siguientes definiciones:

  • Una matriz A en M_n(F) es simétrica si es igual a su transpuesta.
  • Una matriz A en M_n(F) es ortogonal si es invertible y A^{-1}= {^tA}.
  • Si T:V\to V es una transformación lineal de un espacio vectorial V a sí mismo y W es un subespacio de V, entonces decimos que W es estable bajo T si T(W)\subseteq W.
  • Un producto interior es una forma bilineal simétrica y positiva definida.
  • Un espacio Euclideano es un espacio vectorial de dimensión finita con un producto interior.
  • Si W es un subespacio de un espacio Euclideano V, entonces W^\bot es el conjunto de todos los vectores que de V que son ortogonales a todos los vectores de W.
  • Una matriz A en M_n(F) es diagonalizable si existen matrices P y D en M_n(F) con P invertible, D diagonal y tales que A=P^{-1}DP.

Y los siguientes resultados principales:

En esta entrada enunciaremos tres resultados auxiliares de interés propio. A partir de estos resultados, la demostración del teorema espectral para matrices simétricas reales y la equivalencia entre ambas versiones será mucho más limpia.

Los eigenvalores de matrices simétricas reales

El polinomio característico de una matriz A en M_n(\mathbb{R}) tiene coeficientes reales. Por el teorema fundamental del álgebra, debe tener exactamente n raíces en \mathbb{C}, contando multiplicidades. Si alguna de estas raíces r no es real, entonces A no puede ser diagonalizable en M_n(\mathbb{R}). La razón es que A sería similar a una matriz diagonal D, y los eigenvalores de las matrices diagonales (incluso triangulares) son las entradas de la diagonal principal. Como A y D comparten eigenvalores (por ser similares), entonces r tendría que ser una entrada de D, pero entonces D ya no sería una matriz de entradas reales.

Lo primero que veremos es que las matrices simétricas reales «superan esta dificultad para poder diagonalizarse». Esta va a ser nuestra primer herramienta para demostrar el teorema espectral.

Teorema. Sea A una matriz simétrica en M_n(\mathbb{R}) y \lambda una raíz del polinomio característico de A. Entonces, \lambda es un número real.

Demostración. El polinomio característico de A es un polinomio con coeficientes reales, así que por el teorema fundamental del álgebra se tiene que \lambda debe ser un número en \mathbb{C}. Así, podemos escribirlo de la forma \lambda = a+ib, con a y b números reales. Lo que mostraremos es que b=0.

Se tiene que \lambda es un eigenvalor de A vista como matriz en M_n(\mathbb{C}), y por lo tanto le corresponde un eigenvector U en \mathbb{C}^n, es decir, un U\neq 0 tal que

    \[AU=\lambda U.\]

Este vector U lo podemos separar en partes reales e imaginarias con vectores V y W en \mathbb{R}^n tales que

    \[U=V+iW.\]

En estos términos,

    \begin{align*}AU&=A(V+iW)=AV+iAW \quad\text{y}\\\lambda U &= (a+ib)(V+iW)\\&=(aV-bW) + i (aW+bV),\end{align*}

de modo que igualando partes reales e imaginarias en la expresión AU=\lambda U tenemos que

    \begin{align*}AV&=aV-bW\quad\text{y}\\AW&=aW+bV.\end{align*}

Como A es simétrica, tenemos que

(1)   \begin{equation*}\langle AV,W \rangle=\langle {^tA}V,W \rangle= \langle V, AW\rangle.\end{equation*}

Estudiemos las expresiones en los extremos, reemplazando los valores de AV y AW que encontramos arriba y usando la bilinealidad del producto interior. Se tiene que

    \begin{align*}\langle AV,W \rangle &= \langle aV-bW,W \rangle\\&=a\langle V,W \rangle - b \langle W,W \rangle\\&=a \langle V,W \rangle - b \norm{W}^2,\end{align*}

y que

    \begin{align*}\langle V,AW \rangle &= \langle V,aW+bV \rangle\\&=a\langle V,W \rangle + b \langle V,V \rangle\\&=a \langle V,W \rangle + b \norm{V}^2.\end{align*}

Substituyendo estos valores en la expresión (1), obtenemos la igualdad

    \[a \langle V,W \rangle - b \norm{W}^2 = a \langle V,W \rangle + b \norm{V}^2,\]

que se simplifica a

    \[b(\norm{V}^2+\norm{W}^2)=0.\]

Estamos listos para dar el argumento final. Como U=V+iW es un eigenvector, entonces no es nulo, de modo que no es posible que V y W sean ambos el vector 0 de \mathbb{R}^n. Como el producto interior es positivo definido, entonces alguna de las normas \norm{V} o \norm{W} no es cero, de modo que

    \[\norm{V}^2+\norm{W}^2\neq 0.\]

Concluimos que b=0, y por lo tanto que \lambda es un número real.

\square

La demostración anterior es ejemplo de un truco que se usa mucho en las matemáticas. Aunque un problema o un teorema no hablen de los números complejos en su enunciado, se puede introducir a \mathbb{C} para usar sus propiedades y trabajar ahí. Luego, se regresa lo obtenido al contexto real. Aquí en el blog hay otra entrada en donde damos más ejemplos de «brincar a los complejos».

Un resultado auxiliar de transformaciones simétricas

A continuación damos la segunda herramienta que necesitaremos para probar el teorema espectral. Recuerda que si V es un espacio Euclideano y T:V\to V es una transformación lineal, entonces decimos que T es simétrica si para todo par de vectores u y v en V se tiene que

    \[\langle T(u),v\rangle = \langle u, T(v) \rangle.\]

Enunciamos el resultado en términos de transformaciones, pero también es válido para las matrices simétricas asociadas.

Teorema. Sea V un espacio Eucideano y T:V\to V una transformación lineal simétrica. Sea W un subespacio de V estable bajo T. Entonces:

  • W^\bot también es estable bajo T y
  • Las restricciones de T a W y a W^\bot son transformaciones lineales simétricas en esos espacios.

Demostración. Para el primer punto, lo que tenemos que mostrar es que si w pertenece a W^\bot, entonces T(w) también, es decir, que T(w) es ortogonal a todo vector v en W.

Tomemos entonces un vector v en W. Como W es estable bajo T, tenemos que T(v) está en W, de modo que \langle w, T(v) \rangle =0. Como T es simétrica, tenemos entonces que

    \[\langle T(w),v \rangle = \langle w, T(v) \rangle = 0.\]

Esto es lo que queríamos probar.

Para la segunda parte, si T_1 es la restricción de T_1 a W y tomamos vectores u y v en W, tenemos que

    \begin{align*}\langle T_1(u), v \rangle &= \langle T(u), v \rangle\\&=\langle u, T(v) \rangle \\&=\langle u, T_1(v) \rangle,\end{align*}

lo cual muestra que T_1 es simétrica. La prueba para W^\bot es análoga y queda como tarea moral.

\square

Matrices diagonalizables y bases ortonormales de eigenvectores

El tercer y último resultado enuncia una equivalencia entre que una matriz en M_n(F) sea diagonalizable, y que exista una base especial para F^n. Es lo que usaremos para probar la equivalencia entre ambas formulaciones del teorema espectral para matrices simétricas reales.

Teorema. Sea A una matriz en M_n(F). Las siguientes dos afirmaciones son equivalentes:

  • A es diagonalizable, es decir, existen matrices P y D en M_n(F), con P invertible y D diagonal tales que A=P^{-1}DP.
  • Existe una base para F^n que consiste de eigenvectores de A.

Demostración. Antes de comenzar la demostración, recordemos que si tenemos una matriz B en M_n(F) de vectores columna

    \[C_1,\ldots,C_n,\]

entonces los vectores columna del producto AB son

    \[AC_1,\ldots AC_n.\]

Además, si D es una matriz diagonal en M_n(F) con entradas en la diagonal d_1,\ldots,d_n, entonces los vectores columna de BD son

    \[d_1C_1,\ldots,d_nC_n.\]

Comencemos la prueba del teorema. Supongamos que A es diagonalizable y tomemos matrices P y D en M_n(F) con P invertible y D diagonal de entradas d_1,\ldots,d_n, tales que A=P^{-1}DP. Afirmamos que los vectores columna C_1,\ldots,C_n de P^{-1} forman una base de F^n que consiste de eigenvectores de A.

Por un lado, como son los vectores columna de una matriz invertible, entonces son linealmente independientes. En total son n, como la dimensión de F^n. Esto prueba que son una base.

De A=P^{-1}DP obtenemos la igualdad AP^{-1}=P^{-1}D. Por las observaciones al inicio de la prueba, tenemos al igualar columnas que para cada j=1,\ldots,n se cumple

    \[AC_j = d_j C_j.\]

Como C_j forma parte de un conjunto linealmente independiente, no es el vector 0. Así, C_j es un eigenvector de A con eigenvalor d_j. Con esto terminamos una de las implicaciones.

Supongamos ahora que existe una base de F^n que consiste de eigenvectores C_1,\ldots,C_n de A. Para cada j=1,\ldots,n, llamemos \lambda_j al eigenvalor correspondiente a C_j, y llamemos D a la matriz diagonal con entradas \lambda_1,\ldots,\lambda_n.

Como C_1,\ldots,C_n son vectores linealmente independientes, la matriz B cuyas columnas son C_1,\ldots, C_n es invertible. Además, por las observaciones al inicio de la prueba, se tiene que la columna j de la matrizAB es AC_j y la columna j de la matriz BD es \lambda_j C_j. Entonces, por construcción, estas matrices son iguales columna a columna, y por lo tanto lo son iguales. De esta forma, tenemos que AB=BD, o bien, reescribiendo esta igualdad, que

    \[A=BDB^{-1}.\]

Así, la matriz invertible P=B^{-1} y la matriz diagonal D diagonalizan a A.

\square

Las matrices simétricas reales serán todavía más especiales que simplemente las matrices diagonalizables. Lo que asegura el teorema espectral es que podremos encontrar no sólo una base de eigenvectores, sino que además podemos garantizar que esta base sea ortonormal. En términos de diagonalización, la matriz P no sólo será invertible, sino que además será ortogonal.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra un ejemplo de una matriz simétrica en M_n(\mathbb{C}) cuyos eigenvalores no sean reales.
  • En el contexto del segundo teorema, muestra que la restricción de T a W^\bot es simétrica.
  • Realiza la demostración de que si A y B son matrices en M_n(F) y los vectores columna de B son C_1,\ldots,C_n, entonces los vectores columna de AB son AC_1,\ldots,AC_n. También, prueba que si D es diagonal de entradas d_1,\ldots,d_n, entonces las columnas de BD son d_1C_1,\ldots,d_nC_n.
  • Encuentra una matriz A con entradas reales similar a la matriz

        \[\begin{pmatrix} 1 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -3 \end{pmatrix},\]

    tal que ninguna de sus entradas sea igual a 0. Encuentra una base ortogonal de eigenvectores de A para \mathbb{R}^3.
  • Diagonaliza la matriz

        \[\begin{pmatrix}-2 & 0 & 0 & 0\\0 & 2 & 0 & 0\\ \frac{19}{7} & \frac{30}{7} & \frac{65}{7} & \frac{24}{7}\\ \frac{6}{7} & - \frac{20}{7} & - \frac{48}{7} & - \frac{23}{7}\end{pmatrix}.\]