Archivo de la etiqueta: producto de matrices

Álgebra Lineal I: Problemas de producto de matrices y matrices invertibles

Introducción

Esta sección consta de puros problemas para practicar los conceptos vistos en entradas previas. Las entradas anteriores correspondientes son la de producto de matrices y la de matrices invertibles.

Problema. Encuentra todas las matrices B\in M_3(\mathbb{C}) que conmutan con la matriz

    \begin{align*}A=\begin{pmatrix}1 & 0 & 0\\0 & 0 & 0\\0 & 0 &2\end{pmatrix}.\end{align*}

Solución. Sea

    \begin{align*}B=\begin{pmatrix} a & b & c\\ d & e & f \\ g & h & i \end{pmatrix}\in M_3(\mathbb{C}).\end{align*}

Calculamos usando la regla del producto:

    \begin{align*}AB=\begin{pmatrix}a & b & c\\ 0 & 0 & 0\\ 2 g & 2h & 2i \end{pmatrix}\end{align*}

y

    \begin{align*}BA= \begin{pmatrix} a & 0 & 2c\\  d & 0 & 2f\\ g & 0 & 2i\end{pmatrix}.\end{align*}

Igualando ambas matrices obtenemos que A y B conmutan si y sólo si se satisfacen las condiciones

    \begin{align*}\begin{cases}b=d=f=h=0\\2c=c\\2g=g\end{cases}.\end{align*}

Las últimas dos condiciones son equivalentes a que c=g=0. Cualquier matriz que conmuta con A satisface estas condiciones y conversamente (por nuestro cálculo) si satisface estas ecuaciones conmuta con A. Esto nos deja como parámetros libres a a,e,i, es decir B puede ser cualquier matriz diagonal.

\square

Problema. Considerando las matrices

    \begin{align*}A=\begin{pmatrix} 1 & 1 & 1\\ 0& 4 &-1\\ 9& 6 & 0 \end{pmatrix}, \hspace{2mm} B= \begin{pmatrix} -1 & 1\\ 0 & -2 \\ 1 &0 \end{pmatrix},\end{align*}

¿cuáles de los productos A^2, AB, BA, B^2 tienen sentido? Calcula los que si lo tienen.

Solución. Recordamos que los productos tienen sentido si el número de columnas de la matriz de la izquierda sea el mismo que el número de filas de la matriz de la derecha. Entonces no podemos realizar los productos BA o B^2 pues esta condición no se cumple (por ejemplo, B tiene 3 columnas, A tiene 2 filas, y estos números difieren). Calculamos entonces usando la regla del producto:

    \begin{align*}A^2 = \begin{pmatrix}10 & 11 & 0\\-9 & 10 & -4\\9 & 33 & 3\end{pmatrix}, \hspace{2mm} AB= \begin{pmatrix} 0 & -1\\ -1  & -8\\ -9 &-3\end{pmatrix}.\end{align*}

\square

Problema. Considera la matriz

    \begin{align*}A=\begin{pmatrix} 1 & 1& 0 \\ 0 & 1 &1\\ 0 &0 & 1 \end{pmatrix}\end{align*}

  • Demuestra que A satisface que (A-I_3)^3=O_3
  • Calcula A^{n} para cualquier entero positivo n.

Solución.

  • Hacemos el cálculo directamente:

        \begin{align*}(A-I_3)^3&= \begin{pmatrix} 0 & 1 & 0\\0 & 0 &1\\ 0 & 0 &0 \end{pmatrix}^{2} \cdot \begin{pmatrix} 0 & 1 &0 \\ 0 & 0 & 1\\ 0 & 0 &0 \end{pmatrix} \\&= \begin{pmatrix} 0 & 0 & 1\\ 0 & 0 & 0\\ 0 &0 &0\end{pmatrix}\cdot \begin{pmatrix} 0 & 1 &0 \\ 0 & 0 & 1\\ 0 & 0 &0 \end{pmatrix}\\&=O_3. \end{align*}

  • Para este tipo de problemas, una estrategia que funciona es hacer casos pequeños para hacer una conjetura, y luego demostrarla por inducción. Probando para algunos valores de n conjeturamos que

        \begin{align*}A^{n}=\begin{pmatrix} 1 & n & \frac{n(n-1)}{2}\\ 0 & 1 & n\\ 0 & 0 &1 \end{pmatrix}.\end{align*}


    Lo demostramos por inducción sobre n, dando por cierto el caso base con n=1.
    Hagamos ahora el paso inductivo. Para esto usamos que 1+\dots + (n-1)= \frac{n(n-1)}{2}.
    Nuestra hipótesis de inducción nos dice entonces que para cierto n se tiene que A^{n}=\begin{pmatrix} 1 & n & 1+\dots +(n-1) \\ 0 & 1 & n\\ 0 & 0 & 1\end{pmatrix}. Usando que A^{n+1}=A^{n}\cdot A con nuestra hipótesis de inducción se sigue:

        \begin{align*}A^{n+1}= A^{n}\cdot A&= \begin{pmatrix} 1 & n & 1+\dots +(n-1)\\ 0 & 1 &n\\ 0 & 0 &1\end{pmatrix} \cdot \begin{pmatrix} 1 & 1 & 0\\ 0 & 1 & 1\\ 0 & 0 & 1\end{pmatrix}\\ &= \begin{pmatrix} 1 & 1+n & 1+\dots + (n-1)+n\\ 0 & 1 & n\\ 0 & 0 &1\end{pmatrix}.\end{align*}


    Luego el resultado es cierto para n+1 y así queda demostrado el resultado.

\square

El siguiente problema combina temas de números complejos y de matrices invertibles. Para que lo entiendas a profundidad, es útil recordar la teoría de raíces n-ésimas de la unidad. Puedes revisar esta entrada del blog. El ejemplo puede parecer un poco artificial. Sin embargo, las matrices que se definen en él tienen muchas aplicaciones, por ejemplo, en procesamiento de señales.

Problema. Sea n>1 un natural y sea

    \begin{align*}\zeta= e^{\frac{2\pi i}{n}}= \cos \left( \frac{2\pi}{n}\right)+i\sin \left( \frac{2\pi}{n}\right).\end{align*}

Este número puede parecer muy feo, pero es simplemente la raíz n-ésima de la unidad de menor argumento.

Definimos la matriz de Fourier de orden n, denotada por \mathcal{F}_n como la matriz tal que su (j,k)-ésima entrada es \zeta^{(j-1)(k-1)} para 1\leq j,k\leq n.

  • a) Sea \overline{\mathcal{F}_n} la matriz cuya (j,k)-ésima entrada es el conjugado complejo de la (j,k)-ésima entrada de \mathcal{F}_n. Demuestra que

        \begin{align*}\mathcal{F}_n\cdot \overline{\mathcal{F}_n} = \overline{\mathcal{F}_n}\cdot \mathcal{F}_n= nI_n.\end{align*}

  • b) Deduce que \mathcal{F}_n es invertible y calcule su inversa.

Solución.

  • a) Sean 1\leq j,k\leq n. Usando la regla del producto, podemos encontrar la entrada (j,k) como sigue:

        \begin{align*}\left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n} \right)_{jk} &= \sum_{l=1}^{n} \left(\mathcal{F}_n\right)_{jl} \cdot \left(\overline{\mathcal{F}_n}\right)_{lk}\\&= \sum_{l=1}^{n} \zeta^{(j-1)(l-1)} \cdot \overline{\zeta^{(l-1)(k-1)}}\\&= \sum_{l=1}^{n} \zeta^{(j-1)(l-1)-(l-1)(k-1)}, \end{align*}


    la última igualdad se debe a que \overline{\zeta}= \zeta^{-1}. Así

        \begin{align*}\left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n}\right)_{jk}=\sum_{l=1}^{n}\zeta^{(l-1)(j-k)}=\sum_{l=0}^{n-1}\left( \zeta^{j-k}\right)^{l}.\end{align*}


    Y la suma de la derecha es la suma de una sucesión geométrica con razón \zeta^{j-k}. Si j=k, entonces \zeta^{j-k}=1, así que la suma es igual a n ya que cada termino es 1 y lo sumamos n veces. Si j\neq k entonces \zeta^{j-k}\neq 1 y usamos la fórmula para una suma geométrica:

        \begin{align*}\sum_{l=0}^{n-1} \left( \zeta^{j-k}\right)^{l}= \frac{1-\left(\zeta^{j-k}\right)^{n}}{1-\zeta^{j-k}}=\frac{1-(\zeta^{n})^{j-k}}{1-\zeta^{j-k}}=0.\end{align*}


    Usamos en la última igualdad que \zeta^{n}=1. Se sigue que \left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n}\right)_{jk} es n si j=k y 0 de otra manera, es decir

        \begin{align*}\mathcal{F}_n\cdot\overline{\mathcal{F}_n}=n\cdot I_n.\end{align*}


    La igualdad simétrica \overline{\mathcal{F}_n}\cdot \mathcal{F}_n=n \cdot I_n se prueba de la misma manera y omitimos los detalles.
  • b) Por el inciso anterior, sugerimos \frac{1}{n} \overline{\mathcal{F}_n}, y esta satisface

        \begin{align*}\mathcal{F}_n \cdot \frac{1}{n} \overline{\mathcal{F}_n} = \frac{1}{n} \cdot n I_n= I_n\end{align*}


    y la otra igualdad se verifica de la misma manera. Por lo tanto, \mathcal{F}_n es invertible y su inversa es \frac{1}{n} \overline{\mathcal{F}_n}.

\square

Problema. Sean A,B\in M_n(\mathbb{R}) matrices tales que

    \begin{align*}A+B=I_n \hspace{5mm} A^2+B^2=O_n\end{align*}

Demuestra que A y B son invertibles y que satisfacen

    \begin{align*}(A^{-1}+B^{-1})^{n}=2^{n} I_n\end{align*}

Solución. Observamos que las propiedades dadas nos permiten calcular

    \begin{align*}A(I_n+B-A)&= (I_n-B) (I_n+B-A)\\&=I_n+B-A-B-B^2+BA\\&= I_n -A-B^2+BA \\&=I_n+(B-I_n)A-B^2\\ &=I_n-A^2-B^2\\&= I_n.\end{align*}

Es decir A^{-1}=I_n+B-A (falta demostrar que con esta propuesta, también se cumple A^{-1}A=I_n, omitimos los cálculos). Similarmente B^{-1}= I_n+A-B y por tanto A^{-1}+B^{-1}= 2\cdot I_n y de esta igualdad se sigue la segunda parte del problema, pues

    \begin{align*}\left(A^{-1}+B^{-1}\right)^{n}= \left( 2\cdot I_n\right)^{n}=2^{n} \cdot I_n.\end{align*}


\square

Álgebra Lineal I: Matrices invertibles

Introducción

Siguiendo el hilo de la entrada pasada, por la correspondencia entre transformaciones lineales y matrices así como la composición y su producto, podemos traducir el problema de invertibilidad de transformaciones lineales en términos de matrices, a las que llamaremos matrices invertibles. Es decir, si tenemos \varphi: F^n\to F^n, \psi: F^n\to F^n transformaciones lineales tales que

    \begin{align*}\varphi\circ \psi= Id_{F^n}, \hspace{2mm} \psi \circ \varphi=Id_{F^n} \end{align*}

¿cómo se traduce esto en términos de sus matrices asociadas?

Veremos que la respuesta yace en matrices que tienen inverso multiplicativo, a diferencia de un campo F, donde todo x tiene un x^{-1}, cuando trabajamos con matrices no todas tienen una matriz inversa y las que si son de especial importancia.

Definición de matrices invertibles y primeras propiedades

Definición. Decimos que una matriz A\in M_n (F) es invertible o bien no singular si existe una matriz B\in M_n(F) tal que

    \begin{align*}AB=BA=I_n\end{align*}

Ejemplo. Veamos que la matriz A=\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} es invertible. Para ello, tenemos que exhibir una matriz B tal que AB=I_2=BA. Proponemos a la matriz B=\begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}. Haciendo la multiplicación con la regla del producto, tenemos que

    \begin{align*}AB&=\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 1 \cdot 1 + 1 \cdot 0 & 1 \cdot (-1) + 1\cdot 1\\ 0 \cdot 1 + 1 \cdot 0 & 0\cdot (-1)+ 1\cdot 1\end{pmatrix}\\&=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}\\&=I_2.\end{align*}

¡Aún no hemos terminado! Para satisfacer la definición, también tenemos que mostrar que BA=I_2:

    \begin{align*}BA&=\begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 1 \cdot 1 + (-1) \cdot 0 & 1 \cdot 1 + (-1)\cdot 1\\ 0 \cdot 1 + 1 \cdot 0 & 0\cdot 1+ 1\cdot 1\end{pmatrix}\\&=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}\\&=I_2.\end{align*}

Ahora sí, podemos concluir que la matriz A es invertible.

\square

Observación. Una primera cosa que hay que notar es que en la definición se pide que tanto AB como BA sean la matriz identidad I_n. Es importante verificar ambas, pues como sabemos, el producto de matrices no siempre conmuta.

Otra observación importante es que si la matriz B como en la definición existe, entonces es necesariamente única: En efecto, si C\in M_n(F) es otra matriz tal que

    \begin{align*}AC=CA=I_n,\end{align*}

entonces manipulando las expresiones en juego:

    \begin{align*}C&= I_n C \\&= (BA)C\\&=B(AC)\\&= B I_n \\&=B.\end{align*}

Entonces no hay ambigüedad al hablar de la matriz inversa de A. Ya no tiene mucho sentido usar una letra diferente para ella. Simplemente la denotaremos por A^{-1}.

Resumimos las propiedades de las matrices invertibles en la siguiente:

Proposición.

  1. Para c\in F es un escalar distinto de cero, se tiene que c I_n es invertible.
  2. Si A es invertible, entonces A^{-1} también lo es, y \left(A^{-1}\right)^{-1}=A
  3. Si A,B\in M_n(F) son invertibles, entonces AB también lo es y

        \begin{align*}\left(AB\right)^{-1}= B^{-1}A^{-1}.\end{align*}

Demostración:

  1. Como c\neq 0 y F es un campo, entonces existe c^{-1} en F y así c^{-1} I_n satisface (por la compatibilidad del producto por escalares de esta entrada)

        \begin{align*}(cI_n)\cdot (c^{-1}I_n)&= (cc^{-1})\cdot (I_n I_n)\\&= I_n\\&= (c^{-1} c) \cdot(I_n)\\&= (c^{-1} I_n) \cdot (c I_n).\end{align*}


    Luego c^{-1}I_n es la matriz inversa de c I_n.
  2. Para evitar alguna confusión con la notación, denotemos a A^{-1} por B. Así

        \begin{align*}AB=BA=I_n.\end{align*}


    Luego B es invertible y su inversa es A.
  3. Si A,B\in M_n(F) son invertibles entonces existen A^{-1} y B^{-1}. Sea C= B^{-1} A^{-1}. Así

        \begin{align*}(AB)C=ABB^{-1}A^{-1}= A I_n A^{-1}= AA^{-1} =I_n.\end{align*}


    Y análogamente

        \begin{align*}C(AB)= B^{-1}A^{-1} A B= B^{-1} I_n B= B^{-1} B=I_n.\end{align*}


    Mostrando así que AB es invertible con inversa C.

\square

Observación. Es importante notar que el ‘sacar inverso’ invierte el orden de los productos. Es decir, en el producto AB aparece primero A y luego B, mientras que el inverso (AB)^{-1} es B^{-1}A^{-1}, en donde aparece primero B^{-1} y luego A^{-1}. Esto es muy importante en vista de que la multiplicación de matrices no es conmutativa y por lo tanto en general

    \begin{align*}(AB)^{-1}\neq A^{-1} B^{-1}.\end{align*}

También es importante notar que si bien la invertibilidad se preserva bajo productos (el producto de matrices invertibles es invertible) ésta no se preserva bajo sumas. Por ejemplo, tanto I_n como -I_n son invertibles en virtud del teorema, sin embargo su suma es I_n+(-I_n)=O_n, que no es invertible.

Ya hablamos de cuándo una matriz A en M_n(F) es invertible. ¿Qué sucede si consideramos a todas las matrices invertibles en M_n(F)? Introducimos el siguiente objeto de importancia fundamental en muchas áreas de las matemáticas:

Definición. El conjunto de matrices invertibles A\in M_n(F) es llamado el grupo lineal general y es denotado por GL_n(F).

En la tarea moral hay un ejercicio en el que se pide mostrar que GL_n(F) es un grupo bajo la operación de producto de matrices. En realidad en este curso no hablaremos mucho de GL_n(F) como grupo. Pero es importante que sepas de su existencia y que conozcas su notación, pues será importante en tu preparación matemática futura.

Invirtiendo matrices

Si bien el concepto de invertibilidad es sencillo de introducir, gran parte de la herramienta para determinar (irónicamente, a través de los determinantes) la invertibilidad de una matriz o propiedades relacionadas (por ejemplo, una computación efectiva de matrices inversas) todavía no está a nuestra disposición. Por tanto, lo único que podemos hacer es uso de ‘fuerza bruta’ para encontrar las inversas de matrices invertibles, y eso haremos en los siguientes ejemplos para al menos familiarizarnos con los cálculos.

Problema. Sea la matriz A=\begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}. ¿Es A invertible? De serlo, calcula su inversa.

Solución. Como mencionamos, con la teoría que hemos desarrollado hasta ahora solo podemos atacar el problema directamente. Buscamos una matriz

    \begin{align*}B= \begin{pmatrix} a & b & c\\  x & y & z\\  u & v & w\end{pmatrix}\end{align*}

tal que AB=I_3=BA. Usando la regla del producto, calculamos

    \begin{align*}AB=\begin{pmatrix}  x & y & z\\  a & b &c \\ u & v & w \end{pmatrix}.\end{align*}

Igualando esta matriz a I_3 obtenemos las condiciones

    \begin{align*}\begin{cases} x=b=w=1\\ y=z=a=c=u=v=0. \end{cases}\end{align*}

Esto muestra que una buena candidata a ser la inversa de A es la matriz

    \begin{align*}A^{-1}= \begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}.\end{align*}

Falta un paso más: hay que verificar que BA=I_3. Afortunadamente esto es cierto. Su verificación queda como tarea moral.

\square

Resaltamos que el método usado no es eficiente, y tampoco es general (pues funcionó solo por la particularidad de la matriz A). Dicho esto, exhibimos un método que puede ser útil cuando la matriz por invertir es suficientemente ‘bonita’ (por ejemplo si tiene muchos ceros).

Sea A\in M_n(F) una matriz y b\in F^n un vector. Supongamos que el sistema AX=b en el vector variable X tiene una única solución X\in F^n. Un resultado que probaremos más adelante nos dice que entonces A es invertible y que la solución es X=A^{-1}b (es decir, que podemos ‘despejar’ X multiplicando por A^{-1} del lado izquierdo ambos lados). Así, si el sistema resulta fácil de resolver, podemos obtener una expresión de A^{-1} en términos de cualquier vector b, y ésto basta para determinar a A^{-1}. En la práctica, la resolución del sistema mostrará que

    \begin{align*}A^{-1} b = \begin{pmatrix}c_{11}b_1 + c_{12} b_2 +\dots + c_{1n}b_n\\c_{21}b_1+c_{22}b_2 + \dots + c_{2n} b_n\\\vdots\\c_{n1} b_1 + c_{n2} b_2 +\dots + c_{nn}b_n\end{pmatrix}\end{align*}

para algunos escalares c_{ij} independientes de b. Escogiendo b=e_i el i-ésimo vector de la base canónica, el lado izquierdo es simplemente la i-ésima columna de A^{-1} y el lado derecho es la i-ésima columna de [c_{ij}]. Como ambas matrices son iguales columna a columna, deducimos que

    \begin{align*}A^{-1}=[c_{ij}]\end{align*}

Subrayamos que, una vez el sistema resuelto, el resto es relativamente sencillo pues solo es fijarnos en los coeficientes. La dificultad reside entonces en resolver el sistema AX=b, y la dificultad de este sistema depende fuertemente de la matriz A, por lo que nos limitaremos por lo pronto a ejemplos sencillos.

Retomemos el problema anterior para ver cómo funciona este método recién expuesto.

Problema. Resuelve el problema anterior usando el método que acabamos de describir.

Solución. Sea b=\begin{pmatrix} b_1 \\ b_2 \\ b3 \end{pmatrix}\in F^3, tratemos de resolver AX=b para X=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}. El sistema se escribe entonces

    \begin{align*}\begin{pmatrix} b_1 \\ b_2 \\ b_3\end{pmatrix}=AX= \begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3\end{pmatrix}= \begin{pmatrix} x_2 \\ x_1 \\ x_3\end{pmatrix}.\end{align*}

O equivalentemente

    \begin{align*}\begin{cases} x_1=b_2\\ x_2= b_1 \\ x_3=b_3.\end{cases}\end{align*}

Como el sistema siempre se puede resolver dado b\in F^3, podemos afirmar que A es invertible, y tenemos que

    \begin{align*}A^{-1}b= X= \begin{pmatrix} x_1\\ x_2 \\ x_3\end{pmatrix}= \begin{pmatrix} b_2\\ b_1 \\ b_3\end{pmatrix}= \begin{pmatrix} 0\cdot b_1 + 1\cdot b_2 + 0 \cdot b_3\\ 1\cdot b_1 +0\cdot b_2 +0\cdot b_3\\ 0\cdot b_1 + 0\cdot b_2 +1\cdot b_3\end{pmatrix}. \end{align*}

Fijándonos en los coeficientes del lado derecho, vemos que la primera fila de A^{-1} es (0 \ 1 \ 0), la segunda (1\ 0 \ 0) y la tercera (0\ 0\ 1). Luego

    \begin{align*}A^{-1}=\begin{pmatrix}0 & 1& 0\\1 & 0&0\\0 & 0 & 1\end{pmatrix}\end{align*}

\square

Problema. Sea la matriz

    \begin{align*}A= \begin{pmatrix} 1 & 1 & 1 & 1\\ 0 & 1 & 1 &1 \\ 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 1\end{pmatrix} \end{align*}

Demuestre que A es invertible y encuentre su inversa.

Solución. Usamos el mismo método. Sea b= \begin{pmatrix} b_1\\ b_2 \\ b_3 \\ b_4 \end{pmatrix}\in F^4 y resolvemos AX=b con X=\begin{pmatrix} x_1\\ x_2 \\ x_3 \\ x_4\end{pmatrix}. Esta vez el sistema asociado es el siguiente (omitimos los cálculos de la regla del producto):

    \begin{align*}\begin{cases}x_1+x_2+x_3+x_4=b_1\\x_2+x_3+x_4=b_2\\x_3+x_4=b_3\\x_4=b_4 \end{cases}.\end{align*}

Este sistema lo podemos resolver de manera más o menos sencilla: De la última ecuación tenemos que x_4=b_4, luego sustituyendo en la penúltima obtenemos x_3+b_4=b_3 o bien x_3=b_3-b_4. Sustituyendo esto a su vez en la segunda ecuación obtenemos que x_2+b_3=b_2, es decir x_2=b_2-b_3 y finalmente x_1= b_1-b_2. Así el sistema siempre tiene solución y estas están dadas por

    \begin{align*}A^{-1}b= X= \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4\end{pmatrix} = \begin{pmatrix} b_1-b_2\\ b_2-b_3\\ b_3-b_4\\ b_4 \end{pmatrix}.\end{align*}

De esto se sigue que (fijándonos en los coeficientes) la primera fila de A^{-1} es (1\ -1 \ 0 \ 0), y análogamente obtenemos las demás, de manera que

    \begin{align*}A^{-1}=\begin{pmatrix}1 & -1 & 0 &0\\0 & 1 & -1 & 0\\  0&0 &1 &-1\\0 & 0 & 0 &1\end{pmatrix}.\end{align*}

Un buen ejercicio es verificar que en efecto con esta inversa propuesta se cumple que AA^{-1}=I_4=A^{-1}A.

\square

Matrices invertibles diagonales

Concluimos esta sección con un último problema de matrices invertibles. Para resolverlo no usamos el método expuesto, sino un argumento particular para las matrices diagonales.

Problema. Demuestre que una matriz diagonal A\in M_n(F) es invertible si y sólo si todas sus entradas en la diagonal son distintas de cero. Más aún, de ser el caso, A^{-1} también es diagonal.

Solución. Sea A=[a_{ij}]\in M_n(F) una matriz diagonal y B=[b_{ij}]\in M_n(F) cualquier matriz. Usando la regla del producto tenemos que

    \begin{align*}(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj}.\end{align*}

Como a_{ik}=0 para k\neq i (por ser A diagonal) muchos de los términos en la suma desaparecen y nos quedamos con

    \begin{align*}(AB)_{ij}= a_{ii} b_{ij}\end{align*}

y de manera similar se puede verificar que

    \begin{align*}(BA)_{ij}=a_{jj}b_{ij}.\end{align*}

Aprovechemos estas observaciones para proponer a la inversa de A.

Si a_{ii}\neq 0 para todo i\in \{1,\dots, n\} entonces podemos considerar a B como la matriz diagonal con entradas b_{ii}=\frac{1}{a_{ii}}. Las fórmulas que acabamos de calcular nos dan que AB=BA=I_n y así A es invertible y su inversa B es diagonal.

Conversamente, supongamos que A es invertible y diagonal. Así, existe una matriz B tal que AB=BA=I_n. Luego para toda i\in \{1, \dots, n\} se cumple

    \begin{align*}1= (I_n)_{ii}= (AB)_{ii}= a_{ii}b_{ii}\end{align*}

Así a_{ii}\neq 0 para i\in \{1, \dots, n\} y así todas las entradas en la diagonal son distintas de cero.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Aunque para determinar inversos de matrices generales necesitamos desarrollar más teoría, las matrices invertibles de 2\times 2 son fáciles de entender. Muestra que si se tiene una matriz A en M_2(F) con entradas

        \[A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\]

    y ad-bc\neq 0, entonces la matriz

        \[B=\frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}\]

    es la inversa de A. Para ello verifica explícitamente usando la regla del producto que tanto AB=I_2, como que BA=I_2.
  • En el primer problema de invertir matrices, muestra que BA también es I_3.
  • La matriz

        \[A=\begin{pmatrix} \frac{1}{2} & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & \sqrt{2}\end{pmatrix}\]

    es invertible. Encuentra su inversa.
  • Verifica que GL_n(F) es en efecto un grupo bajo la operación de multiplicación de matrices. Debes mostrar que:
    • El producto de dos matrices invertibles es invertible.
    • Existe un neutro multiplicativo E (¿quién sería?).
    • Para matriz A en GL_n(F) existe una matriz B en GL_n(F) tal que AB=BA=E.
  • Explica por qué la matriz O_n no es invertible. Explica por que si una matriz en M_n(F) tiene una columna (o fila) tal que todas sus entradas sen iguales a 0, entonces la matriz no es invertible. Este ejercicio lo puedes hacer directamente de la definición, sin tener que recurrir a herramientas más fuertes.
  • Generaliza el penúltimo problema a una matriz de tamaño n\times n con puros unos sobre y por encima de la diagonal, es decir, para la cual [a_{ij}]=1 si j\geq i y 0 en otro caso.

Álgebra Lineal I: Producto de matrices y composición de sus transformaciones

Introducción

En una entrada previa estudiamos el vínculo entre las matrices y las transformaciones lineales. Más precisamente vimos que existe una biyección entre ambos conjuntos, de manera que tener una matriz de m\times n con entradas en algún campo F es lo mismo que tener una transformación lineal \varphi: F^n \to F^m.

En esta entrada, estudiaremos cómo esta correspondencia se comporta respecto a las dos operaciones ‘naturales’ en ambos: el producto de matrices y la composición de funciones. Veremos que multiplicar matrices se corresponde con componer sus transformaciones lineales y vice versa. Esto puede explicar algunos fenómenos de la multiplicación de matrices que pueden ser extraños al principio, como la falta de conmutatividad (AB\neq BA) entre otros.

El producto de matrices

Sean m,n,p números naturales positivos y sean A\in M_{m,n}(F), B\in M_{n,p}(F) dos matrices. Es importante observar que el número de columnas de A es el mismo que el de renglones de B. Esto es fundamental para que el producto de matrices esté definida.

Por nuestra correspondencia previa, sabemos que tanto a A como a B les corresponden transformaciones lineales

    \begin{align*} \varphi_{A}: F^n\to F^m \hspace{3mm} \varphi_B: F^p\to F^n \end{align*}

Recuerda que \varphi_A es la transformación que manda a X\in F^n en AX\in F^m y \varphi_B es la transformación que manda a Y\in F^p en BY\in F^n.

Podemos entonces preguntarnos por la composición

    \begin{align*}\varphi_A\circ \varphi_B: F^{p}\to F^m \hspace{5mm} (\varphi_A\circ \varphi_B)(X)= \varphi_A\left(\varphi_B(X)\right), \end{align*}

la cual primero manda a un X de F^{p} a BX, y luego a este lo manda a A(BX).

Como \varphi_A y \varphi_B son lineales, podemos verificar que la composición también lo es. Para verificar esto, si X,Y\in F^{p} son arbitrarios así como \alpha, \beta\in F, entonces

    \begin{align*}(\varphi_A\circ \varphi_B)\left(\alpha X+\beta Y\right) &= \varphi_A\left(\varphi_B\left(\alpha X+\beta Y\right) \right)\\&= \varphi_A\left( \alpha \varphi_B(X)+\beta \varphi_B(Y)\right)\\&= \alpha\varphi_A\left(\varphi_B(X)\right) +\beta \varphi_A\left(\varphi_B(Y)\right)\\&= \alpha \cdot (\varphi_A\circ \varphi_B) (X) +\beta\cdot  (\varphi_A\circ \varphi_B)(Y) .\end{align*}

Aqui la segunda igualdad se debe a que \varphi_B es lineal y la tercera porque \varphi_A lo es. En el resto de las igualdades estamos usando la definición de la composición.

Como \varphi_A\circ \varphi_B es una transformación lineal, por el teorema de correspondencia entre matrices y transformaciones lineales, debe existir una única matriz C\in M_{m,p}(F) tal que

    \begin{align*}\varphi_A\circ \varphi_B = \varphi_C.\end{align*}

Esto motiva la siguiente (importante) definición:

Definición. El producto de dos matrices A\in M_{m,n}(F) y B\in M_{n,p}(F) (de nuevo, observamos que el número de renglones de B y el número de columnas de A deben coincidir) es la única matriz AB\in M_{m,p}(F) tal que

    \begin{align*}A(B(X))=(AB)(X)\end{align*}

Para todo X\in F^p.

Un truco para acordarse de la condición de compatibilidad en renglones y columnas es pensar en términos de transformaciones lineales: Sabemos que dos funciones f y g se pueden componer solo si el codominio de una es el dominio de la otra.

Observación. Como mencionamos previamente, podemos identificar a F^n con el espacio M_{n,1}(F) (esto es especialmente claro cuando escribimos un vector en columna: Tenemos n renglones y una sola columna). Así, si a un vector X\in F^n lo identificamos con su matriz \widetilde{X}\in M_{n,1}(F) entonces podemos considerar el producto A\widetilde{X}\in M_{m,1}(F), que resulta (al identificar de vuelta con F^m) coincide con AX. Es decir, pensar la aplicación AX como una transformación o como un producto de matrices no afecta el resultado, aunque es recomendable (para nuestros propósitos) pensarlo como una transformación lineal.

Calculando el producto

Si bien la definición que dimos del producto tiene sentido desde una perspectiva un poco más abstracta, queremos poder calcular explícitamente el producto AB sabiendo las entradas de A y de B.

Para esto, sean A=[a_{ij}] y B=[b_{ij}] con tamaños como en la definición. Sea e_1, \dots, e_p la base canónica de F^p. Entonces (AB) e_j es la j-ésima columna de AB (por una observación que hicimos aquí). Denotaremos por C_1(A), \dots, C_n(A) y C_1(B), \dots, C_p(B) a las columnas de A y las de B respectivamente. Usando la misma observación, podemos escribir

    \begin{align*}A(Be_j)&=AC_j(B)\\&= b_{1j}C_1(A)+b_{2j}C_2(A)+\dots + b_{nj} C_n(A).\end{align*}

Para la segunda igualdad, estamos usando la segunda parte de la observación de esta entrada. Por definición del producto, tenemos que A(Be_j)=(AB)e_j=C_j(AB). Juntando esto con la igualdad anterior, tenemos

    \begin{align*}C_j(AB)= b_{1j} C_1(A)+b_{2j} C_2(A)+\dots + b_{nj} C_n(A).\end{align*}

Estamos muy cerca de encontrar cualquier entrada (i,j) del producto. Notamos que esta entrada está en la fila i de C_j(AB). Haciendo las operaciones entrada a entrada, obtenemos entonces que

    \begin{align*}(AB)_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j} +\dots +a_{in}b_{nj}.\end{align*}

La discusión anterior prueba el siguiente resultado.

Teorema. (Regla del producto) Sean A=[a_{ij}]\in M_{m,n}(F) y B=[b_{ij}]\in M_{n,p}(F). Entonces la (i,j)-ésima entrada de AB está dada por

    \begin{align*}(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj} .\end{align*}

Hubiéramos podido dar como definición de AB a la matriz con las entradas que especifica el teorema, pero esto hubiera escondido la motivación detrás de la definición: A ojos del álgebra lineal, las matrices «son» transformaciones lineales y el producto, su composición.

Lo más importante a recuperar de lo que hemos platicado hasta ahora es que el producto AB se puede pensar de cualquiera de las dos formas siguientes:

  • Como la transformación lineal que corresponde a la composición de las transformaciones de A y B.
  • Como la matriz cuyas entradas están dadas por la regla del producto.

Ambas formas de ver al producto tienen ventajas y desventajas. Usaremos una o la otra según nos convenga.

Ejemplos de producto de matrices

Ejemplo. Si A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix} y B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix} son matrices en M_2(F), entonces el producto existe y por el teorema tenemos que

    \begin{align*}AB= \begin{pmatrix}a_{11}b_{11}+a_{12}b_{21} & a_{11} b_{12}+ a_{12}b_{22}\\a_{21}b_{11}+a_{22}b_{21} & a_{21}b_{12} +a_{22}b_{22} \end{pmatrix}.\end{align*}

Observa que si C_1 y C_2 son las dos columnas de B, entonces las dos columnas de AB son AC_1 y AC_2. Esta es una buena forma de recordar cómo hacer el producto.

Ejemplo. Si A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\ a_{31} & a_{32} \end{pmatrix} y B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix} entonces el producto AB es una matriz de tamaño 3\times 2, y está dada por

    \begin{align*}AB=\begin{pmatrix} a_{11} b_{11} + a_{12} b_{21} & a_{11} b_{12}+ a_{12} b_{22}\\a_{21} b_{11} + a_{22} b_{21} & a_{21} b_{12} + a_{22} b_{22}\\a_{31}b_{11}+a_{32}b_{21} & a_{31} b_{12} +a_{32} b_{22} \end{pmatrix}.\end{align*}

Ejemplo. Tomando en cuenta el ejemplo anterior con las matrices A=\begin{pmatrix} 1 &2  \\ 3 & 4\\ 5& 6\end{pmatrix} y B=\begin{pmatrix} 1& -1\\ 0 & 2\end{pmatrix} entonces

    \begin{align*} AB=\begin{pmatrix} 1 & 3\\ 3 & 5 \\ 5 &7  \end{pmatrix}.\end{align*}

Observa que no podemos hacer el producto BA, pues la cantidad de columnas de B es 2, la cantidad de filas de A es 3, y estos números no coinciden.

Ejemplo. Si A=\begin{pmatrix} 1& 0\\ 0 & 0\end{pmatrix} y B=\begin{pmatrix} 0 & 0 \\ 2& 0\end{pmatrix} entonces podemos calcular tanto AB como BA y obtenemos

    \begin{align*}AB=\begin{pmatrix} 0 & 0\\0 & 0 \end{pmatrix}=O_2 \hspace{5mm} \text{ y } \hspace{5mm} BA=\begin{pmatrix} 0 & 0 \\ 2 & 0\end{pmatrix}.\end{align*}

Propiedades básicas del producto

El último ejemplo de la sección pasada refleja dos cosas importantes del producto de matrices:

  • El producto no es conmutativo. Es decir, aunque existan ambos AB y BA, estos no tienen por qué coincidir.
  • Aunque A y B no sean cero, su producto si puede serlo. En el ejemplo A y B eran distintas de cero pero AB=O_2.

Definición. Dos matrices A,B\in M_n(F) conmutan si

    \begin{align*}AB=BA.\end{align*}

Entonces uno tiene que tener cuidado cuando realiza manipulaciones algebraicas con matrices, pues muchas propiedades a las que estamos acostumbrados en campos dejan de ser ciertas.

Ejemplo. En un campo, uno generalmente usa las reglas para desarrollar cuadrados:

    \begin{align*} (a+b)^2&=a^2+2ab+b^2, \\(a+b)(a-b)&=a^2-b^2 .\end{align*}

Sin embargo, trabajando con matrices estas identidades dejan de ser ciertas, y son reemplazadas por una versión menos sencilla:

    \begin{align*}(A+B)^2&= A^2+AB+BA+B^2,\\(A+B)(A-B)&=A^2-AB+BA-B^2.\end{align*}

Estas coinciden con las correspondientes en el campo solo si A y B conmutan.

Sin embargo, hay buenas noticias. Aparte de la conmutatividad, muchas otras propiedades algebraicas deseables se preservan, y las resumimos en la siguiente proposición:

Proposición. La multiplicación de matrices satisface las siguientes:

  1. Asociatividad: Se cumple que (AB)C=A(BC) para cualesquiera matrices A\in M_{m,n}(F), B\in M_{n,p}(F), C\in M_{p,q}(F).
  2. Compatibilidad con el producto por escalares: Se cumple que \alpha(AB)=(\alpha A)B= A(\alpha B) para cualesquiera \alpha \in F, A\in M_{m,n}(F), B\in M_{n,p}(F).
  3. Distributividad con respecto a la suma: Se cumplen

    \begin{align*}(A+B)C&=AC+BC\\D(A+B)&= DA+DB\end{align*}

para cualesquiera A,B\in M_{m,n}(F), C\in M_{n,p}(F) y D\in M_{p,m}(F).

Demostración: La demostración de estas propiedades se sigue directamente de la definición, o bien haciendo los cálculos a través de la regla del producto. Probaremos la asociatividad usando la definición, para mostrar las ventajas que tiene pensar al producto como la matriz correspondiente a la composición. Tras ver la demostración, piensa en lo tedioso que sería hacer la prueba usando la regla del producto.

Para verificar la asociatividad, basta ver que las transformaciones lineales de (AB)C y A(BC) son iguales (vimos en ésta entrada que si dos matrices tienen la misma transformación asociada, entonces son iguales). Es decir, que para todo X\in F^q se cumple que

    \begin{align*}((AB)C)X=(A(BC))X.\end{align*}

Por definición del producto, tenemos que

    \begin{align*}((AB)C)X= (AB)(CX)= A(B(C(X)),\end{align*}

y desarrollando análogamente A(BC)X tenemos

    \begin{align*}A(BC)X= A((BC)X)= A(B(C(X)).\end{align*}

Comparando ambas expresiones se sigue el resultado. Como mencionamos, esto se pudo haber probado usando la regla del producto, comparando la (i,j)-ésima entrada de (AB)C y la de A(BC), verificando que ambas son iguales a

    \begin{align*}\sum_{k,l} a_{ik}b_{kl} c_{lj}.\end{align*}

\square

Observación. Gracias a la asociatividad del producto, podemos escribir ABC en lugar de (AB)C o de A(BC), aligerando la notación. Esto es más útil con más factores, por ejemplo el poder escribir ABCD en lugar de (A(BC))D o A(B(CD)). Así mismo, tampoco tenemos ambigüedad al definir el producto de cualquier número de matrices. Usaremos la notación

    \begin{align*}A^n= A\cdot A\cdot \ddots \cdot A,\end{align*}

donde el lado derecho tiene n factores. Esta es la n-ésima potencia de una matriz cuadrada A. Por construcción

    \begin{align*}A^n= A\cdot A^{n-1}.\end{align*}

Y tomaremos como convención que A^0=I_n para cualquier A\in M_n(F). Dejamos como tarea moral el verificar que I_n actúa como un neutro para la multiplicación, es decir que para cualquier matriz A de tamaño m\times n se tiene

    \begin{align*}A\cdot I_n=A \hspace{2mm} \text{ y } \hspace{2mm} I_m \cdot A=A.\end{align*}

Acabamos esta sección con un problema para practicar los conceptos vistos.

Problema. Sea A(x)\in M_3(\mathbb{R}) la matriz definida por

    \begin{align*}A(x)=\begin{pmatrix} 1 & x& x^2\\ 0 & 1 & 2x\\ 0 & 0 & 1\end{pmatrix}.\end{align*}

Demuestra que A(x_1)A(x_2)=A(x_1+x_2) para cualesquiera x_1,x_2\in \mathbb{R}.

Solución. En este problema es más conveniente usar la regla del producto, que pensar a la composición de transformaciones. En todo problema es recomendable pensar en cuál de las formas del producto conviene más usar.

Usando la regla del producto, tenemos que

    \begin{align*}A(x_1)A(x_2)&= \begin{pmatrix} 1 & x_1 & x_1^2\\ 0 & 1 & 2x_1\\ 0 & 0 & 1 \end{pmatrix}\begin{pmatrix} 1 & x_2 & x_2^2\\ 0 & 1 & 2x_2\\ 0 & 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 1 & x_2+x_1 & x_2^2+2x_1 x_2+x_1^2\\0 & 1 & 2x_2+2x_1\\0 & 0 & 1\end{pmatrix} \\&= \begin{pmatrix} 1 & x_1+x_2 & (x_1+x_2)^2\\0 & 1 & 2(x_1+x_2)\\0 & 0 & 1 \end{pmatrix}.\end{align*}

Y el lado derecho es simplemente A(x_1+x_2).

Próximamente

Si bien en esta entrada definimos el producto de matrices y estudiamos su relación con la composición de matrices, esto no es más que el primer paso de un estudio más grande: Ahora nos podemos hacer preguntas sobre transformaciones lineales (por ejemplo, ¿será biyectiva o invertible?) y estudiarlas en términos de matrices y su producto. Más adelante en el curso entrará el concepto de determinante que jugará un papel fundamental para responder muchas de estas preguntas.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Realiza la operación

        \[\begin{pmatrix}2 & 1 & 0 \\ 1 & 2 & 0 \\ 0 & -1 & 0\end{pmatrix}^4.\]

  • Toma al vector canónico e_i de F^n pensado como matriz en M_{1n}(F) y al vector canónico e_j de F^n pensado como matriz en M_{n1}(F). ¿Quién es el producto de matrices e_ie_j? ¿Quién es el producto de matrices e_je_i?
  • Verifica las propiedades de compatibilidad con el producto por escalares y distributividad con respecto a la suma del producto de matrices.
  • Verifica que las matrices identidad actúan como neutro para la multiplicación de matrices.
  • Recuerda (o investiga) los axiomas de un anillo con unidad y verifica que las matrices cuadradas de tamaño n forman un anillo con unidad para cualquier n.

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si A es una matriz de m\times n, su transpuesta ^tA es la matriz de n\times m que se obtiene de reflejar a las entradas de A en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos A=[a_{ij}], entonces ^tA=[a_{ji}]. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y ^tA = A^{-1}. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si A es una matriz de n\times n con entradas reales y simétrica, entonces:

  • Sus eigenvalores \lambda_1,\ldots,\lambda_n (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal P de n\times n y con entradas reales tal que si tomamos a D la matriz diagonal de n\times n cuyas entradas en la diagonal principal son \lambda_1,\ldots,\lambda_n, entonces

        \[A=P^{-1}DP.\]

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si A=P^{-1}DP como en el teorema anterior, entonces

    \begin{align*}A^2&=(P^{-1}DP)(P^{-1}DP)\\&=P^{-1}DDP\\&=P^{-1}D^2P,\end{align*}

y de manera inductiva se puede probar que A^k=P^{-1}D^kP. Elevar la matriz D a la k-ésima potencia es sencillo, pues como es una matriz diagonal, su k-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la k.

Problema. Sea A una matriz de n\times n simétrica y de entradas reales. Muestra que si A^k = O_n para algún entero positivo k, entonces A=O_n.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de A. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como A es simétrica y de entradas reales, entonces sus eigenvalores \lambda_1,\ldots, \lambda_n son reales y es diagonalizable. Digamos que su diagonalización es P^{-1} D P. Tenemos que

    \[O_n = A^k = P^{-1} D^k P.\]

Multiplicando por la matriz P a la izquierda, y la matriz P^{-1} a la derecha, tenemos que D^k=O_n. Las entradas de D^k son \lambda_1^k,\ldots,\lambda_n^k, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo,

    \[\lambda_1=\ldots=\lambda_n=0.\]

Concluimos que D=O_n, y que por lo tanto A=P^{-1} O_n P = O_n.

\square

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz

    \[A=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}.\]

Calcula las primeras potencias de A a mano. Conjetura y muestra cómo es A^n en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el n-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz A obtenemos:

    \begin{align*}A&=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\\A^2&=\begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix},\\A^3&=\begin{pmatrix} 1 & 2 \\  2& 3 \end{pmatrix},\\A^4&=\begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix},\\A^5&=\begin{pmatrix} 3 & 5 \\ 5 & 8 \end{pmatrix}.\end{align*}

Al parecer, en las entradas de A van apareciendo los números de Fibonacci. Seamos más concretos. Definimos F_0=0, F_1=1 y para n\geq 0 definimos

    \[F_{n+2}=F_{n}+F_{n+1}.\]

La conjetura es que para todo entero n\geq 1, se tiene que

    \[A^n=\begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1}\end{pmatrix}.\]

Esto se puede probar por inducción. Arriba ya hicimos el caso n=1. Supongamos la conjetura cierta hasta un entero n dado, y consideremos la matriz A^{n+1}. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

    \begin{align*}A^{n+1}&=AA^n\\& =\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1} \end{pmatrix}\\&= \begin{pmatrix} F_n & F_{n+1} \\ F_{n-1} + F_n & F_n + F_{n+1} \end{pmatrix}\\&=\begin{pmatrix} F_n & F_{n+1} \\ F_{n+1} & F_{n+2} \end{pmatrix}.\end{align*}

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz A es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de A. Su polinomio característico es

    \[\begin{vmatrix} \lambda & -1 \\ - 1 & \lambda -1 \end{vmatrix}=\lambda^2-\lambda -1.\]

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de A) son

    \[\frac{1\pm \sqrt{5}}{2}.\]

Por el momento, para simplificar la notación, llamemos \alpha a la de signo más y \beta a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible P de 2\times 2 tal que

    \[A=P^{-1}\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} P.\]

De esta forma,

    \[A^n =  P^{-1}\begin{pmatrix} \alpha^n & 0 \\ 0 & \beta^n \end{pmatrix} P.\]

Aquí no es tan importante determinar concretamente P ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de \alpha^n y \beta^n y de que los coeficientes de esta combinación lineal ya no dependen de n, sino sólo de las entradas de P. En particular, la entrada superior derecha de A^n por un lado es F_n, y por otro lado es r\alpha^n + s\beta ^n.

¿Cómo obtenemos los valores de \alpha y \beta? Basta substituir n=1 y n=2 para obtener un sistema de ecuaciones en \alpha y \beta. Aquí abajo usamos que como \alpha y \beta son raíces de x^2-x-1, entonces \alpha^2=\alpha+1, \beta^2=\beta+1 y \alpha+\beta = 1.

    \[\begin{cases}1= F_1 = r \alpha + s \beta \\1= F_2 = r \alpha^2 + s \beta^2 = r + s + 1.\end{cases}\]

De aquí, obtenemos la solución

    \begin{align*}r&=\frac{1}{\alpha-\beta} = \frac{1}{\sqrt{5}}\\s&=-r = -\frac{1}{\sqrt{5}}.\end{align*}

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es

    \[F_n=\frac{\left(\frac{1+\sqrt{5}}{2}\right)^n - \left(\frac{1-\sqrt{5}}{2}\right)^n}{\sqrt{5}}.\]

\square

Matrices positivas y positivas definidas

Por definición, una matriz simétrica A de n\times n con entradas reales es positiva si para cualquier vector (columna) v en \mathbb{R}^n se tiene que

    \[^t v A v \geq 0.\]

Aquí ^tv es la transposición de v, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector v=0, entonces decimos que A es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz A=\begin{pmatrix} 1 & -1 \\ -1 & 1\end{pmatrix}, pues para cualquier vector v=(x,y) se tiene que

    \[^t v A v = x^2-2xy+y^2=(x-y)^2\geq 0.\]

Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como (1,1). Como puedes verificar, un ejemplo de matriz positiva definida es

    \[B=\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}.\]

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en \mathbb{R}^n. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B^2 para alguna matriz simétrica B en M_n(\mathbb{R}).
  4. A= {^tC} C para alguna matriz C en M_n(\mathbb{R}).

Hay un resultado análogo para cuando se quiere determinar si una matriz A es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos 3 y 4 se necesita además que B y C sean invertibles.

Problema. Sea A una matriz de n\times n con entradas reales, simétrica y positiva. Muestra que si

    \[\text{tr}(A) = n \sqrt[n]{\det(A)},\]

entonces A conmuta con cualquier matriz de n\times n.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que A se puede diagonalizar con matrices A=P^{-1} D P, donde D es la matriz diagonal que tiene en su diagonal principal a los eigenvalores \lambda_1,\ldots,\lambda_n de A, y P^{-1} es una matriz invertible. Como A y D son similares, se tiene que

    \begin{align*}\text{tr}(A)=\text{tr}(D)=\lambda_1+\ldots+\lambda_n\\\det(A)=\det(D)=\lambda_1\cdot\ldots\cdot\lambda_n.\end{align*}

Como A es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

    \[\frac{\lambda_1+\ldots+\lambda_n}{n} \geq \sqrt[n]{\lambda_1\cdot\ldots\cdot\lambda_n}.\]

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor \lambda, y entonces D=\lambda I_n. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de n\times n, tendríamos entonces que

    \begin{align*}A&=P^{-1}D P \\&=P^{-1}(\lambda I_n) P\\&=(\lambda I_n) (P^{-1}P)\\&=\lambda I_n.\end{align*}

Con esto probamos que A es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de n\times n.

\square

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Propiedades del polinomio característico

Introducción

En esta entrada continuamos con el estudio de eigenvalores y eigenvectores de matrices y trasformaciones lineales. Para ello, estudiaremos más a profundidad el polinomio característico.

Como recordatorio, en una entrada pasada demostramos que si A es una matriz en M_n(F), entonces la expresión \det (\lambda I_n - A) es un polinomio en \lambda de grado n con coeficientes en F. A partir de ello, definimos el polinomio característico de A como

    \[\chi_A(\lambda)=\det(\lambda I_n - A).\]

En esta entrada probaremos algunas propiedades importantes del polinomio característico de matrices. Además, hablaremos de la multiplicidad algebraica de los eigenvalores. Finalmente enunciaremos sin demostración dos teoremas fundamentales en álgebra lineal: el teorema de caracterización de matrices diagonalizables y el teorema de Cayley-Hamilton.

Las raíces del polinomio característico son los eigenvalores

Ya vimos que las raíces del polinomio característico son los eigenvalores. Pero hay que tener cuidado. Deben ser las raíces que estén en el campo en el cual la matriz esté definida. Veamos un ejemplo más.

Problema. Encuentra el polinomio característico y los eigenvalores de la matriz

    \begin{align*}\begin{pmatrix}0&1&0&0\\2&0&-1&0\\0& 7 & 0 & 6\\0 & 0 & 3 & 0\end{pmatrix}.\end{align*}

Solución. Debemos encontrar las raíces del polinomio dado por el siguiente determinante:

    \begin{align*}\begin{vmatrix}\lambda&-1&0&0\\-2&\lambda&1&0\\0& -7 & \lambda & -6\\0 & 0 & -3 & \lambda\end{vmatrix}.\end{align*}

Haciendo expansión de Laplace en la primer columna, tenemos que este determinante es igual a

    \begin{align*}\lambda\begin{vmatrix}\lambda&1&0\\ -7 & \lambda & -6\\ 0 & -3 & \lambda\end{vmatrix}+2\begin{vmatrix}-1&0&0\\-7 & \lambda & -6\\0 & -3 & \lambda\end{vmatrix}.\end{align*}

Para calcular los determinantes de cada una de las matrices de 3\times 3 podemos aplicar la fórmula por diagonales para obtener:

    \begin{align*}\lambda\begin{vmatrix}\lambda&1&0\\-7 & \lambda & -6\\0 & -3 & \lambda\end{vmatrix}&=\lambda(\lambda^3-18\lambda+7\lambda)\\&=\lambda(\lambda^3-11\lambda)\\&=\lambda^4-11\lambda^2\end{align*}

y

    \begin{align*}2\begin{vmatrix}-1&0&0\\-7 & \lambda & -6\\0 & -3 & \lambda\end{vmatrix}&=2(-\lambda^2+18)\\&=-2\lambda^2+36.\end{align*}

Concluimos que el polinomio característico es

    \begin{align*}\lambda^4-13\lambda^2+36&=(\lambda^2-4)(\lambda^2-9)\\&=(\lambda+2)(\lambda-2)(\lambda+3)(\lambda-3).\end{align*}

De esta factorización, las raíces del polinomio (y por lo tanto los eigenvalores que buscamos) son -2,2,-3,3.

Si quisiéramos encontrar un eigenvector para, por ejemplo, el eigenvalor -2, tenemos que encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo

    \[(-2I_n-A)X=0.\]

\square

Propiedades del polinomio característico

Veamos ahora algunas propiedades importantes del polinomio característico. El primer resultado habla del polinomio característico de matrices triangulares superiores. Un resultado análogo se cumple para matrices inferiores, y su enunciado y demostración quedan como tarea moral.

Proposición. Si A=[a_{ij}] es una matriz triangular superior en M_n(F), entonces su polinomio característico es

    \[\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).\]

Demostración. Como A es triangular superior, entonces \lambda I_n -A también, y sus entradas diagonales son precisamente \lambda-a_{ii} para i=1,\ldots,n. Como el determinante de una matriz diagonal es el producto de sus entradas en la diagonal, tenemos que

    \[\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).\]

\square

Como el polinomio característico es un determinante, podemos aprovechar otras propiedades de determinantes para obtener otros resultados.

Proposición. Una matriz y su transpuesta tienen el mismo polinomio característico.

Demostración. Sea A una matriz en M_n(F). Una matriz y su transpuesta tienen el mismo determinante. Además, transponer es una transformación lineal. De este modo:

    \begin{align*}\chi_A(\lambda)&=\det(\lambda I_n - A)\\&=\det({^t(\lambda I_n-A)})\\&=\det(\lambda({^tI_n})-{^tA})\\&=\det(\lambda I_n - {^tA})\\&=\chi_{^tA}(\lambda).\end{align*}

\square

Ya antes habíamos mostrado que matrices similares tienen los mismos eigenvalores, pero que dos polinomios tengan las mismas raíces no necesariamente implica que sean iguales. Por ejemplo, los polinomios

    \[(x-1)^2(x+1) \quad \text{y} \quad (x+1)^2(x-1)\]

tienen las mismas raíces, pero no son iguales.

De esta forma, el siguiente resultado es más fuerte de lo que ya habíamos demostrado antes.

Proposición. Sean A y P matrices en M_n(F) con P invertible. Entonces A y P^{-1}AP tienen el mismo polinomio característico.

Demostración. El resultado se sigue de la siguiente cadena de igualdades, en donde usamos que \det(P)\det(P^{-1})=1 y que el determinante es multiplicativo:

    \begin{align*}\chi_{P^{-1}AP}(\lambda) &= \det(P) \chi_{P^{-1}AP}(\lambda) \det(P)^{-1}\\&=\det(P) \det(\lambda I_n - P^{-1}AP) \det(P^{-1})\\&=\det(P(\lambda I_n - P^{-1}AP)P^{-1})\\&=\det(\lambda PP^{-1}-PP^{-1}APP^{-1})\\&=\det(\lambda I_n - A)\\&=\chi_{A}(\lambda)\end{align*}

\square

Ten cuidado. El determinante es multiplicativo, pero el polinomio característico no es multiplicativo. Esto es evidente por el siguiente argumento. Si A y B son matrices en M_n(F), entonces \chi_A(\lambda) y \chi_B(\lambda) son cada uno polinomios de grado n, así que su producto es un polinomio de grado 2n, que por lo tanto no puede ser igual al polinomio característico \chi_{AB}(\lambda) pues este es de grado n. Así mismo, \chi_{A^2}(\lambda) no es \chi_{A}(\lambda)^2.

Una última propiedad que nos interesa es mostrar que el determinante de una matriz y su traza aparecen en los coeficientes del polinomio característico.

Teorema. Sea A una matriz en M_n(F) y \chi_A(\lambda) su polinomio característico. Entonces \chi_{A}(\lambda) es de la forma

    \[\lambda^n-(\text{tr} A) \lambda^{n-1}+\ldots+(-1)^n \det A.\]

Demostración. Tenemos que mostrar tres cosas:

  • El polinomio \chi_{A} es mónico, es decir, tiene coeficiente principal 1,
  • que el coeficiente del término de grado n-1 es \text{tr} A y
  • el coeficiente libre es (-1)^n \det A.

El coeficiente libre de un polinomio es su evaluación en cero. Usando la homogeneidad del determinante, dicho coeficiente es:

    \begin{align*}\chi_A(0)&=\det(0\cdot I_n-A)\\&=\det(-A)\\&=(-1)^n\det(A).\end{align*}

Esto muestra el tercer punto.

Para el coeficiente del término de grado n-1 y el coeficiente principal analicemos con más detalle la fórmula del determinante

    \begin{align*}\begin{vmatrix}\lambda - a_{11} & -a_{12} & \ldots & -a_{1n}\\-a_{21} & \lambda - a_{22} & \ldots & -a_{1n}\\\vdots & & \ddots & \\-a_{n1} & -a_{n2} & \ldots & \lambda - a_{nn}\end{vmatrix}\end{align*}


en términos de permutaciones.

Como discutimos anteriormente, la única forma de obtener un término de grado n es cuando elegimos a la permutación identidad. Pero esto también es cierto para términos de grado n-1, pues si no elegimos a la identidad, entonces la permutación elige por lo menos dos entradas fuera de la diagonal, y entonces el grado del producto de entradas correspondiente es a lo más n-2.

De este modo, los únicos términos de grado n y n-1 vienen del producto

    \[(\lambda-a_{11})\cdot\ldots\cdot(\lambda-a_{nn}).\]

El único término de grado n viene de elegir \lambda en todos los factores, y se obtiene el sumando \lambda^n, lo cual muestra que el polinomio es mónico.

Los únicos términos de grado n-1 se obtienen de elegir \lambda en n-1 factores y un término del estilo -a_{ii}. Al considerar todas las opciones, el término de grado n-1 es

    \[-(a_{11}+a_{22}+\ldots+a_{nn})\lambda^{n-1}=-(\text{tr} A) \lambda^{n-1},\]

que era lo último que debíamos mostrar.

\square

Ejemplo. El teorema anterior muestra que si A es una matriz en M_2(F), es decir, de 2\times 2, entonces

    \[\chi_A(\lambda)=\lambda^2 - (\text{tr}A) \lambda +\det A.\]

De manera explícita en términos de las entradas tendríamos entonces que si A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}, entonces su polinomio característico es

    \[\lambda^2-(a+d)\lambda+(ad-bc).\]

Como ejemplo, si A=\begin{pmatrix} 5 & 2 \\ -8 & -3 \end{pmatrix}, entonces su polinomio característico es

    \[\lambda^2 -2\lambda +1=(\lambda-1)^2.\]

Su único eigenvalor sería entonces 1.

\square

Suma y producto de eigenvalores de matrices complejas

A veces queremos referirnos al conjunto de todos los eigenvalores de una matriz.

Definición. Para A una matriz en M_n(F), el espectro de A es el conjunto de eigenvalores de A. Lo denotamos por \text{spec} (A)

Tenemos una definición análoga para el espectro de una transformación lineal. Esa definición da un poco de intuición de por qué los teoremas de diagonalización de matrices se llaman teoremas espectrales. La siguiente definición habla de un sentido en el cual un eigenvalor «se repite».

Definición. Sea A una matriz en M_n(F) y \lambda un eigenvalor de A. La multiplicidad algebraica de \lambda es el mayor entero m_{\lambda} tal que (x-\lambda)^{m_\lambda} divide a \chi_A(x).

Cuando estamos en \mathbb{C}, por el teorema fundamental del álgebra todo polinomio de grado n se puede factorizar en exactamente n términos lineales. Además, los polinomios característicos son mónicos. De este modo, si tenemos una matriz A en M_n(\mathbb{C}), su polinomio característico se puede factorizar como sigue:

    \[\chi_A(\lambda) = \prod_{j=1}^n (\lambda-\lambda_j),\]

en donde \lambda_1,\ldots,\lambda_n son eigenvalores de A, no necesariamente distintos, pero en donde cada eigenvalor aparece en tantos términos como su multiplicidad algebraica.

Desarrollando parcialmente el producto del lado derecho, tenemos que el coeficiente de \lambda^{n-1} es

    \[-(\lambda_1+\ldots+\lambda_n)\]

y que el coeficiente libre es

    \[(-1)^n\lambda_1\cdot\ldots\cdot\lambda_n.\]

Combinando este resultado con el de la sección anterior y agrupando eigenvalores por multiplicidad, se demuestra el siguiente resultado importante. Los detalles de la demostración quedan como tarea moral.

Teorema. Sea A una matriz en M_n(\mathbb{C})

  • La traza A es igual a la suma de los eigenvalores, contando multiplicidades algebraicas, es decir:

        \[\text{tr} A = \sum_{\lambda \in \text{spec}(A)} m_{\lambda} \lambda.\]

  • El determinante de A es igual al producto de los eigenvalores, contando multiplicidades algebraicas, es decir:

        \[\det A = \prod_{\lambda \in \text{spec} (A)} \lambda^{m_{\lambda}}.\]

Veamos un problema en donde se usa este teorema.

Problema. Sea A una matriz en M_n(\mathbb{C}) tal que A^2-4A+3I_n=0. Muestra que el determinante de A es una potencia de 3.

Solución. Sea \lambda un eigenvalor de A y v un eigenvector para \lambda. Tenemos que

    \[A^2v=A(\lambda v) = \lambda(Av)=\lambda^2 v.\]

De esta forma, tendríamos que

    \begin{align*}0&=(A^2-4A+3I_n)v\\&=(\lambda^2 v - 4\lambda v + 3 v)\\&=(\lambda^2-4\lambda+3) v.\end{align*}

Como v no es el vector 0, debe suceder que \lambda^2-4\lambda+3=0. Como \lambda^2-4\lambda+3 = (\lambda-3)(\lambda-1), entonces \lambda=1 ó \lambda=3. Con esto concluimos que los únicos posibles eigenvectores de A son 1 y 3.

Como A es una matriz en \mathbb{C}, tenemos entonces que su polinomio característico es de la forma (x-1)^a(x-3)^b con a y b enteros no negativos tales que a+b=n. Pero entonces por el teorema de producto de eigenvalores, tenemos que el determinante es 1^a\cdot 3^b=3^b, con lo que queda demostrado que es una potencia de 3.

\square

Dos teoremas fundamentales de álgebra lineal (opcional)

Tenemos todo lo necesario para enunciar dos resultados de álgebra lineal. Sin embargo, las demostraciones de estos resultados requieren de más teoría, y se ven en un siguiente curso. No los demostraremos ni los usaremos en el resto de este curso, pero te pueden servir para anticipar el tipo de resultados que verás al continuar tu formación en álgebra lineal.

El primer resultado fundamental es una caracterización de las matrices que pueden diagonalizarse. Para ello necesitamos una definición adicional. Hay otro sentido en el cual un eigenvalor \lambda de una matriz A puede repetirse.

Definición. Sea A una matriz en M_n(F) y \lambda un eigenvalor de A. La multiplicidad geométrica de \lambda es la dimensión del kernel de la matriz \lambda I_n -A pensada como transformación lineal.

En estos términos, el primer teorema al que nos referimos queda enunciado como sigue.

Teorema. Una matriz A en M_n(F) es diagonalizable si y sólo si su polinomio característico \chi_A(\lambda) se puede factorizar en términos lineales en F[\lambda] y además, para cada eigenvalor, su multiplicidad algebraica es igual a su multiplicidad geométrica.

Ejemplo. La matriz

    \[A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\]

tiene como polinomio característico a \chi_A(\lambda)=\lambda^2+1. Este polinomio no se puede factorizar en \mathbb{R}[x], así que A no es diagonalizable con matrices de entradas reales.

Sin embargo, en \mathbb{C} tenemos la factorización en términos lineales \lambda^2+1=(\lambda+i)(\lambda-i), que dice que i y -i son eigenvalores de multiplicidad algebraica 1. Se puede mostrar que la multiplicidad geométrica también es 1. Así, A sí es diagonalizable con matrices de entradas complejas.

\square

El segundo resultado fundamental dice que «cualquier matriz se anula en su polinomio característico». Para definir correctamente esto, tenemos que decir qué quiere decir evaluar un polinomio en una matriz. La definición es más o menos natural.

Definición. Si A es una matriz en M_n(F) y p es un polinomio en F[\lambda] de la forma

    \[p(\lambda)=a_0+a_1\lambda+a_2\lambda^2+\ldots+a_n\lambda^n,\]

definimos a la matriz p(A) como la matriz

    \[a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.\]

En estos términos, el resultado queda enunciado como sigue.

Teorema (Cayley-Hamilton). Si A es una matriz en M_n(F) y \chi_A(x) es su polinomio característico, entonces

    \[\chi_A(A)=O_n.\]

Ejemplo. Tomemos de nuevo a la matriz

    \[A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\]

del ejemplo anterior. Su polinomio característico es x^2+1. En efecto, verificamos que se cumple el teorema de Cayley-Hamilton pues:

    \begin{align*}A^2+I_2 &= \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} + \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} -1 & 0 \\ 0 & -1 \end{pmatrix}+\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.\end{align*}

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Enuncia y demuestra cómo es el polinomio característico de una matriz triangular inferior.
  • Completa los detalles de la demostración del teorema de suma y producto de eigenvalores. Úsalo para encontrar la suma y producto (con multiplicidades) de los eigenvalores de la matriz

        \[\begin{pmatrix}5 & 0 & -1 & 2 \\ 3 & -2 & 1 & -2 \\ 0 & 0 & 0 & 5\\ 0 & 2 & 4 & 0 \end{pmatrix}.\]

  • Sea A una matriz en M_n(F). ¿Cómo es el polinomio característico de -A en términos del polinomio característico de A?
  • Tomemos A una matriz en M_n(F) y k un entero positivo. Muestra que si \lambda es un eigenvalor de la matriz A, entonces \lambda^k es un eigenvalor de la matriz A^k.

De la sección opcional:

  • Demuestra, haciendo todas las cuentas, el caso particular del teorema de Cayley-Hamilton para matrices de 2\times 2.
  • Ya sabemos calcular el polinomio característico de matrices diagonales. Muestra el teorema de Cayley-Hamilton en este caso particular.
  • Las matrices diagonales trivialmente son diagonalizables. Muestra que la multiplicidad algebraica de sus eigenvalores en efecto coincide con la multiplicidad geométrica.