En la entrada anterior definimos el producto de matrices con matrices y exploramos algunas de sus propiedades, siendo varias de estas familiares: el producto de matrices es asociativo, conmutativo y tiene elemento neutro. En esta entrada exploraremos una pregunta que quedó abierta: ¿el producto de matrices cumple con tener inversos?
Definición de matrices invertibles
Diremos que una matriz cuadrada $A$ es invertible si y sólo si tiene inverso multiplicativo; es decir, si existe una matriz $B$ tal que $AB = BA = \mathcal{I}$.
Observemos para que la definción anterior tenga sentido, es indispensable que $A$ sea cuadrada, pues veamos que si $A$ es de tamaño $m \times n$, entonces para que los productos $AB$ y $BA$ estén definidos, $B$ tendrá que ser de tamaño $n \times m$. Así, $AB$ será de tamaño $m\times n$ y $BA$ de tamaño $n\times n$, y como $AB = BA$, entonces $m = n$, y, por tanto, $AB = BA = \mathcal{I}_n$ (y con ello también observamos que $B$ tiene que ser cuadrada de tamaño $n \times n$).
Un ejemplo de una matriz de $2 \times 2$ que es invertible es \[ A = \begin{pmatrix} 1 & -2 \\ -3 & 5 \end{pmatrix} \] que tiene como inversa a la matriz \[ B = \begin{pmatrix} -5 & -2 \\ -3 & -1 \end{pmatrix}, \] pues \begin{align*} AB &= \begin{pmatrix} 1 & -2 \\ -3 & 5 \end{pmatrix} \begin{pmatrix} -5 & -2 \\ -3 & -1 \end{pmatrix}\\ &= \begin{pmatrix} (1)(-5) + (-2)(-3) & (1)(-2) + (-2)(-1) \\ (-3)(-5) + (5)(-3) & (-3)(-2) + (5)(-1) \end{pmatrix}\\ &= \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\ &= \mathcal{I}_2 \end{align*} y \begin{align*} BA &= \begin{pmatrix} -5 & -2 \\ -3 & -1 \end{pmatrix} \begin{pmatrix} 1 & -2 \\ -3 & 5 \end{pmatrix}\\ &= \begin{pmatrix} (-5)(1) + (-2)(-3) & (-5)(-2) + (-2)(5) \\ (-3)(1) + (-1)(-3) & (-3)(-2) + (-1)(5) \end{pmatrix}\\ &= \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\ &= \mathcal{I}_2. \end{align*} Por lo tanto, \[ AB = BA = \mathcal{I}_2. \]
Algo que seguramente te preguntarás es si cualquier matriz cuadrada tiene un inverso multiplicativo. A diferencia de otros tipos de operaciones con inversos, el producto de matrices no siempre cumple con tenerlos: un ejemplo de esto es la matriz \[ A= \begin{pmatrix} 2 & 1 \\ 0 & 0 \end{pmatrix} \] la cual, al multiplicarla por cualquier matriz \[ B = \begin{pmatrix} a & b \\ c & d \end{pmatrix} \] por la derecha, nos da como resultado \[ AB = \begin{pmatrix} 2 & 1 \\ 0 & 0 \end{pmatrix} \begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} 2a + c & 2b + ,d \\ 0 & 0 \end{pmatrix}, \] y como en cualquier caso obtenemos que su entrada en la posición $(2,2)$ es $0$, tenemos que $AB$ es distinta a $\mathcal{I}_2$, pues la entrada en la posición $(2,2)$ de esta última es $1$.
Propiedades de matrices invertibles
A continuación exploraremos algunas de las propiedades que cumplen las matrices invertibles.
Primeramente, veamos que si una matriz $A$ de $n \times n$ es invertible, entonces su inversa será única. Para demostrar esto, supongamos que $B$ y $C$ son ambas inversas multiplicativas de $A$; es decir, $AB = BA = \mathcal{I}_n$ y $AC = CA = \mathcal{I}_n$. Entonces, \begin{align*} AB &= AC \\[5pt] B(AB) &= B(AC) \\[5pt] (BA)B &= (BA)C \\[5pt] \mathcal{I}_n B &= \mathcal{I}_n C \\[5pt] B &= C. \end{align*}
Como la matriz inversa de $A$ es única, usualmente la denotamos como $A^{-1}$.
Por otra parte, veamos que si $A$ y $B$ son matrices invertibles, con inversas $A^{-1}$ y $B^{-1}$, respectivamente, entonces, si podemos multiplicar $A$ y $B$ (es decir, si $A$ y $B$ son del mismo tamaño), entonces $AB$ es invertible, pues se cumple que \[ (AB)(B^{-1}A^{-1}) = A(BB^{-1})A^{-1} = A\mathcal{I}_nA^{-1} = AA^{-1} = \mathcal{I}_n, \] y también que \[ (B^{-1}A^{-1})(AB) = B^{-1}(A^{-1}A)B = B^{-1}\mathcal{I}_nB = B^{-1}B = \mathcal{I}_n, \] es decir, $B^{-1}A^{-1}$ es la matriz inversa de $AB$, lo cual denotamos como $(AB)^{-1} = B^{-1}A^{-1}$.
Finalmente, recordando la interpretación geométrica que dimos a la multiplicación de matrices por vectores, y la propiedad de que $A(Bu) = (AB)u$, entonces notamos que \[ A^{-1}(Au) = (A^{-1}A)u = \mathcal{I}u = u. \]
Como la transformación correspondiente a $A$ envía el vector $u$ al vector $Au$, y como el resultado de aplicar $(A^{-1}A)u$ deja al vector $u$ en su lugar, esto nos dice que la transformación correspondiente a $A^{-1}$ es aquella que regresa el vector $Au$ a su posición original.
En la siguiente imagen se visualiza esta propiedad para el caso en el que \[ A = \begin{pmatrix} 3 & 1 \\ 4 & 2 \end{pmatrix} \qquad \text{y} \qquad u = \begin{pmatrix} 1 \\ 2 \end{pmatrix}. \]
Formula para inversa de matrices de $2 \times 2$
Más arriba vimos que hay matrices que sí tienen inversa, mientras que otras no tienen. Para el caso de matrices de $2 \times 2$, tendremos que \[ A = \begin{pmatrix} a & b \\ c & d \end{pmatrix} \] es invertible si y sólo si se cumple que $ad-bc \ne 0$.
En dado caso, la inversa de $A$ será la matriz \[ A^{-1} = \frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} = \begin{pmatrix} \frac{d}{ad-bc} & \frac{-b}{ad-bc} \\ \frac{-c}{ad-bc} & \frac{a}{ad-bc} \end{pmatrix}. \]
Por ejemplo, veamos que si \[ A = \begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} 1 & 2 \\ -2 & 3 \end{pmatrix}, \] entonces $ad – bc = (1)(3) – (2)(-2) = 3 – (-4) = 7 \ne 0$, por lo que podemos garantizar que $A$ tiene matriz inversa, la cual es \[ A^{-1} = \frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} = \frac{1}{7} \begin{pmatrix} 3 & -2 \\ 2 & 1 \end{pmatrix} = \begin{pmatrix} 3/7 & -2/7 \\ 2/7 & 1/7 \end{pmatrix}. \]
De manera similar, veamos que la matriz \[ \begin{pmatrix} 3 & 4 \\ 1 & 2 \end{pmatrix} \] es invertible pues $(3)(2) – (4)(1) = 2 \ne 0$. ¿Puedes calcular su inversa?
Por el contrario, veamos que en la matriz \[ \begin{pmatrix} 6 & 4 \\ 3 & 2 \end{pmatrix} \] tenemos que $(6)(2) – (4)(3) = 12 -12 = 0$, y, por tanto, no es invertible.
Para el caso de matrices de mayor tamaño, también existen condiciones y fórmulas para calcular sus inversas, sin embargo, estas no resultan tan sencillas. Será necesario que comprendamos más propiedades de las matrices para poder obtenerlas.
Más adelante…
En esta entrada conocimos una propiedad más que cumplen las matrices respecto a su producto, que es la de tener inverso multiplicativas; también vimos las condiciones bajo las cuales una matriz de $2 \times 2$ puede tener inverso, y revisamos su fórmula.
En la siguiente entrada, conoceremos una nueva operación, la cual se distinguirá de todas las que hemos visto hasta ahora, pues esta operación involucra a una única matriz a la vez.
Tarea moral
¿Para qué valores de $a$ se cumple que \[ \begin{pmatrix} 5 & a \\ 2 & 2-a \end{pmatrix} \] es invertible?
Muestra que si $A$, $B$ y $C$ son matrices invertibles del mismo tamaño, entonces \[ (ABC)^{-1} = C^{-1}B^{-1}A^{-1}. \]
Muestra que si $A$ es una matriz invertible y $k$ es un entero positivo, entonces $A^k$ también es invertible y $(A^k)^{-1}=(A^{-1})^k$.
¿Por qué la matriz \[ \begin{pmatrix} 3 & 4 & 0 \\ 7 & 2 & 0 \\ 0 & 0 & 0 \end{pmatrix} \] no es invertible?
Muestra que en efecto el criterio que dimos para que una matriz $A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ tenga inversa es suficiente y necesario. Para la parte de que es suficiente, tendrás que ver que si $ad-bc\neq 0$, la matriz propuesta en la entrada siempre funciona como inversa. Para ver que es necesario, supón que $ad-bc=0$. En este caso, $ad=bc$ y podrás encontrar a partir de $a,b,c,d$ a dos vectores distintos $u$ y $v$ tales que $Au=Av$. Esto mostrará que la transformación asociada a $A$ no es inyectiva y por tanto no podrá tener inversa, así que $A$ tampoco tendrá inversa.
Hasta ahora hemos conocido varias operaciones que involucran escalares, vectores y matrices. En esta entrada aprenderemos sobre una de las operaciones más importantes en el álgebra lineal: el producto de matrices con matrices.
Definición de producto de matrices
Para poder efectuar el producto de dos matrices, hay que asegurarnos de que el número de columnas de la primera matriz sea igual al número de filas de la segunda matriz.
El resultado de una matriz $A$ de tamaño $m \times n$ por una matriz $B$ de tamaño $n \times \ell$ será la matriz $C = AB$ de tamaño $m \times \ell$, donde la entrada $c_{ij}$ de $C$ está dada por la fórmula \[ c_{ij} = a_{i1}b_{1j} + a_{i2}b_{2j} + \cdots + a_{in}b_{nj}. \]
A primera vista esta fórmula puede parecer complicada, sin embargo, practicando con algunos ejemplos verás que es muy fácil de implementar.
Producto de matrices de tamaño $2 \times 2$:
Sean \[ A = \begin{pmatrix} 1 & 3 \\ 5 & 7 \end{pmatrix} \qquad \text{y} \qquad B = \begin{pmatrix} 2 & 4 \\ 6 & 8 \end{pmatrix}. \]
Como estamos multiplicando una matriz de tamaño $2 \times 2$ por una matriz de tamaño $2 \times 2$, sabemos que el resultado será otra matriz de tamaño $2 \times 2$. Ahora, iremos calculando una por una sus entradas.
Sea $C = AB$. Para calcular la entrada $c_{11}$ observamos la primera fila de $A$ y la primera columna de $B$, las cuales son \[ A = \begin{pmatrix} 1 & 3\\ \phantom{5} & \phantom{7} \end{pmatrix} \qquad \text{y} \qquad B = \begin{pmatrix} 2 & \phantom{4} \\ 6 & \phantom{8} \end{pmatrix}, \] de modo que $c_{11} = (1)(2)+(3)(6) = 20$: \[ AB = \begin{pmatrix} 20 & \phantom{28} \\ \phantom{52} & \phantom{76} \end{pmatrix}. \]
Para la entrada $c_{12}$, nos fijamos en la primera columna de $A$ y en la segunda columna de $B$, que son \[ A = \begin{pmatrix} 1 & 3\\ \phantom{5} & \phantom{7} \end{pmatrix} \qquad \text{y} \qquad B = \begin{pmatrix} \phantom{2} & 4 \\ \phantom{6} & 8 \end{pmatrix}, \] obteniendo $c_{12} = (1)(4) + (3)(8) = 28$: \[ AB = \begin{pmatrix} 20 & 28 \\ \phantom{52} & \phantom{76} \end{pmatrix}. \]
De manera similar, observemos la segunda fila de $A$ y la primera columna de $B$, \[ A = \begin{pmatrix} \phantom{1} & \phantom{3} \\ 5 &7 \end{pmatrix}, \qquad B = \begin{pmatrix} 2 & \phantom{4} \\ 6 & \phantom{8} \end{pmatrix}, \] obteniendo $c_{21} = (5)(2) + (7)(6) = 52$, mientras que la segunda fila de $A$ y la segunda columna de $B$ son \[ A = \begin{pmatrix} \phantom{1} & \phantom{3} \\ 5 &7 \end{pmatrix}, \qquad B = \begin{pmatrix} \phantom{2} & 4 \\ \phantom{6} & 8 \end{pmatrix}, \] obteniendo $c_{22} = (5)(4) + (7)(8) = 76$.
Por lo tanto, \[ AB = \begin{pmatrix} 20 & 28 \\ 52 & 76 \end{pmatrix}. \]
En general, el resultado del producto de las matrices \[ A = \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{pmatrix} \qquad \text{y} \qquad B = \begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix} \] es \[ AB = \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{pmatrix} \begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix} = \begin{pmatrix} a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\ a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \end{pmatrix}. \]
Producto de matriz de $3 \times 2$ por matriz de $2 \times 2$:
En este caso, como estamos multiplicando una matriz de tamaño $3 \times 2$ por una matriz de tamaño $2 \times 2$, la matriz resultante tendrá tamaño $3 \times 2$.
Podemos obtener sus entradas de manera similar al caso anterior. Si $C = AB$, entonces la entrada $c_{12}$ la podemos encontrar revisando la primera fila de $A$ y la segunda columna de $B$, \[ A = \begin{pmatrix} 3 & 5 \\ \phantom{1} & \phantom{0} \\ \phantom{4} & \phantom{3} \end{pmatrix}, \qquad B = \begin{pmatrix} \phantom{7} & 8 \\ \phantom{5} & 2 \end{pmatrix}. \] de modo que $c_{12} = (3)(8) + (5)(2) = 34$. Por su parte, para obtener la entrada $c_{31}$ nos fijamos en la tercera fila de $A$ y la primera columna de $B$, \[ A = \begin{pmatrix} \phantom{3} & \phantom{5} \\ \phantom{1} & \phantom{0} \\ 4 & 3 \end{pmatrix}, \qquad B = \begin{pmatrix} 7 & \phantom{8} \\ 5 & \phantom{2} \end{pmatrix}. \] obteniendo $c_{31} = (4)(7) + (3)(5) = 43$.
¿Podrías comprobar que \[ AB = \begin{pmatrix} 46 & 34 \\ 7 & 8 \\ 43 & 38 \end{pmatrix}? \]
Así, para el caso general de matrices de $3 \times 2$ por $2 \times 2$, obtendremos \[ \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ a_{31} & a_{32} \end{pmatrix} \begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix} = \begin{pmatrix} a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\ a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\ a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22} \end{pmatrix}. \]
Producto de matriz de $4 \times 2$ por matriz de $2 \times 3$:
A continuación revisaremos algunas de las propiedades que cumple la multiplicación de matrices. Para demostrar las siguientes propiedades, consideraremos la matriz $A$ de tamaño $3 \times 2$ y las matrices $B$ y $C$ de tamaño $2 \times 2$, aunque se pueden probar para matrices de cualesquier otro tamaño entre las cuales se puedan efectuar las operaciones.
Veamos que si efectuamos la multiplicación de una matriz de tamaño $m \times n$ por una matriz de tamaño $n \times 1$ siguiendo el algoritmo descrito anteriormente, el resultado coincide con el de multiplicar la matriz de tamaño $m \times n$ por un vector de tamaño $n$. Por ejemplo, si multiplicamos $A$ por una matriz $U$ de tamaño $2 \times 1$, obtendremos \[ \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ a_{31} & a_{32} \end{pmatrix} \begin{pmatrix} u_{11} \\ u_{12} \end{pmatrix} = \begin{pmatrix} a_{11}u_{11} + a_{12}u_{21} \\ a_{21}u_{11} + a_{22}u_{21} \\ a_{31}u_{11} + a_{32}u_{21} \end{pmatrix}. \]
Esta es una observación importante pues todo lo que demostremos para el producto de matrices también lo tendremos para el producto de matriz por vector.
Veamos que la multiplicación de matrices es asociativa:
De manera muy similar, si $u$ es un vector de tamaño 2, podemos ver que se cumple que $A(Bu) = (AB)u$. ¿Puedes demostrarlo? Hazlo por lo menos para matrices $A$ y $B$ ambas de $2\times 2$.
Quizás tengas la impresión de que hay que hacer demasiadas cuentas y que sería sumamente difícil demostrar estas propiedades para matrices más grandes. Sin embargo, en cursos posteriores verás cómo trabajar apropiadamente con la notación para poder hacer estas demostraciones más fácilmente.
El producto de matrices es asociativo. Sin embargo, no es conmutativo. Por ejemplo, consideremos las matrices \[ E= \begin{pmatrix} 5 & 7 \\ -3 & 0 \end{pmatrix} \qquad \text{y} \qquad F= \begin{pmatrix} 1 & 2 \\ 9 & -1 \end{pmatrix}. \]
El producto también se distribuye sobre la suma cuando la suma aparece a la izquierda. ¿Podrías probar que si $D$ es una matriz de tamaño $3 \times 2$, entonces se cumple $(A+D)B = AB + DB$?
En entradas anteriores vimos que $\mathcal{I}_n$ tiene la propiedad de ser neutro al multiplicarla por un vector de tamaño $n$. Resulta que $\mathcal{I}_n$ también tiene esta propiedad al multiplicarla por la izquierda por una matriz de tamaño $n\times m$. Por ejemplo, veamos que al multiplicar $\mathcal{I}_3$ por la izquierda por $A$, obtenemos \begin{align*} \mathcal{I}_3 A &= \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ a_{31} & a_{32} \end{pmatrix} \\[5pt] &= \begin{pmatrix} 1a_{11} + 0a_{21} + 0a_{31} & 1a_{12} + 0a_{22} + 0a_{32} \\ 0a_{11} + 1a_{21} + 0a_{31} & 0a_{12} + 1a_{22} + 0a_{32} \\ 0a_{11} + 0a_{21} + 1a_{31} & 0a_{12} + 0a_{22} + 1a_{32} \end{pmatrix} \\[5pt] &= \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ a_{31} & a_{32} \end{pmatrix} \\[5pt] &= A. \end{align*}
¿Podrías probar que $A\mathcal{I}_2 = A$ (es decir, que $\mathcal{I}_2$ es neutro por la derecha para $A$)?
Habiendo visto que el producto de matrices es asociativo, conmutativo y tiene neutros, probablemente te estarás preguntando si existen inversos en la multiplicación de matrices. Este cuestionamiento lo dejaremos para la siguiente entrada.
Relación con la composición de transformaciones
Como vimos en la entrada anterior, una forma de visualzar el producto de una matriz $A$ por un vector $u$ es como una transformación que envía el vector $u$ a un único vector $Au$.
Teniendo en mente esto, veamos que la propiedad de que $A(Bu) = (AB)u$ resulta aún más interesante. Para esto, veamos que el siguiente ejemplo: sean \[ A = \begin{pmatrix} 0 & 2 \\ 1 & 1 \end{pmatrix}, \qquad B = \begin{pmatrix} 1 & 2 \\ 3 & 0 \end{pmatrix}, \qquad \text{y} \qquad u = \begin{pmatrix} 1 \\ 2 \end{pmatrix}. \]
Si multiplicamos $B$ por $u$, vemos que corresponde a la transformación que envía $u = \begin{pmatrix} 1 \\ 2 \end{pmatrix}$ al vector $Bu = \begin{pmatrix} 5 \\ 3 \end{pmatrix}$.
Ahora, si multiplicamos $A$ por el vector $Bu$, vemos que corresponde a la transformación que envía $Bu$ al vector $A(Bu) = \begin{pmatrix} 6 \\ 8 \end{pmatrix}$ (Acabamos de obtener el resultado de aplicar a $u$ la composición de las transformaciones $B$ y $A$).
Por otra parte, si realizamos la multiplicación \[ AB = \begin{pmatrix} 0 & 2 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} 1 & 2 \\ 3 & 0 \end{pmatrix} = \begin{pmatrix} 6 & 0 \\ 4 & 2 \end{pmatrix}, \] la transformación asociada a $AB$ envía $u$ al vector $(AB)u = \begin{pmatrix} 6 \\ 8 \end{pmatrix}$.
¡La composición de las transformaciones asociadas a $B$ y $A$ aplicada al vector $u$ coincide con la transformación asociada a la matriz $AB$ aplicada al mismo vector!
Si probamos esto para un vector arbitrario, nos daremos cuenta de que en todos los casos se cumple lo mismo. En realidad, esto no es una coincidencia: como aprenderás en tus cursos de álgebra lineal, la composición de transformaciones lineales está directamente asociada al producto de matrices.
Potencias de matrices
Podemos ver que si una matriz $A$ es cuadrada, al tener el mismo número de filas que de columnas, entonces podemos realizar la multiplicaciones $AA$, $AAA$, $AAAA$, etc., que por asociatividad no importa en qué orden multipliquemos. Esto nos sugiere que podemos cacular potencias de matrices.
Para una matriz cuadrada $A$, definiremos de manera recursiva la potencia $A^n$:
Definimos $A^0 = \mathcal{I}$.
Dada $A^n$, con $n$ un número natural, definimos $A^{n+1} = A^n A$.
Prueba calcular algunas potencias de la matriz \( \begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix}. \) ¿Notas algún patrón especial?
Más adelante…
En esta entrada aprendimos sobre el producto de matrices con matrices y conocimos algunas de sus propiedades. En la siguiente entrada abordaremos la pregunta sobre si existen los inversos en la multiplicación de matrices.
Considera la matriz $A=\begin{pmatrix} 3 & -4 \\ 4 & -5 \end{pmatrix}$. Realiza las siguientes operaciones por separado, sin usar la asociatividad del producto de matrices. ¿Cuál de las dos operaciones te resultó más fácil de hacer?
Completa las pruebas faltantes de las propiedades de la multiplicación de matrices.
Demuestra la siguiente ley de exponentes para matrices: $A^mA^n=A^{m+n}$.
Prueba que si \[ A = \begin{pmatrix} a_{11} & 0 \\ 0 & a_{22} \end{pmatrix}, \] y $k$ es un entero mayor o igual que $0$, entonces \[ A^k = \begin{pmatrix} {a_{11}}^k & 0 \\ 0 & {a_{22}}^k \end{pmatrix} \] (Sugerencia: realizarlo por inducción sobre $k$, utilizando la definición recursiva).
Encuentra matrices $A$ y $B$ de $2\times 2$ para las cuales $A^2-B^2\neq (A+B)(A-B)$.
Tenemos ya la definición de diferenciabilidad, y su versión manejable: la matriz jacobiana. Seguiremos construyendo conceptos y herramientas del análisis de los campos vectoriales muy importantes e interesantes. A continuación, enunciaremos una nueva versión de la regla de la cadena, que nos permitirá calcular las diferenciales de composiciones de campos vectoriales entre espacios de dimensión arbitraria. Esta regla tiene numerosas aplicaciones y es sorprendentemente fácil de enunciar en términos de producto de matrices.
Primeras ideas hacia la regla de la cadena
La situación típica de regla de la cadena es considerar dos funciones diferenciables que se puedan componer. A partir de ahí, buscamos ver si la composición también es diferenciable y, en ese caso, intentamos dar la derivada de la composición en términos de las derivadas de las funciones. Veamos qué pasa en campos vectoriales.
Pensemos en $f:S_{f}\subseteq \mathbb{R}^{m}\rightarrow \mathbb{R}^{n}$, $g:S_{g}\subseteq \mathbb{R}^{l}\rightarrow \mathbb{R}^{m}$ y en su composición $h=f\circ g$ definida sobre alguna vecindad $V\subseteq S_g$ de $\bar{a}$ y tal que $g(V)\subseteq S_f$. Pensemos que $g$ es diferenciable en $\bar{a}$ con derivada $G_\bar{a}$ y que $f$ es diferenciable en $\bar{b}:=g(\bar{a})$ con derivada $F_\bar{b}$.
Exploremos la diferenciabilidad de la composición $h$ en el punto $\bar{a}$. Para ello, tomemos un $\bar{y}\in \mathbb{R}^{l}$ tal que $\bar{a}+\bar{y}\in V$ y consideremos la siguiente expresión:
con $\lim\limits_{\bar{y}\to \bar{0}}E_{f}(\bar{b};\bar{v})=0$.
Concatenando nuestras igualdades, podemos reescribir esto como
\[ h(\bar{a}+\bar{y})-h(\bar{a})=(F_{\bar{b}}\circ G_{\bar{a}})(\bar{y})+||\bar{y}||E_{h}(\bar{a};\bar{y}),\] en donde hemos definido
\[ E_{h}(\bar{a};\bar{y})=(F_{\bar{b}}\circ E_{g})(\bar{a};\bar{y})+\frac{||\bar{v}||}{||\bar{y}||}E_{f}(\bar{b};\bar{v}).\] Si logramos demostrar que $\lim\limits_{\bar{y}\to \bar{0}}E_{h}(\bar{a};\bar{y})=0$, entonces tendremos la diferenciabilidad buscada, así como la derivada que queremos. Dejemos esto en pausa para enunciar y demostrar un lema auxiliar.
Un lema para acotar la norma de la derivada en un punto
Probemos el siguiente resultado.
Lema. Sea $\phi:S\subseteq \mathbb{R}^l\to \mathbb{R}^m$ un campo vectorial diferenciable en un punto $\bar{c}\in S$ y $T_\bar{c}$ su derivada. Entonces, para todo $\bar{v}\in \mathbb{R}^{l}$, se tiene:
De aquí se ve que conforme $\bar{y}\to \bar{0}$, la expresión $\frac{||\bar{v}||}{||\bar{y}||}$ está acotada superiormente por la constante $A:=\sum_{k=1}^{m}||\triangledown g_{k}(\bar{a})||.$ Además, si $\bar{y}\to \bar{0}$, entonces $\bar{v}\to \bar{0}$. Así,
Hemos concluido que $$h(\bar{a}+\bar{y})-h(\bar{a})=(F_{\bar{b}}\circ G_{\bar{a}})(\bar{y})+||\bar{y}||E_{h}(\bar{a};\bar{y}),$$
con $\lim_{\bar{y}\to \bar{0}} E_h(\bar{a};\bar{y})=0$. Esto precisamente es la definición de $h=f\circ g$ es diferenciable en $\bar{a}$, y su derivada en $\bar{a}$ es la transformación lineal dada por la composición de transformaciones lineales $F_\bar{b}\circ G_\bar{a}$.
Recapitulación de la regla de la cadena
Recapitulamos toda la discusión anterior en el siguiente teorema.
Teorema (Regla de la cadena). Sean $f:S_{f}\subseteq \mathbb{R}^{m}\rightarrow \mathbb{R}^{n}$, $g:S_{g}\subseteq \mathbb{R}^{l}\rightarrow \mathbb{R}^{m}$ campos vectoriales. Supongamos que la composición $f\circ g$ está definida en todo un abierto $S\subseteq S_g$. Supongamos que $g$ es diferenciable en un punto $\bar{a}\in S$ con derivada $G_\bar{a}$ y $f$ es diferenciable en $\bar{b}:=g(\bar{a})$ con derivada $F_\bar{b}$. Entonces, $h$ es diferenciable en $\bar{a}$ con derivada $F_\bar{b}\circ G_\bar{a}$.
Dado que la representación matricial de la composición de dos transformaciones lineales es igual al producto de estas, podemos reescribir esto en términos de las matrices jacobianas como el siguiente producto matricial: $$Dh(\bar{a})=Df(\bar{b})Dg(\bar{a}).$$
Usos de la regla de la cadena
Hagamos algunos ejemplos de uso de regla de la cadena. En el primer ejemplo que veremos a continuación, la función $f$ es un campo escalar.
Ejemplo 1. Tomemos $g:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ campo vectorial, y $f:U\subseteq \mathbb{R}^{m}\rightarrow \mathbb{R}$ campo escalar. Consideremos $h=f\circ g$ y supongamos que se satisfacen las hipótesis del teorema de la regla de la cadena. Tenemos: \[ Df(\bar{b})=\begin{pmatrix} \frac{\partial f}{\partial x_{1}}(\bar{b}) & \dots & \frac{\partial f}{\partial x_{m}}(\bar{b}) \end{pmatrix} \] y \[ Dg(\bar{a})=\begin{pmatrix}\frac{\partial g_{1}}{\partial x_{1}}(\bar{a}) & \dots & \frac{\partial g_{1}}{\partial x_{n}}(\bar{a}) \\ \vdots & \ddots & \vdots \\ \frac{\partial g_{m}}{\partial x_{1}}(\bar{a}) & \dots & \frac{\partial g_{m}}{\partial x_{n}}(\bar{a}) \end{pmatrix} . \]
En otras palabras, tenemos las siguientes ecuaciones para calcular cada derivada parcial de $h$: \[ \frac{\partial h}{\partial x_{j}}(\bar{a})=\sum_{i=1}^{m}\frac{\partial f}{\partial x_{i}}(\bar{b})\frac{\partial g_{i}}{\partial x_{j}}(\bar{a}).\]
$\triangle$
Ejemplo 2. Sean $\bar{a}=(s,t)$ y $\bar{b}=(x,y)$ puntos en $\mathbb{R}^{2}$. Pensemos que las entradas de $\bar{b}$ están dadas en función de las entradas de $\bar{a}$ mediante las ecuaciones $x=g_{1}(s,t)$ y $y=g_{2}(s,t)$. Pensemos que tenemos un campo escalar $f:\mathbb{R}^2\to \mathbb{R}$, y definimos $h:\mathbb{R}^2\to \mathbb{R}$ mediante $$h(s,t)=f(g_{1}(s,t),g_{2}(s,t)).$$
Por el ejemplo anterior \[ \frac{\partial h}{\partial s}=\frac{\partial f}{\partial x}\frac{\partial x}{\partial s}+\frac{\partial f}{\partial y}\frac{\partial y}{\partial s} \] y \[ \frac{\partial h}{\partial t}=\frac{\partial f}{\partial x}\frac{\partial x}{\partial t}+\frac{\partial f}{\partial y}\frac{\partial y}{\partial t}. \] Como tarea moral queda que reflexiones qué significa $\partial x$ cuando aparece en el «numerador» y qué significa cuando aparece en el «denominador».
$\triangle$
Ejemplo 3. Para un campo escalar $f(x,y)$ consideremos un cambio de coordenadas $x=rcos\theta$, $y=rsen\theta$ es decir tomemos la función $\phi (r,\theta)=f(rcos\theta ,rsen\theta )$.
Por el ejemplo anterior tenemos \[ \frac{\partial \phi }{\partial r}=\frac{\partial f}{\partial x}\frac{\partial x}{\partial r}+\frac{\partial f}{\partial y}\frac{\partial y}{\partial r} \] y \[ \frac{\partial \phi }{\partial \theta }=\frac{\partial f}{\partial x}\frac{\partial x}{\partial \theta }+\frac{\partial f}{\partial y}\frac{\partial y}{\partial \theta } \] donde, haciendo las derivadas parciales tenemos: \[ \frac{\partial x}{\partial r}=cos\theta ,\hspace{1cm}\frac{\partial y}{\partial r}=sen\theta \] y \[ \frac{\partial x}{\partial \theta }=-rsen\theta,\hspace{1cm}\frac{\partial y}{\partial \theta }=-rcos\theta. \] Finalmente obtenemos: \[ \frac{\partial \phi }{\partial r }=\frac{\partial f }{\partial x }cos\theta +\frac{\partial f }{\partial y }sen\theta \] y \[ \frac{\partial \phi }{\partial \theta }=-\frac{\partial f }{\partial x }rsen\theta +\frac{\partial f }{\partial y }rcos\theta \] que son las derivadas parciales del cambio de coordenadas en el dominio de $f$.
$\triangle$
Mas adelante…
En la siguiente entrada comenzaremos a desarrollar la teoría para los importantes teoremas de la función inversa e implícita si tienes bien estudiada esta sección disfrutaras mucho de las siguientes.
Tarea moral
Considera el campo escalar $F(x,y,z)=x^{2}+y sen(z)$. Imagina que $x,y,z$ están dados por valores $u$ y $v$ mediante las condiciones $x=u+v$, $y=vu$, $z=u$. Calcula $\frac{\partial F}{\partial u}$, $\frac{\partial F}{\partial v}$.
Sea $g(x,y,z)=(xy,x)$, y $f(x,y)=(2x,xy^{2},y)$. Encuentra la matriz jacobiana del campo vectorial $g\circ f$. Encuentra también la matriz jacobiana del campo vectorial $f\circ g$.
En la demostración del lema que dimos, hay un paso que no justificamos: el primero. Convéncete de que es cierto repasando el contenido de la entrada anterior Diferenciabilidad.
Imagina que sabemos que la función $f:\mathbb{R}^n\to \mathbb{R}^n$ es invertible y derivable en $\bar{a}$ con derivada $T_\bar{a}$. Imagina que también sabemos que su inversa $f^{-1}$ es derivable en $\bar{b}=f(\bar{a})$ con derivada $S_\bar{b}$. De acuerdo a la regla de la cadena, ¿Qué podemos decir de $T_\bar{a}\circ S_\bar{b}$? En otras palabras, ¿Cómo son las matrices jacobianas entre sí, en términos de álgebra lineal?
Reflexiona en cómo todas las reglas de la cadena que hemos estudiado hasta ahora son un corolario de la regla de la cadena de esta entrada.
El determinante de una matriz cuadrada es un número asociado a esta. Como veremos, los determinantes nos proporcionarán información de interés para varios problemas que se pueden poner en términos de matrices.
Recuerda que los temas de esta unidad son tratados a manera de repaso, por lo cual no nos detenemos en detallar las demostraciones, ni en extender las exposiciones de las definiciones. Para mayor detalle, te remitimos al curso de Álgebra Lineal I, específicamente comenzando con la entrada Transformaciones multilineales. Aún así, es recomendable que revises estas notas en el curso de Cálculo Diferencial e Integral III, pues sintetizamos los temas de tal manera que recuperamos los conceptos relevantes para el cálculo de varias variables. Así mismo, en ocasiones, abordamos las definiciones y resultados de manera un poco distinta, y es muy instructivo seguir los mismos conceptos abordados con un sabor ligeramente distinto.
Permutaciones
Recordemos que en la entrada anterior definimos para cada $n\in \mathbb{N}$ el conjunto $[n]=\{1, 2,\ldots, n\}$.
Definición. Una permutación del conjunto $[n]$ es una función biyectiva $\sigma :[n]\rightarrow [n]$. Una forma de escribir a $\sigma$ de manera más explícita es la siguiente: \[ \sigma = \begin{pmatrix} 1 & 2 & \dots & n \\ \sigma(1) & \sigma(2) & \dots & \sigma(n) \end{pmatrix} \]
Podemos pensar también a una permutación como un reacomodo de los números $1, 2, …, n$. Pensado de esta manera, escribimos $\sigma =\sigma(1) \sigma(2)\dots \sigma(n)$.
El conjunto de todas las permutaciones del conjunto $[n]$ se denota como $S_n$. Una observación interesante es que $S_{n}$ tiene $n!$ elementos.
Definición. Para $\sigma \in S_{n}$, una inversión en $\sigma$ consiste en un par $(i,k)\in [n]\times [n]$ tal que $i>k$ pero $i$ precede a $k$ en $\sigma$ cuando se considera $\sigma$ como una lista. Diremos que $\sigma$ es permutación par o impar según tenga un número par o impar de inversiones.
Ejemplo. Consideremos $\sigma=12354$ permutación en $[5]$. Tenemos que $(5,4)$ es una inversión en $\sigma$ pues $5>4$ pero en la permutación $5$ precede a $4$. Al tener $\sigma$ una sola inversión, es una permutación impar.
$\triangle$
Definición. El signo de $\sigma$, denotado $\text{sign}(\sigma)$ se define como: \[ \text{sign}(\sigma )= \begin{cases} 1 & \text{si $\sigma$ es par} \\ -1 & \text{si $\sigma$ es impar.}\end{cases} \]
Sea $A\in M_{n}(\mathbb{R})$. Pensemos en un producto de $n$ entradas de $A$ tomadas de tal manera que se eligió una y sólo una de cada fila y columna. Podemos reordenar los números para poner en orden la fila de la que tomamos cada uno, y escribir el producto como \begin{equation} a_{1j_{1}} a_{2j_{2}}\dots a_{nj_{n}}. \label{eq:producto} \end{equation}
Así, $a_{kj_{k}}$ nos dice que en la fila $k$ tomamos la entrada de la columna $j$. Como se eligió una y sólo una entrada por columna, tenemos que $j_1,\ldots,j_n$ es una permutación de $[n]$. Y viceversa, cada permutación $\sigma =j_{1}\dots j_{n} \in S_{n}$ determina un producto como en \eqref{eq:producto}. Por ello la matriz $A$ nos entrega $n!$ productos con esta característica.
Determinantes en términos de permutaciones
A partir de las permutaciones podemos definir a los determinantes.
Definición. El determinante de la matriz $A$, denotado por $\det(A)$, se define como: \[ \det(A)=\sum_{\sigma \in S_{n}} \left(\text{sign}(\sigma)\prod_{i=1}^{n} a_{i\sigma (i)}\right) \] donde \[ \sigma = \begin{pmatrix} 1 & 2 & \dots & n \\ \sigma (1) & \sigma (2) & \dots & \sigma (n) \end{pmatrix} \]
Veamos algunas de las propiedades que tienen los determinantes. Aprovecharemos para introducir algunas matrices especiales.
Definición. La matriz identidad $I\in M_{n}(\mathbb{R})$ es aquella que cumple que en las entradas de la forma $(i,i)$ son iguales a 1 y el resto de las entradas son iguales a 0.
Definición. Diremos que una matriz $A\in M_n(\mathbb{R})$ es una matriz triangular superior si cumple $a_{ij}=0$ para $i>j$. La llamaremos triangular inferior si cumple $a_{ij}=0$ para $i<j$. Finalmente, diremos que es diagonal si cumple $a_{ij}=0$ para $i\neq j$ (en otras palabras, si simultáneamente es triangular superior e inferior).
Definición. Sea $A\in M_{m,n}(\mathbb{R})$. La transpuesta de la matriz $A$, denotada por $A^t$, es la matriz en $M_{n,m}(\mathbb{R})$ cuyas entradas están definidas como $(a^{t})_{ij} =a_{ji}$.
El siguiente resultado enuncia algunas propiedades que cumplen los determinantes de la matriz identidad, de matrices transpuestas, y de matrices triangulares superiores, triangulares inferiores y diagonales.
Proposición. Sea $A\in M_{n}(\mathbb{R})$. Se cumple todo lo siguiente.
$\det(A)=\det(A^{t})$.
Si $A$ tiene dos filas iguales $\det(A)=0$.
Si $A$ tiene dos columnas iguales $\det(A)=0$.
Si $A$ es triangular superior, triangular inferior, o diagonal, $\det(A)=\prod_{i=1}^{n} a_{ii}$.
Si tenemos dos filas iguales, en cada producto $a_{1\sigma (1)}\cdots a_{n\sigma (n)}$ tenemos dos factores de la misma fila, por tanto para cada producto tenemos otro igual en la suma solo que con signo contrario (signo de la permutación correspondiente); al hacer la suma estos sumandos se anularán por pares resultando en cero.
Mismo argumento que en el inciso anterior.
Si tenemos una matriz triangular, ya sea superior, o inferior $\prod_{i=1}^{n} a_{i\sigma (i)}\neq 0$ sólo cuando $\sigma(i)=i$ ya que en otro caso este producto siempre tendrá algún factor cero.
Es un corolario de la propiedad anterior, pues la matriz identidad es una matriz diagonal con unos en la diagonal.
$\square$
Otra propiedad muy importante del determinante es que es multiplicativo. A continuación enunciamos el resultado, y referimos al lector a la entrada Propiedades de determinantes para una demostración.
Teorema. Sean $A$ y $B$ matrices en $M_n(\mathbb{R})$. Se tiene que $$\det(AB)=\det(A)\det(B).$$
Mas adelante…
En la siguiente entrada revisaremos la teoría de sistemas de ecuaciones lineales. Comenzaremos definiéndolos, y entendiéndolos a partir de las operaciones elementales que definimos en la entrada anterior. Hablaremos un poco de cómo saber cuántas soluciones tiene un sistema de ecuaciones. Así mismo veremos que en ciertos sistemas de ecuaciones lineales, podemos asociar una matriz cuyo determinante proporciona información relevante para su solución.
Un poco más adelante también hablaremos de diagonalizar matrices. A grandes rasgos, esto consiste en encontrar representaciones más sencillas para una matriz, pero que sigan compartiendo muchas propiedades con la matriz original. El determinante jugará de nuevo un papel muy importante en esta tarea.
Tarea moral
Sea $\sigma \in S_{n}$. Muestra que su inversa, $\sigma ^{ -1}$ también es una permutación. Después, muestra que \[\text{sign}(\sigma)= \text{sign}(\sigma ^{-1}).\] Sugerencia: no es difícil hacerlo por inducción sobre el número de inversiones.
Encuentra explícitamente cuántas inversiones tiene la permutación $\sigma$ en $S_n$ dada por $S(j)=n-j+1$.
Escribe con más detalle la demostración de que una matriz y su transpuesta tienen el mismo determinante. Puedes pensarlo como sigue. Toma \[ \det(A)=\sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{1\sigma(1)}\cdot \dots \cdot a_{n\sigma (n)}.\] Supón que las filas $s$ y $t$ son iguales; para cada factor argumenta por qué \[ a_{1\sigma (1)}\cdots a_{s\sigma (s)} \cdots a_{t\sigma (t)}\cdots a_{n\sigma (n)} \] el factor \[ a_{1\sigma (1)}\cdots a_{t\sigma (t)}\cdots a_{s\sigma (s)} \cdots a_{n\sigma (n)} \] donde permutamos el $t$-ésimo factor con el $s$-ésimo también está en la suma, y por qué ambos son de signos contrarios.
Demuestra que el producto de una matriz triangular superior con otra matriz triangular superior también es una matriz triangular superior. Enuncia y demuestra lo análogo para matrices triangulares inferiores, y para matrices diagonales.
Argumenta con más detalle por qué el determinante de una matriz triangular superior es el produto de las entradas en su diagonal. Específicamente, detalla el argumento de las notas que dice que «en otro caso, este producto siempre tendrá algún factor cero».
En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.
Encontrar inversas de matrices
El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz $A$ en $M_n(F)$ tiene polinomio característico $$\chi_A(x)=x^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0.$$ Como $a_0=\det(A)$, si $a_0=0$ entonces la matriz no es invertible. Supongamos entonces que $a_0\neq 0$. Por el teorema de Cayley-Hamilton tenemos que $$A^n+a_{n-1}A^{n-1}+\ldots+a_1A+a_0I_n=O_n.$$ De aquí podemos despejar la matriz identidad como sigue:
\begin{align*} I_n&=-\frac{1}{a_0}\left( A^n+a_{n-1}A^{n-1}+\ldots+a_1A \right)\\ &=-\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right) A. \end{align*}
Estos cálculos muestran que la inversa de $A$ es la matriz $$ -\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right).$$
Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz $$A=\begin{pmatrix} 2 & 2 & 0 \\ 0 & -1 & 0 \\ 1 & 1 & 1 \end{pmatrix}.$$ Su polinomio característico es $\lambda^3-2\lambda^2 – \lambda +2$. Usando la fórmula de arriba, tenemos que
Puedes verificar que en efecto esta es la inversa de $A$ realizando la multiplicación correspondiente.
$\triangle$
El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.
Corolario. Si $A$ es una matriz con entradas en los enteros y determinante $1$ ó $-1$, entonces $A^{-1}$ tiene entradas enteras.
Encontrar el polinomio mínimo de una matriz
Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.
Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.
Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:
Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
Además, para cada eigenvalor $\lambda$ ya vimos que $\lambda$ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor $x-\lambda$ en el polinomio mínimo para cada eigenvalor $\lambda$.
Ejemplo 1. Encontramos el polinomio mínimo de la siguiente matriz:
Una cuenta estándar muestra que el polinomio característico es $(x-2)^2(x+1)$. El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor $(x-2)$ y un factor $(x+1)$. Sólo hay dos polinomios con esas condiciones: $(x-2)(x+1)$ y $(x-2)^2(x+1)$. Si $(x-2)(x+1)$ anula a $B$, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:
Así, $(x-2)(x+1)$ no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico $(x-2)^2(x+1)$.
$\triangle$
Ejemplo 2. Consideremos la matriz $C=\begin{pmatrix} 3 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix}$. Su polinomio característico es $(x-3)^3$. Así, su polinomio mínimo es $x-3$, $(x-3)^2$ ó $(x-3)^3$. Nos damos cuenta rápidamente que $x-3$ sí anula a la matriz pues $A-3I_3=O_3$. De este modo, el polinomio mínimo es $x-3$.
$\triangle$
Clasificación de matrices con alguna condición algebraica
Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.
Por ejemplo, ¿quienes son todas las matrices en $M_n(\mathbb{R})$ que son su propia inversa? La condición algebraica es $A^2=I_2$. Si el polinomio característico de $A$ es $x^2+bx+c$, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que $O_2=A^2+bA+cI_2=bA+(c+1)I_2$. De aquí tenemos un par de casos:
Si $b\neq 0$, podemos despejar a $A$ como $A=-\frac{c+1}{b}I_2$, es decir $A$ debe ser un múltiplo de la identidad. Simplificando la notación, $A=xI_2$. Así, la condición $A^2=I_2$ se convierte en $x^2I_2=I_2$, de donde $x^2=1$ y por lo tanto $x=\pm 1$. Esto nos da las soluciones $A=I_2$ y $A=-I_2$.
Si $b=0$, entonces $O_2=(c+1)I_2$, de donde $c=-1$. De este modo, el polinomio característico es $x^2-1=(x+1)(x-1)$. Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$, y sólo esas.
Más adelante…
El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.
Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.
Tarea moral
Encuentra el polinomio mínimo de la matriz $\begin{pmatrix}-3 & 1 & 0 & 0 \\ 0 & -3 & 0 & 0 \\ 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 2\end{pmatrix}$.
Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & -1 & 2\\ 2 & 2 & 1 \end{pmatrix}.$$
Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es $1$ ó $-1$.
¿Cómo son todas las matrices en $M_2(\mathbb{R})$ tales que $A^2=A$?
¿Cómo son todas las matrices en $M_3(\mathbb{R})$ de determinante $0$ tales que $A^3=O_3$?
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»