Archivo de la etiqueta: transformaciones

Geometría Analítica I: Repaso de conceptos geométricos elementales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada empezamos a hacer un repaso de algunos conceptos geométricos elementales que probablemente has encontrado a lo largo de tu formación. Por un lado, esto puede ayudarte a recordar objetos geométricos específicos y resultados con los que ya te has encontrado. Además, es importante revisar nuevamente estos conceptos pues a partir de ahora necesitamos ser muy precisos con el lenguaje. Por ejemplo, será necesario que distingamos apropiadamente los segmentos, rectas y rayos entre ellos. Finalmente, esta entrada te ayudará a acostumbrarte a la notación que usamos en geometría, es decir, qué tipos de etiquetas le ponemos a cada tipo de objeto geométrico.

Antes de comenzar, hay una aclaración importante por hacer. El repaso que haremos de geometría es un repaso intuitivo. Más adelante, cuando asignemos coordenadas al plano y comencemos a hablar de vectores, entonces ahora sí ya estaremos definiendo nuestros conceptos geométricos de manera formal y tendremos que ser más cuidadosos con la argumentación lógica.

Objetos geométricos básicos

Puedes pensar a un punto como lo que obtienes al colocar la punta del lapiz sobre el papel. Es una figura que tiene una única posición. A los puntos usualmente los denotaremos con letras mayúsculas: $A$, $B$, $C$, $P$, $Q$, $R$, etc.

Un segmento es lo que se obtiene al unir dos puntos directamente el uno al otro. Otra manera de pensarlo es que se tiene que ir de un punto al otro de la manera «más rápida» o «más derecha» posible. A los dos puntos les llamamos los extremos del segmento. Si los nombres de los extremos de un segmento son $A$ y $B$, entonces al segmento lo nombramos $\overline{AB}$. En caso de tener que referirnos al segmento sin usar sus extremos, le podemos dar nombre con letra minúscula, por ejemplo $r, s, t$, etc.

Cuando extendemos un segmento indefinidamente más allá de los dos puntos que lo definen, obtenemos una recta. Una recta queda definida por cualesquiera dos puntos distintos en ella. Si una recta tiene a los puntos distintos $A$ y $B$, entonces llamamos $AB$ a la recta. Aunque sea imposible de apreciarlo en el papel, en pizarrón o en la pantalla de una computadora, las rectas se extienden indefinidamente. Cuando no queremos usar puntos para referirnos a las rectas, las podemos llamar con letras minúsculas como $a,b,c,\ell$, etc.

Si sólo extendemos el segmento más allá de sólo uno de los puntos que lo definen, entonces a la figura que obtenemos le llamamos un rayo. Observa que si tenemos dos puntos $A$ y $B$, entonces es distinto el rayo que extiende al segmento más allá de $B$, que el que extiende al segmento más allá de $A$. Al primero le llamamos el rayo desde $A$ por $B$ (como el que se muestra en la figura). Al segundo le llamamos el rayo desde $B$ por $A$. A los rayos, como a los segmentos, los podemos llamar con letras minúsculas como $r,s,t$,etc.

Cuando dos rectas, segmentos o rayos pasan por un mismo punto, decimos que se intersectan en dicho punto. En la siguiente figura, las rectas $\ell$ y $m$ se intersectan en el punto $P$.

Si $P$ es un punto de intersección de dos rectas distintas $\ell$ y $m$, entonces alrededor de $P$ se forman cuatro regiones. A cada una de las $4$ aperturas entre ambas rectas les llamamos un ángulo entre ellas. De manera similar podemos definir ángulos entre segmentos o rayos que se intersecten, o cualquier mezcla de estos objetos. Los ángulos usualmente los denotamos con letras griegas, como $\alpha, \beta, \gamma, \theta$, etc. (alpha, beta, gamma, theta, etc.).

También podemos referirnos a ellos mediante un punto $A$ en $\ell$, el punto $B$ de intersección y un punto $C$ en $m$, en cuyo caso nos referiremos al ángulo como $\angle ABC$.

Triángulos

Es sumamente inusual que al colocar tres puntos $A$, $B$ y $C$ suceda que haya una misma recta que pase por los tres. Cuando esto pasa, decimos que los puntos están alineados o que son colineales.

Si tomamos tres puntos no alineados $A$, $B$ y $C$, entonces podemos dibujar tres segmentos $BC$, $CA$ y $AB$. A la figura conformada por los tres puntos y los tres segmentos le llamamos un triángulo y usualmente lo denotamos por $\triangle ABC$. A $A$, $B$ y $C$ les llamamos los vértices del triángulo. A los segmentos $BC$, $CA$ y $AB$ les llamamos los lados del triángulo. Usualmente nombramos a estos lados $a,b,c$ para que cada lado use la misma letra que el vértice opuesto (pero en minúscula). A los ángulos dentro del triángulo en $A$, $B$ y $C$ les llamamos usualmente $\alpha, \beta, \gamma$.

Si quisiéramos insistir en llamar triángulo al caso en el que $A$, $B$ y $C$ están una misma recta, insistiremos en llamarlo un triángulo degenerado. En este caso, el triángulo está «apachurrado» y los segmentos que definen los puntos se enciman entre sí.

Mediciones

Parte de la raiz etimológica de la palabra geometría está relacionada con medir. En geometría, nos interesan ciertas magnitudes geométricas asociadas a objetos geométricos. Por el momento, apelaremos a la intuición que has desarrollado con anterioridad para definir estos conceptos pero, como mencionamos arriba, más adelante los formalizaremos.

La distancia entre dos puntos $A$ y $B$ es una magnitud que mide qué tan alejados están los puntos entre sí. Mientras más alejados, mayor distancia entre ellos. Un punto $A$ está a distancia $0$ de sí mismo. Es lo que solías medir con una regla: si colocas un punto en el $0$ de la regla y el otro cae en el número $d$ de la regla, entonces la distancia entre ambos puntos será $d$. Podemos referirnos a la distancia con la letra $d$ y haciendo referencia a los puntos así: $d(A,B)$.

Una magnitud estrechamente relacionada con la distancia es la longitud de un segmento, y se puede pensar exactamente como la distancia entre sus extremos. Mientras más largo sea un segmento (intuitivamente, mientras más tengamos que dibujar para hacerlo), mayor será su longitud. Nos referiremos a la longitud de un segmento $AB$ con la expresión $|AB|$.

Otra medida importante es la de ángulo, que nos indica qué tan abierta la región del msimo nombre definida por dos rectas (o segmentos, o rayos), como la definimos arriba. A mayor apertura en el vértice del ángulo, mayor será la magnitud que le asociamos. Así, típicamente no hacemos distinción entre la región y su apertura, ni en nombre, ni en notación.

Finalmente, también nos interesa una medida de qué tan grande es la región contenida en una figura geométrica en el plano. A esta medida le llamamos el área de la región.

Transformaciones geométricas

Otra noción muy importante en la geometría analítica es la de «transformación». Esto se refiere a alterar nuestros objetos geométricos de alguna manera. Típicamente, esta manera es «amigable» en algún sentido, por ejemplo, respeta distancias o proporciones. Las siguientes son las transformaciones geométricas con las que debes estar más familiarizado de manera intuitiva.

Las traslaciones consisten en mover un objeto de lugar, pero simplemente desplazándolo, sin girarlo.

Las rotaciones consisten en girar un objeto geométrico alrededor de un punto que llamamos el centro de rotación. Para saber cuánto rotamos, usamos un ángulo de rotación. En la siguiente figura puedes ver una rotación con centro $O$ y ángulo $\alpha$.

Las reflexiones consisten en tomar una recta $\ell$ y usarla como espejo, para reflejar en él el objeto que nos interesa.

También consideraremos los reescalamientos, que pueden ser expansiones o contracciones. Tras aplicarlas, obtenemos un objeto geométrico más grande o más pequeño, pero que preserva las proporciones. Para definirlas, usualmente necesitamos un centro de reescalamiento $O$ y un factor de reescalamiento $r$. A continuación se muestran algunos ejemplos con con reescalamientos $2$, $1/2$ y $-1$, con la figura de sombreado claro como el objeto original. ¡El reescalamiento de $-1$ voltea la figura alrededor de $O$!

Hay más transformaciones geométricas, como las proyecciones o cizallamientos. Sin embargo, por ahora no hablaremos de ellas.

Aunque ahora hemos platicado lo que le hace una transformación a un objeto geométrico particular, usualmente nos interesará lo que le hace a todo el plano.

Más adelante…

En esta entrada repasamos varias nociones básicas de la geometría de una manera intuitiva. Es importante que tengas esta entrada como referencia, pues los nombres que usamos ahora para objetos geométricos, propiedades geométricas y transformaciones, serán los que usaremos más adelante. En las siguientes entradas continuaremos con un repaso de los resultados geométricos principales. Este repaso seguirá siendo intuitivo. Más adelante introduciremos formalidad en nuestro estudio de la geometría analítica.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Repasa la diferencia entre rectas, segmentos y rayos.
  2. Explora la interfaz de GeoGebra para asegurarte de que sepas trazar todo lo que hemos platicado. En caso de que no encuentres la funcionalidad, averigua cómo hacerlo mediante una búsqueda en línea o mediante algún video explicativo.
  3. Copia la siguiente figura en una hoja de papel. Luego, realiza manualmente una rotación de 90 grados alrededor del punto $O$.
  1. Copia la siguiente figura en una hoja de papel. Luego, realiza manualmente una reflexión de la figura con respecto a la recta $\ell$.
  1. Ahora vamos a trasladar al gato y a la casa. Pero tienes que hacerlo repetidamente. Haz la figura en tu cuaderno de modo que quede dentro de un cuadrado de 4cm de lado. Luego, repetidamente traslada ese cuadrado 5cm a la derecha para poner todas las copias que puedas de la figura hasta que se te acabe la hoja. Entonces, las transformaciones geométricas las podemos aplicar una y otra vez.

Entradas relacionadas

2.2. NÚCLEO, NULIDAD, IMAGEN Y RANGO: definiciones, ejemplos y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Analizaremos cuatro nuevos conceptos. Dos de ellos son conjuntos y los otros dos son las dimensiones de esos conjuntos.

Representación gráfica del núcleo y la imagen de una transformación lineal $T$.

NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL

Definición: Sean $V$ y $W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$.
El núcleo de $T$ es $Núc\,T=\{v\in V|T(v)=\theta_W\}$.
La imagen de $T$ es $Im\, T=\{T(v)|v\in V\}$.

  • Sean $K$ un campo y $T:K^\infty\longrightarrow K^\infty$ lineal donde $\forall (x_1,x_2,x_3,…)\in K^\infty (T(x_1,x_2,x_3,…)=(x_2,x_3,x_4,…))$.
    $Núc\,T=\{(x_1,0_K,0_K,…)\in K^\infty | x_1\in K\}$ ; $Im\,T=K^\infty$

Justificación. Para el núcleo de $T$:

\begin{align*} T(x_1,x_2,x_3,…)=(0_K,0_K,0_K,…) \\
\Leftrightarrow (x_2,x_3,x_4,…)=(0_K,0_K,0_K,…) \\
\Leftrightarrow x_i=0_K \text{ para toda }i\in\{2,3,4,…\}. \end{align*}

Para la imagen de $T$:

Sea $(y_1,y_2,y_3,…)\in K^\infty$.
Tenemos que $T(0_K,y_1,y_2,…)=(y_1,y_2,y_3,…)$, por lo cual $T$ es suprayectiva y su imagen es todo el codominio.

  • Sea $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ donde $\forall (x,y)\in\mathbb{R}^2(T(x,y)=(x,0))$
    $Núc\,T=\{(0,y)\in\mathbb{R}^2|y\in\mathbb{R}\}$ ; $Im\,T=\{(x,0)\mathbb{R}^2|x\in\mathbb{R}\}$

Justificación. Para el núcleo de $T$:

$$T(x,y)=(0,0) \Leftrightarrow (x,0)=(0,0)\Leftrightarrow x=0.$$

Para la imagen de $T$:

Sea $(a,0)\in \{ (x,0)\in\mathbb{R}^2|x\in\mathbb{R}^2\}$. Dado que $T(a,0)=(a,0)$ se tiene que $(a,0)\in Im\,T$.

A la inversa, si $(a,b)\in Im\, T$ se tiene que $T(x,y)=(a,b)$ para alguna $(x,y)\in \mathbb{R}^2$, por lo que $(x,0)=(a,b)$ y así $b=0$.

  • Sean $K$ un campo, $A\in\mathcal{M}_{m\times n}(K)$ y $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$
    $Núc\,T$ es el conjunto de las soluciones del sistema homogéneo con matriz de coeficientes $A$ ; $Im\,T$ es el espacio generado por las columnas de $A$

Justificación. Para el núcleo de $T$:

$T(X)=\theta_{m\times 1}\Leftrightarrow AX=\theta_{m\times 1}$
$\Leftrightarrow X$ es solución del sistema homogéneo con matriz de coeficientes $A$.

Para la imagen de $T$:

\begin{align*}Im\,T&=\{AX:X\in K^n\}\\&=\left\{ \begin{pmatrix} a_{11} & … & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & … & a_{mn} \end{pmatrix} \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ \begin{pmatrix} a_{11}x_1 + … + a_{1n}x_n \\ … \\ a_{m1}x_1 + … + a_{mn}x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ x_1\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} + … + x_n\begin{pmatrix} a_{1n}\\ \vdots \\ a_{mn} \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\langle \begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix},…,\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} \right\rangle\end{align*}

Proposición (2.2.1.): Sean $V,W$ $K$ – espacios vectoriales, $T\in\mathcal{L}(V,W)$. Se cumple que:

a) $Núc\,T\leqslant V$.
b) $Im\,T\leqslant W$.

Demostración: Para cada inciso es necesario demostrar dos propiedades:

a) P.D. $\theta_V\in Núc\,T$ y $\forall\lambda\in K$ $\forall u,v\in Núc\,T (\lambda u + v\in Núc\,T)$

Como $T$ es una transformación lineal tenemos que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_V\in Núc\,T.$

Sean $\lambda\in K$ y $u,v\in Núc\,T$. Entonces $T(u)=\theta_W=T(v).$ Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal. Así, $$T(\lambda u+v)=\lambda\theta_W +\theta_W=\theta_W$$
de donde $\lambda u + v\in Núc\,T.$

b) P.D. $\theta_W\in Im\,T$ y $\forall\lambda\in K$ $\forall w,z\in Im\,T (\lambda u + v\in Im\,T)$

Como $T$ es una transformación lineal tenemos que $\theta_V\in V$ cumple que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_W\in Im\,T$.

Sean $\lambda\in K$ y $w,z\in Im\,T$. Entonces $\exists u,v\in V (T(u)=w\wedge T(v)=z)$. Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal.
Así, $$T(\lambda u+v)=\lambda w+z$$
de donde $\lambda w+ z\in Im\,T.$

NULIDAD Y RANGO DE UNA TRANSFORMACIÓN LINEAL

Definición: Sea $T$ una transformación lineal con $Núc \,T$ de dimensión finita. Decimos que la dimensión de $Núc\,T$ es la nulidad de $T$.

Definición: Sea $T$ una transformación lineal con $Im \,T$ de dimensión finita. Decimos que la dimensión de $Im\,T$ es el rango de $T$.

Ejemplo

  • Sea $K=\mathbb{R}$ y sean $V=\mathcal{P}_3$ y $W=\mathcal{P}_2$ $K$ – espacios vectoriales.
    Sea $T:V\longrightarrow W$ donde $\forall p(x)\in T(p(x))=p'(x)$.
    La nulidad de $T$ es $1$ y su rango es $3$

Justificación. Los polinomios con derivada cero son únicamente las constantes. Así, $Núc(T)=\{a|a\in\mathbb{R}\}$ que tiene dimensión $1$.

Por otro lado todo polinomio de grado $2$ se puede obtener derivando un polinomio de grado $3$. Basta con integrar el polinomio de grado $2$ para encontrar cómo son los polinomios de grado $3$ que cumplen lo deseado. De modo que $W\subseteq Im(T)$ y como $Im(T)\subseteq W$ por definición, entonces $Im(T)=W$ que tiene dimensión $3$.

Por lo tanto, el núcleo y la imagen son de dimensión finita y la nulidad de $T$ es $1$ y su rango es $3.$

Tarea Moral

  1. Sean $K$ un campo, $V$ y $W$ $K$-espacios vectoriales y $T:V\longrightarrow W$ lineal. Sea $\{ w_1, w_2, …, w_k\}$ un subconjunto l.i. de $Im\,T$.
    Si $S=\{ v_1,v_2,…,v_k \}$ se selecciona de tal forma que $\forall i\in \{ 1,2,…,k\}(T(v_i)=w_i)$, demuestra que $S$ es l.i.
  2. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ encuentra bases para $Núc(T)$ e $Im(T)$.
  3. Sean $K$ un campo y $P: \mathcal{M}_{m\times m}(K) \longrightarrow \mathcal{M}_{m\times m}(K)$ definida por $\forall A\in \mathcal{M}_{m\times m}(K) \left( P(A)=\frac{A + A^{t}}{2} \right)$. Verifica que $T$ es lineal y encuentra su núcleo e imagen.

Más adelante…

En la siguiente entrada veremos el vínculo que existe entre la dimensión del núcleo, de la imagen y del espacio vectorial que aparece como dominio de una transformación lineal. Esta relación numérica nos permite calcular cualquiera de estas dimensiones si tenemos conocimiento de las otras dos.

Entradas relacionadas

Álgebra Superior I: Producto de matrices con matrices

Por Eduardo García Caballero

Introducción

Hasta ahora hemos conocido varias operaciones que involucran escalares, vectores y matrices. En esta entrada aprenderemos sobre una de las operaciones más importantes en el álgebra lineal: el producto de matrices con matrices.

Definición de producto de matrices

Para poder efectuar el producto de dos matrices, hay que asegurarnos de que el número de columnas de la primera matriz sea igual al número de filas de la segunda matriz.

El resultado de una matriz $A$ de tamaño $m \times n$ por una matriz $B$ de tamaño $n \times \ell$ será la matriz $C = AB$ de tamaño $m \times \ell$, donde la entrada $c_{ij}$ de $C$ está dada por la fórmula
\[
c_{ij} = a_{i1}b_{1j} + a_{i2}b_{2j} + \cdots + a_{in}b_{nj}.
\]

A primera vista esta fórmula puede parecer complicada, sin embargo, practicando con algunos ejemplos verás que es muy fácil de implementar.

  • Producto de matrices de tamaño $2 \times 2$:

Sean
\[
A
=
\begin{pmatrix}
1 & 3 \\
5 & 7
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
2 & 4 \\
6 & 8
\end{pmatrix}.
\]

Como estamos multiplicando una matriz de tamaño $2 \times 2$ por una matriz de tamaño $2 \times 2$, sabemos que el resultado será otra matriz de tamaño $2 \times 2$. Ahora, iremos calculando una por una sus entradas.

Sea $C = AB$. Para calcular la entrada $c_{11}$ observamos la primera fila de $A$ y la primera columna de $B$, las cuales son
\[
A
=
\begin{pmatrix}
1 & 3\\
\phantom{5} & \phantom{7}
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
2 & \phantom{4} \\
6 & \phantom{8}
\end{pmatrix},
\]
de modo que $c_{11} = (1)(2)+(3)(6) = 20$:
\[
AB
=
\begin{pmatrix}
20 & \phantom{28} \\
\phantom{52} & \phantom{76}
\end{pmatrix}.
\]

Para la entrada $c_{12}$, nos fijamos en la primera columna de $A$ y en la segunda columna de $B$, que son
\[
A
=
\begin{pmatrix}
1 & 3\\
\phantom{5} & \phantom{7}
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
\phantom{2} & 4 \\
\phantom{6} & 8
\end{pmatrix},
\]
obteniendo $c_{12} = (1)(4) + (3)(8) = 28$:
\[
AB
=
\begin{pmatrix}
20 & 28 \\
\phantom{52} & \phantom{76}
\end{pmatrix}.
\]

De manera similar, observemos la segunda fila de $A$ y la primera columna de $B$,
\[
A
=
\begin{pmatrix}
\phantom{1} & \phantom{3} \\
5 &7
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
2 & \phantom{4} \\
6 & \phantom{8}
\end{pmatrix},
\]
obteniendo $c_{21} = (5)(2) + (7)(6) = 52$, mientras que la segunda fila de $A$ y la segunda columna de $B$ son
\[
A
=
\begin{pmatrix}
\phantom{1} & \phantom{3} \\
5 &7
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
\phantom{2} & 4 \\
\phantom{6} & 8
\end{pmatrix},
\]
obteniendo $c_{22} = (5)(4) + (7)(8) = 76$.

Por lo tanto,
\[
AB
=
\begin{pmatrix}
20 & 28 \\
52 & 76
\end{pmatrix}.
\]

En general, el resultado del producto de las matrices
\[
A
=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\]
es
\[
AB
=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
\end{pmatrix}.
\]

  • Producto de matriz de $3 \times 2$ por matriz de $2 \times 2$:

Supongamos que
\[
A
=
\begin{pmatrix}
3 & 5 \\
1 & 0 \\
4 & 3
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
7 & 8 \\
5 & 2
\end{pmatrix}.
\]

En este caso, como estamos multiplicando una matriz de tamaño $3 \times 2$ por una matriz de tamaño $2 \times 2$, la matriz resultante tendrá tamaño $3 \times 2$.

Podemos obtener sus entradas de manera similar al caso anterior. Si $C = AB$, entonces la entrada $c_{12}$ la podemos encontrar revisando la primera fila de $A$ y la segunda columna de $B$,
\[
A
=
\begin{pmatrix}
3 & 5 \\
\phantom{1} & \phantom{0} \\
\phantom{4} & \phantom{3}
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
\phantom{7} & 8 \\
\phantom{5} & 2
\end{pmatrix}.
\]
de modo que $c_{12} = (3)(8) + (5)(2) = 34$. Por su parte, para obtener la entrada $c_{31}$ nos fijamos en la tercera fila de $A$ y la primera columna de $B$,
\[
A
=
\begin{pmatrix}
\phantom{3} & \phantom{5} \\
\phantom{1} & \phantom{0} \\
4 & 3
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
7 & \phantom{8} \\
5 & \phantom{2}
\end{pmatrix}.
\]
obteniendo $c_{31} = (4)(7) + (3)(5) = 43$.

¿Podrías comprobar que
\[
AB
=
\begin{pmatrix}
46 & 34 \\
7 & 8 \\
43 & 38
\end{pmatrix}?
\]

Así, para el caso general de matrices de $3 \times 2$ por $2 \times 2$, obtendremos
\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\]

  • Producto de matriz de $4 \times 2$ por matriz de $2 \times 3$:

¿Podrías verificar que la siguiente fórmula es correcta?
\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32} \\
a_{41} & a_{42}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} & b_{13} \\
b_{21} & b_{22} & b_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} & a_{11}b_{13} + a_{12}b_{23} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} & a_{21}b_{13} + a_{22}b_{23} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22} & a_{31}b_{13} + a_{32}b_{23} \\
a_{41}b_{11} + a_{42}b_{21} & a_{41}b_{12} + a_{42}b_{22} & a_{41}b_{13} + a_{42}b_{23}
\end{pmatrix}.
\]

Propiedades del producto de matrices

A continuación revisaremos algunas de las propiedades que cumple la multiplicación de matrices. Para demostrar las siguientes propiedades, consideraremos la matriz $A$ de tamaño $3 \times 2$ y las matrices $B$ y $C$ de tamaño $2 \times 2$, aunque se pueden probar para matrices de cualesquier otro tamaño entre las cuales se puedan efectuar las operaciones.

Veamos que si efectuamos la multiplicación de una matriz de tamaño $m \times n$ por una matriz de tamaño $n \times 1$ siguiendo el algoritmo descrito anteriormente, el resultado coincide con el de multiplicar la matriz de tamaño $m \times n$ por un vector de tamaño $n$. Por ejemplo, si multiplicamos $A$ por una matriz $U$ de tamaño $2 \times 1$, obtendremos
\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
u_{11} \\
u_{12}
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_{11} + a_{12}u_{21} \\
a_{21}u_{11} + a_{22}u_{21} \\
a_{31}u_{11} + a_{32}u_{21}
\end{pmatrix}.
\]

Esta es una observación importante pues todo lo que demostremos para el producto de matrices también lo tendremos para el producto de matriz por vector.

Veamos que la multiplicación de matrices es asociativa:

\begin{align*}
(AB)C
&=
\left(
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\right)
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22} \\
\end{pmatrix}
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
(a_{11}b_{11} + a_{12}b_{21})c_{11} + (a_{11}b_{12} + a_{12}b_{22})c_{21}
& (a_{11}b_{11} + a_{12}b_{21})c_{12} + (a_{11}b_{12} + a_{12}b_{22})c_{22} \\
(a_{21}b_{11} + a_{22}b_{21})c_{11} + (a_{21}b_{12} + a_{22}b_{22})c_{21}
& (a_{21}b_{11} + a_{22}b_{21})c_{12} + (a_{21}b_{12} + a_{22}b_{22})c_{22} \\
(a_{31}b_{11} + a_{32}b_{21})c_{11} + (a_{31}b_{12} + a_{32}b_{22})c_{21}
& (a_{31}b_{11} + a_{32}b_{21})c_{12} + (a_{31}b_{12} + a_{32}b_{22})c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}(b_{11}c_{11} + b_{12}c_{21}) + a_{12}(b_{21}c_{11} + b_{22}c_{21})
& a_{11}(b_{11}c_{12} + b_{12}c_{22}) + a_{12}(b_{21}c_{12} + b_{22}c_{22}) \\
a_{21}(b_{11}c_{11} + b_{12}c_{21}) + a_{22}(b_{21}c_{11} + b_{22}c_{21})
& a_{21}(b_{11}c_{12} + b_{12}c_{22}) + a_{22}(b_{21}c_{12} + b_{22}c_{22}) \\
a_{31}(b_{11}c_{11} + b_{12}c_{21}) + a_{32}(b_{21}c_{11} + b_{22}c_{21})
& a_{31}(b_{11}c_{12} + b_{12}c_{22}) + a_{32}(b_{21}c_{12} + b_{22}c_{22})
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11}c_{11} + b_{12}c_{21} & b_{11}c_{12} + b_{12}c_{22} \\
b_{21}c_{11} + b_{22}c_{21} & b_{21}c_{12} + b_{22}c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\left(
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
A(BC).
\end{align*}

De manera muy similar, si $u$ es un vector de tamaño 2, podemos ver que se cumple que $A(Bu) = (AB)u$. ¿Puedes demostrarlo? Hazlo por lo menos para matrices $A$ y $B$ ambas de $2\times 2$.

Quizás tengas la impresión de que hay que hacer demasiadas cuentas y que sería sumamente difícil demostrar estas propiedades para matrices más grandes. Sin embargo, en cursos posteriores verás cómo trabajar apropiadamente con la notación para poder hacer estas demostraciones más fácilmente.

El producto de matrices es asociativo. Sin embargo, no es conmutativo. Por ejemplo, consideremos las matrices
\[
E=
\begin{pmatrix}
5 & 7 \\
-3 & 0
\end{pmatrix}
\qquad
\text{y}
\qquad
F=
\begin{pmatrix}
1 & 2 \\
9 & -1
\end{pmatrix}.
\]


Veamos que
\[
EF =
\begin{pmatrix}
68 & 3 \\
-3 & -6
\end{pmatrix}
\ne
\begin{pmatrix}
-1 & 7 \\
48 & 63
\end{pmatrix}
=
FE.
\]

En términos de combinar el producto de matrices con otras operaciones, tenemos que el producto de matrices por la izquierda se distribuye sobre la suma de matrices:
\begin{align*}
A(B+C)
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\left(
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
+
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11}+c_{11} & b_{12}+c_{12} \\
b_{21}+c_{21} & b_{22}+c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}(b_{11}+c_{11}) + a_{12}(b_{21}+c_{21})
& a_{11}(b_{12}+c_{21}) + a_{12}(b_{22}+c_{22}) \\
a_{21}(b_{11}+c_{11}) + a_{22}(b_{21}+c_{21})
& a_{21}(b_{12}+c_{21}) + a_{22}(b_{22}+c_{22}) \\
a_{31}(b_{11}+c_{11}) + a_{32}(b_{21}+c_{21})
& a_{31}(b_{12}+c_{21}) + a_{32}(b_{22}+c_{22}) \\
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11}+a_{11}c_{11} + a_{12}b_{21}+a_{12}c_{21}
& a_{11}b_{12}+a_{11}c_{11} + a_{12}b_{22}+a_{12}c_{22} \\
a_{21}b_{11}+a_{21}c_{11}+ a_{22}b_{21}+a_{22}c_{21}
& a_{21}b_{12}+a_{21}c_{12}+ a_{22}b_{22}+a_{22}c_{22} \\
a_{31}b_{11}+a_{31}c_{11} + a_{32}b_{21}+a_{32}c_{21}
& a_{31}b_{12}+a_{31}c_{12} + a_{32}b_{22}+a_{32}c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}
+
\begin{pmatrix}
a_{11}c_{11} + a_{12}c_{21} & a_{11}c_{12} + a_{12}c_{22} \\
a_{21}c_{11} + a_{22}c_{21} & a_{21}c_{12} + a_{22}c_{22} \\
a_{31}c_{11} + a_{32}c_{21} & a_{31}c_{12} + a_{32}c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
+
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\\[5pt]
&=
AB + AC.
\end{align*}

El producto también se distribuye sobre la suma cuando la suma aparece a la izquierda. ¿Podrías probar que si $D$ es una matriz de tamaño $3 \times 2$, entonces se cumple $(A+D)B = AB + DB$?

En entradas anteriores vimos que $\mathcal{I}_n$ tiene la propiedad de ser neutro al multiplicarla por un vector de tamaño $n$. Resulta que $\mathcal{I}_n$ también tiene esta propiedad al multiplicarla por la izquierda por una matriz de tamaño $n\times m$. Por ejemplo, veamos que al multiplicar $\mathcal{I}_3$ por la izquierda por $A$, obtenemos
\begin{align*}
\mathcal{I}_3 A
&=
\begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{pmatrix}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
1a_{11} + 0a_{21} + 0a_{31} & 1a_{12} + 0a_{22} + 0a_{32} \\
0a_{11} + 1a_{21} + 0a_{31} & 0a_{12} + 1a_{22} + 0a_{32} \\
0a_{11} + 0a_{21} + 1a_{31} & 0a_{12} + 0a_{22} + 1a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\\[5pt]
&=
A.
\end{align*}

¿Podrías probar que $A\mathcal{I}_2 = A$ (es decir, que $\mathcal{I}_2$ es neutro por la derecha para $A$)?

Habiendo visto que el producto de matrices es asociativo, conmutativo y tiene neutros, probablemente te estarás preguntando si existen inversos en la multiplicación de matrices. Este cuestionamiento lo dejaremos para la siguiente entrada.

Relación con la composición de transformaciones

Como vimos en la entrada anterior, una forma de visualzar el producto de una matriz $A$ por un vector $u$ es como una transformación que envía el vector $u$ a un único vector $Au$.

Teniendo en mente esto, veamos que la propiedad de que $A(Bu) = (AB)u$ resulta aún más interesante. Para esto, veamos que el siguiente ejemplo: sean
\[
A
=
\begin{pmatrix}
0 & 2 \\
1 & 1
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
1 & 2 \\
3 & 0
\end{pmatrix},
\qquad
\text{y}
\qquad
u
=
\begin{pmatrix}
1 \\
2
\end{pmatrix}.
\]

Si multiplicamos $B$ por $u$, vemos que corresponde a la transformación que envía $u = \begin{pmatrix} 1 \\ 2 \end{pmatrix}$ al vector $Bu = \begin{pmatrix} 5 \\ 3 \end{pmatrix}$.

Ahora, si multiplicamos $A$ por el vector $Bu$, vemos que corresponde a la transformación que envía $Bu$ al vector $A(Bu) = \begin{pmatrix} 6 \\ 8 \end{pmatrix}$ (Acabamos de obtener el resultado de aplicar a $u$ la composición de las transformaciones $B$ y $A$).

Por otra parte, si realizamos la multiplicación
\[
AB
=
\begin{pmatrix}
0 & 2 \\
1 & 1
\end{pmatrix}
\begin{pmatrix}
1 & 2 \\
3 & 0
\end{pmatrix}
=
\begin{pmatrix}
6 & 0 \\
4 & 2
\end{pmatrix},
\]
la transformación asociada a $AB$ envía $u$ al vector $(AB)u = \begin{pmatrix} 6 \\ 8 \end{pmatrix}$.

¡La composición de las transformaciones asociadas a $B$ y $A$ aplicada al vector $u$ coincide con la transformación asociada a la matriz $AB$ aplicada al mismo vector!

Si probamos esto para un vector arbitrario, nos daremos cuenta de que en todos los casos se cumple lo mismo. En realidad, esto no es una coincidencia: como aprenderás en tus cursos de álgebra lineal, la composición de transformaciones lineales está directamente asociada al producto de matrices.

Potencias de matrices

Podemos ver que si una matriz $A$ es cuadrada, al tener el mismo número de filas que de columnas, entonces podemos realizar la multiplicaciones $AA$, $AAA$, $AAAA$, etc., que por asociatividad no importa en qué orden multipliquemos. Esto nos sugiere que podemos cacular potencias de matrices.

Para una matriz cuadrada $A$, definiremos de manera recursiva la potencia $A^n$:

  • Definimos $A^0 = \mathcal{I}$.
  • Dada $A^n$, con $n$ un número natural, definimos $A^{n+1} = A^n A$.

Por ejemplo, si
\[
A
=
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix},
\]
calculemos $A^3$ empleando la definición recursiva. Para esto, iremos calculando una por una las potencias de $A$, hasta llegar a $A^3$:
\begin{align*}
A^0
&=
\mathcal{I}
=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix},
\\[5pt]
A^1
&=
A^0A
=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix}
=
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix},
\\[5pt]
A^2
&=
A^1 A
=
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix}
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix}
=
\begin{pmatrix}
(2)(2) + (1)(3) & (2)(1) + (1)(4) \\
(3)(2) + (4)(3) & (3)(1) + (4)(4)
\end{pmatrix}
=
\begin{pmatrix}
7 & 6 \\
18 & 19
\end{pmatrix},
\\[5pt]
A^3
&=
A^2A
=
\begin{pmatrix}
7 & 6 \\
18 & 19
\end{pmatrix}
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix}
=
\begin{pmatrix}
(7)(2) + (6)(3) & (7)(1) + (6)(4) \\
(18)(2) + (19)(3) & (18)(1) + (19)(4)
\end{pmatrix}
=
\begin{pmatrix}
32 & 31 \\
93 & 94
\end{pmatrix}.
\end{align*}

Prueba calcular algunas potencias de la matriz \(
\begin{pmatrix}
2 & 0 \\
0 & 3
\end{pmatrix}.
\) ¿Notas algún patrón especial?

Más adelante…

En esta entrada aprendimos sobre el producto de matrices con matrices y conocimos algunas de sus propiedades. En la siguiente entrada abordaremos la pregunta sobre si existen los inversos en la multiplicación de matrices.

Tarea moral

  1. Realiza el producto de matrices $$\begin{pmatrix} -1 & -2 & -3 \\ 0 & 1 & 2 \\ 1 & -1 & 3 \end{pmatrix}\begin{pmatrix} 1 & -1 & 1 \\ -1 & 1 & -1 \\ 1 & -1 & 1 \end{pmatrix}.$$
  2. Considera la matriz $A=\begin{pmatrix} 3 & -4 \\ 4 & -5 \end{pmatrix}$. Realiza las siguientes operaciones por separado, sin usar la asociatividad del producto de matrices. ¿Cuál de las dos operaciones te resultó más fácil de hacer?
    • $$A\left(A\left(A\left(A\begin{pmatrix} 2 \\ 3 \end{pmatrix}\right)\right)\right).$$
    • $$(((AA)A)A)\begin{pmatrix} 2 \\ 3 \end{pmatrix}.$$
  3. Completa las pruebas faltantes de las propiedades de la multiplicación de matrices.
  4. Demuestra la siguiente ley de exponentes para matrices: $A^mA^n=A^{m+n}$.
  5. Prueba que si
    \[
    A =
    \begin{pmatrix}
    a_{11} & 0 \\
    0 & a_{22}
    \end{pmatrix},
    \]
    y $k$ es un entero mayor o igual que $0$, entonces
    \[
    A^k
    =
    \begin{pmatrix}
    {a_{11}}^k & 0 \\
    0 & {a_{22}}^k
    \end{pmatrix}
    \]
    (Sugerencia: realizarlo por inducción sobre $k$, utilizando la definición recursiva).
  6. Encuentra matrices $A$ y $B$ de $2\times 2$ para las cuales $A^2-B^2\neq (A+B)(A-B)$.

Entradas relacionadas

Álgebra Superior I: Matrices invertibles

Por Eduardo García Caballero

Introducción

En la entrada anterior definimos el producto de matrices con matrices y exploramos algunas de sus propiedades, siendo varias de estas familiares: el producto de matrices es asociativo, conmutativo y tiene elemento neutro. En esta entrada exploraremos una pregunta que quedó abierta: ¿el producto de matrices cumple con tener inversos?

Definición de matrices invertibles

Diremos que una matriz cuadrada $A$ es invertible si y sólo si tiene inverso multiplicativo; es decir, si existe una matriz $B$ tal que $AB = BA = \mathcal{I}$.

Observemos para que la definción anterior tenga sentido, es indispensable que $A$ sea cuadrada, pues veamos que si $A$ es de tamaño $m \times n$, entonces para que los productos $AB$ y $BA$ estén definidos, $B$ tendrá que ser de tamaño $n \times m$. Así, $AB$ será de tamaño $m\times n$ y $BA$ de tamaño $n\times n$, y como $AB = BA$, entonces $m = n$, y, por tanto, $AB = BA = \mathcal{I}_n$ (y con ello también observamos que $B$ tiene que ser cuadrada de tamaño $n \times n$).

Un ejemplo de una matriz de $2 \times 2$ que es invertible es
\[
A
=
\begin{pmatrix}
1 & -2 \\
-3 & 5
\end{pmatrix}
\]
que tiene como inversa a la matriz
\[
B
=
\begin{pmatrix}
-5 & -2 \\
-3 & -1
\end{pmatrix},
\]
pues
\begin{align*}
AB
&=
\begin{pmatrix}
1 & -2 \\
-3 & 5
\end{pmatrix}
\begin{pmatrix}
-5 & -2 \\
-3 & -1
\end{pmatrix}\\
&=
\begin{pmatrix}
(1)(-5) + (-2)(-3) & (1)(-2) + (-2)(-1) \\
(-3)(-5) + (5)(-3) & (-3)(-2) + (5)(-1)
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}\\
&=
\mathcal{I}_2
\end{align*}
y
\begin{align*}
BA
&=
\begin{pmatrix}
-5 & -2 \\
-3 & -1
\end{pmatrix}
\begin{pmatrix}
1 & -2 \\
-3 & 5
\end{pmatrix}\\
&=
\begin{pmatrix}
(-5)(1) + (-2)(-3) & (-5)(-2) + (-2)(5) \\
(-3)(1) + (-1)(-3) & (-3)(-2) + (-1)(5)
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}\\
&=
\mathcal{I}_2.
\end{align*}
Por lo tanto,
\[
AB = BA = \mathcal{I}_2.
\]

Algo que seguramente te preguntarás es si cualquier matriz cuadrada tiene un inverso multiplicativo. A diferencia de otros tipos de operaciones con inversos, el producto de matrices no siempre cumple con tenerlos: un ejemplo de esto es la matriz
\[
A=
\begin{pmatrix}
2 & 1 \\
0 & 0
\end{pmatrix}
\]
la cual, al multiplicarla por cualquier matriz
\[
B
=
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\]
por la derecha, nos da como resultado
\[
AB
=
\begin{pmatrix}
2 & 1 \\
0 & 0
\end{pmatrix}
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
=
\begin{pmatrix}
2a + c & 2b + ,d \\
0 & 0
\end{pmatrix},
\]
y como en cualquier caso obtenemos que su entrada en la posición $(2,2)$ es $0$, tenemos que $AB$ es distinta a $\mathcal{I}_2$, pues la entrada en la posición $(2,2)$ de esta última es $1$.

Propiedades de matrices invertibles

A continuación exploraremos algunas de las propiedades que cumplen las matrices invertibles.

Primeramente, veamos que si una matriz $A$ de $n \times n$ es invertible, entonces su inversa será única. Para demostrar esto, supongamos que $B$ y $C$ son ambas inversas multiplicativas de $A$; es decir, $AB = BA = \mathcal{I}_n$ y $AC = CA = \mathcal{I}_n$. Entonces,
\begin{align*}
AB &= AC \\[5pt]
B(AB) &= B(AC) \\[5pt]
(BA)B &= (BA)C \\[5pt]
\mathcal{I}_n B &= \mathcal{I}_n C \\[5pt]
B &= C.
\end{align*}

Como la matriz inversa de $A$ es única, usualmente la denotamos como $A^{-1}$.

Por otra parte, veamos que si $A$ y $B$ son matrices invertibles, con inversas $A^{-1}$ y $B^{-1}$, respectivamente, entonces, si podemos multiplicar $A$ y $B$ (es decir, si $A$ y $B$ son del mismo tamaño), entonces $AB$ es invertible, pues se cumple que
\[
(AB)(B^{-1}A^{-1}) = A(BB^{-1})A^{-1} = A\mathcal{I}_nA^{-1} = AA^{-1} = \mathcal{I}_n,
\]
y también que
\[
(B^{-1}A^{-1})(AB) = B^{-1}(A^{-1}A)B = B^{-1}\mathcal{I}_nB = B^{-1}B = \mathcal{I}_n,
\]
es decir, $B^{-1}A^{-1}$ es la matriz inversa de $AB$, lo cual denotamos como $(AB)^{-1} = B^{-1}A^{-1}$.

Finalmente, recordando la interpretación geométrica que dimos a la multiplicación de matrices por vectores, y la propiedad de que $A(Bu) = (AB)u$, entonces notamos que
\[
A^{-1}(Au) = (A^{-1}A)u = \mathcal{I}u = u.
\]

Como la transformación correspondiente a $A$ envía el vector $u$ al vector $Au$, y como el resultado de aplicar $(A^{-1}A)u$ deja al vector $u$ en su lugar, esto nos dice que la transformación correspondiente a $A^{-1}$ es aquella que regresa el vector $Au$ a su posición original.

En la siguiente imagen se visualiza esta propiedad para el caso en el que
\[
A
=
\begin{pmatrix}
3 & 1 \\
4 & 2
\end{pmatrix}
\qquad
\text{y}
\qquad
u
=
\begin{pmatrix}
1 \\
2
\end{pmatrix}.
\]

Formula para inversa de matrices de $2 \times 2$

Más arriba vimos que hay matrices que sí tienen inversa, mientras que otras no tienen. Para el caso de matrices de $2 \times 2$, tendremos que
\[
A
=
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\]
es invertible si y sólo si se cumple que $ad-bc \ne 0$.

En dado caso, la inversa de $A$ será la matriz
\[
A^{-1}
=
\frac{1}{ad-bc}
\begin{pmatrix}
d & -b \\
-c & a
\end{pmatrix}
=
\begin{pmatrix}
\frac{d}{ad-bc} & \frac{-b}{ad-bc} \\
\frac{-c}{ad-bc} & \frac{a}{ad-bc}
\end{pmatrix}.
\]

Por ejemplo, veamos que si
\[
A =
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
=
\begin{pmatrix}
1 & 2 \\
-2 & 3
\end{pmatrix},
\]
entonces $ad – bc = (1)(3) – (2)(-2) = 3 – (-4) = 7 \ne 0$, por lo que podemos garantizar que $A$ tiene matriz inversa, la cual es
\[
A^{-1}
=
\frac{1}{ad-bc}
\begin{pmatrix}
d & -b \\
-c & a
\end{pmatrix}
=
\frac{1}{7}
\begin{pmatrix}
3 & -2 \\
2 & 1
\end{pmatrix}
=
\begin{pmatrix}
3/7 & -2/7 \\
2/7 & 1/7
\end{pmatrix}.
\]

Verificamos que
\begin{align*}
AA^{-1}
&=
\begin{pmatrix}
1 & 2 \\
-2 & 3
\end{pmatrix}
\begin{pmatrix}
3/7 & -2/7 \\
2/7 & 1/7
\end{pmatrix}\\
&=
\begin{pmatrix}
(1)(3/7) + (2)(2/7) & (1)(-2/7) + (2)(1/7) \\
(-2)(3/7) + (3)(2/7) & (-2)(-2/7) + (3)(1/7)
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}\\
&=
\mathcal{I}_2
\end{align*}
y
\begin{align*}
A^{-1}A
&=
\begin{pmatrix}
3/7 & -2/7 \\
2/7 & 1/7
\end{pmatrix}
\begin{pmatrix}
1 & 2 \\
-2 & 3
\end{pmatrix}\\
&=
\begin{pmatrix}
(3/7)(1) + (-2/7)(-2) & (3/7)(2) + (-2/7)(3) \\
(2/7)(1) + (1/7)(-2) & (2/7)(2) + (1/7)(3)
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}\\
&=
\mathcal{I}_2.
\end{align*}

De manera similar, veamos que la matriz
\[
\begin{pmatrix}
3 & 4 \\
1 & 2
\end{pmatrix}
\]
es invertible pues $(3)(2) – (4)(1) = 2 \ne 0$. ¿Puedes calcular su inversa?

Por el contrario, veamos que en la matriz
\[
\begin{pmatrix}
6 & 4 \\
3 & 2
\end{pmatrix}
\]
tenemos que $(6)(2) – (4)(3) = 12 -12 = 0$, y, por tanto, no es invertible.

Para el caso de matrices de mayor tamaño, también existen condiciones y fórmulas para calcular sus inversas, sin embargo, estas no resultan tan sencillas. Será necesario que comprendamos más propiedades de las matrices para poder obtenerlas.

Más adelante…

En esta entrada conocimos una propiedad más que cumplen las matrices respecto a su producto, que es la de tener inverso multiplicativas; también vimos las condiciones bajo las cuales una matriz de $2 \times 2$ puede tener inverso, y revisamos su fórmula.

En la siguiente entrada, conoceremos una nueva operación, la cual se distinguirá de todas las que hemos visto hasta ahora, pues esta operación involucra a una única matriz a la vez.

Tarea moral

  1. ¿Para qué valores de $a$ se cumple que
    \[
    \begin{pmatrix}
    5 & a \\
    2 & 2-a
    \end{pmatrix}
    \]
    es invertible?
  2. Muestra que si $A$, $B$ y $C$ son matrices invertibles del mismo tamaño, entonces
    \[
    (ABC)^{-1} = C^{-1}B^{-1}A^{-1}.
    \]
  3. Muestra que si $A$ es una matriz invertible y $k$ es un entero positivo, entonces $A^k$ también es invertible y $(A^k)^{-1}=(A^{-1})^k$.
  4. ¿Por qué la matriz
    \[
    \begin{pmatrix}
    3 & 4 & 0 \\
    7 & 2 & 0 \\
    0 & 0 & 0
    \end{pmatrix}
    \]
    no es invertible?
  5. Muestra que en efecto el criterio que dimos para que una matriz $A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ tenga inversa es suficiente y necesario. Para la parte de que es suficiente, tendrás que ver que si $ad-bc\neq 0$, la matriz propuesta en la entrada siempre funciona como inversa. Para ver que es necesario, supón que $ad-bc=0$. En este caso, $ad=bc$ y podrás encontrar a partir de $a,b,c,d$ a dos vectores distintos $u$ y $v$ tales que $Au=Av$. Esto mostrará que la transformación asociada a $A$ no es inyectiva y por tanto no podrá tener inversa, así que $A$ tampoco tendrá inversa.

Entradas relacionadas

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$. Si $\lambda \in \mathbb{R}$ es uno de estos eigenvalores, queremos poder encontrar vectores $\bar{v}\neq \bar{0}$ tales que $T(\bar{v})=\lambda \bar{v}$. Esto sucede si y sólo si $\lambda \bar{v}-T(\bar{v})=\bar{0}$, lo cual sucede si y sólo si $(\lambda \text{Id}-T)(\bar{v})=\bar{0}$, en donde $\text{Id}:\mathbb{R}^n\to \mathbb{R}^n$ es la transformación identidad de $\mathbb{R}^n$ en $\mathbb{R}^n$. Tenemos de esta manera que $\bar{v}$ es un eigenvector si y sólo si $\bar{v}\in \ker(\lambda\text{Id}-T)$.

Si existe $\bar{v}\neq \bar{0}$ tal que $\bar{v}\in \ker(\lambda \text{Id}-T)$; entonces $\ker(\lambda \text{Id}-T)\neq \{ \bar{0}\}$ por lo cual la transformación $\lambda \text{Id}-T$ no es invertible, pues no es inyectiva. Así, en ninguna base $\text{Mat}_\beta(\lambda \text{Id}-T)$ es invertible, y por tanto su determinante es $0$. Estos pasos son reversibles. Concluimos entonces que $\lambda\in \mathbb{R}$ es un eigenvalor de $T$ si y sólo si en alguna base $\beta$ se cumple que $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0.$ Esto motiva la siguiente definición.

Definición. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Llamamos a $\det(\text{Mat}_\beta(\lambda \text{Id} – T))$ al polinomio característico de $T$ en la base $\beta$.

Por la discusión anterior, los escalares que cumplen $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0$ son los eigenvalores $T$. Para obtener los correspondientes eigenvectores, basta con resolver $\text{Mat}_\beta(T)X=\lambda X$, lo cual es un sistema de ecuaciones en el vector de variables $X$. Las soluciones $X$ nos darán las representaciones matriciales de vectores propios $\bar{v}\in \mathbb{R}^n$ en la base $\beta$.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos $T:\mathbb{R}^{3}\rightarrow \mathbb{R}^{3}$ dada por $T(x,y,z)=(2x+z,y+x,-z)$. Calculemos su representación matricial con respecto a la base canónica $\beta$. Para ello, realizamos las siguientes evaluaciones:
\begin{align*}
T(1,0,0)&=(2,1,0)\\
T(0,1,0)&=(0,1,0)\\
T(0,0,1)&=(1,0,-1),
\end{align*}

de donde: $$\text{Mat}_\beta=\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix}.$$

Calculando el polinomio característico obtenemos: \[ det\begin{pmatrix} \lambda-2 & 0 & -1 \\ -1 & \lambda-1 & 0 \\ 0 & 0 & \lambda+1 \end{pmatrix}= (\lambda-2)(\lambda-1)(\lambda+1). \]

Las raíces de $(\lambda-2)(\lambda-1)(\lambda+1)$ son $\lambda_{1}=2$, $\lambda_{2}=1$ y $\lambda_{3}=-1$. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor $\lambda=2$. Para que $(x,y,z)$ represente a un eigenvector en la base canónica, debe pasar que:

\[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = 2\begin{pmatrix} x \\ y \\ z \end{pmatrix},\]

lo cual sucede si y sólo si:

\[\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} – 2\begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\left[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} – 2\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\right] \begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\begin{pmatrix} 0 & 0 & 1 \\ 1 & -1& 0 \\ 0 & 0 & -3 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

\[\begin{pmatrix} 1 & -1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

En esta forma es sencillo leer las soluciones. Tenemos que $z$ es variable pivote con $z=0$, que $y$ es variable libre, y que $x$ es variable pivote dada por $x=y$. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor $2$ son de la forma $(y,y,0)$, es decir $E_2=\{(y,y,0): y \in \mathbb{R}\}$.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores $1$ y $-1$.

$\triangle$

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ una transformación lineal y sean $\beta_1=\{ \bar{e}_{1}, \dots , \bar{e}_{n}\}$, $\beta_2=\{ \bar{u}_{1}, \dots , \bar{u}_{n}\}$ dos bases (ordenadas) de $\mathbb{R}^n$. Supongamos que:

\begin{align*}
A&=\text{Mat}_{\beta_1}(T)=[a_{ij}]\\
B&=\text{Mat}_{\beta_2}(T)=[b_{ij}].
\end{align*}

Por cómo se construyen las matrices $A$ y $B$, tenemos que:

\begin{align*}
T(\bar{e}_j)&=\sum_{i=1}^n a_{ij} \bar{e}_i\quad\text{para $j=1,\ldots,n$}\\
T(\bar{u}_k)&=\sum_{j=1}^n b_{jk} \bar{u}_j\quad\text{para $k=1,\ldots,n$}.
\end{align*}

Como $\beta_{1}$ es base, podemos poner a cada un de los $\bar{u}_k$ de $\beta_{2}$ en términos de la base $\beta_{1}$ mediante combinaciones lineales, digamos:

\begin{equation}
\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}
\label{eq:valor-u}
\end{equation}

en donde los $c_{jk}$ son escalares para $j=1,\ldots, n$ y $k=1,\ldots,n$. La matriz $C$ de $n\times n$, con entradas $c_{jk}$ representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que $CB=AC$. Para ello, tomaremos una $k$ en $[n]$ y expresaremos $T(\bar{u}_k)$ de dos formas distintas.

Por un lado, usando \eqref{eq:valor-u} y por como es cada $T(\bar{e}_k)$ en la base $\beta_{1}$ tenemos que:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^n c_{jk} T(\bar{e}_j)\\
&=\sum_{j=1}^n c_{jk} \sum_{i=1}^n a_{ij} \bar{e}_i\\
&=\sum_{j=1}^n \sum_{i=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n a_{ij} c_{jk}\right) \bar{e}_i.
\end{align*}

Por otro lado, usando $\eqref{eq:valor-u}$ y por como es cada $T(\bar{u}_k)$ en la base $\beta_{2}$:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^nb_{jk} \bar{u}_j\\
&=\sum_{j=1}^n b_{jk} \sum_{i=1}^{n}c_{ji}\bar{e}_{j} \\
&=\sum_{j=1}^n \sum_{i=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n c_{ij} b_{jk} \right) \bar{e}_i.
\end{align*}

Comparemos ambas expresiones para $T(\bar{u}_k)$. La primera es una combinación lineal de los $\bar{e}_i$ y la segunda también. Como $T(\bar{u}_k)$ tiene una única expresión como combinación lineal de los $\bar{e}_i$, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada $i$ se cumple:

$$\sum_{j=1}^n a_{ij} c_{jk}=\sum_{j=1}^n c_{ij} b_{jk}.$$

Pero esto precisamente nos dice que la entrada $(i,k)$ de la matriz $AC$ es igual a la entrada $(i,k)$ de la matriz $CB$. Con esto concluimos que $AC=CB$, como queríamos.

En resumen, obtuvimos que para dos matrices $A$ y $B$ que representan a la misma transformación lineal, existe una matriz invertible $C$ tal que: $B=C^{-1}AC$. Además $C$ es la matriz con entradas dadas por \eqref{eq:valor-u}.

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices $A$ y $B$ se llamarán similares (o semejantes), cuando existe otra matriz $C$ invertible tal que $B=C^{-1}AC$.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean $A$ y $B$ matrices similares. Entonces $A$ y $B$ representan a una misma transformación lineal $T$, quizás bajo distintas bases.

Demostración: Supongamos que las matrices $A$ y $B$ son similares con $B=C^{-1}AC$, donde las matrices $A$, $B$, $C$ están dadas por entradas $A=[a_{ij}]$ $B=[b_{ij}]$, $C=[c_{jk}]$. Tomemos una base ordenada $\beta=\{\bar{e}_{1}, \dots ,\bar{e}_{n}\}$ de $\mathbb{R}^n$. Consideremos la transformación lineal $T\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^n)$ dada por $$T(\bar{e}_j)=\sum_{i=1}^n a_{ij} \bar{e}_i.$$

De esta manera $T$ tiene forma matricial $A$ en la base $\beta$.

Construyamos ahora una nueva base ordenada de $\mathbb{R}^n$ dada por vectores $\bar{u}_k$ para $k=1,\ldots,n$ construidos como sigue:

$$\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}.$$

Como $C$ es invertible, en efecto tenemos que $\beta’:=\{\bar{u}_1,\ldots,\bar{u}_n\}$ también es base de $\mathbb{R}^n$. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de $T$ en la base $\beta’$ será $B$.

Así, hemos exhibido una transformación $T$ que en una base tiene representación $A$ y en otra tiene representación $B$.

$\square$

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices $A$ y $B$ en $M_n(\mathbb{R})$ son similares si y sólo si representan a una misma transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal en un espacio sobre $\mathbb{R}$ de dimensión finita. Sean $\beta$ y $\beta’$ bases de $\mathbb{R}^n$. Entonces se obtiene lo mismo calculando el polinomio característico de $T$ en la base $\beta$, que en la base $\beta’$.

Demostración. Tomemos $A=\text{Mat}_{\beta}(T)$ y $B=\text{Mat}_{\beta’}(T)$. Como $A$ y $B$ representan a la misma transformación lineal $T$, entonces son similares y por lo tanto existe $C$ invertible con $B=C^{-1}AC$.

Para encontrar el polinomio característico de $T$ en la base $\beta$, necesitamos $\Mat_{\beta}(\lambda\text{Id}-T)$, que justo es $\lambda I -A$. Así mismo, en la base $\beta’$ tenemos $\lambda I – B$. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

\begin{align*}
\det(\lambda I -B) &= \det (\lambda C^{-1}C – C^{-1} A C)\\
&=\det(C^{-1}(\lambda I – A) C)\\
&=\det(C^{-1})\det(\lambda I – A) \det(C)\\
&=\det(C^{-1})\det(C)\det(\lambda I-A)\\
&=\det(I)\det(\lambda I-A)\\
&=\det(\lambda I-A).
\end{align*}

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con $\det$, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

$\square$

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Supongamos que el polinomio característico de $T$ tiene raíces distintas $\lambda_{1}, \dots ,\lambda_{n}$. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector $\bar{u}_i$ para cada eigenvalor $\lambda_i$, entonces $\bar{u}_{1},\dots ,\bar{u}_{n}$ forman una base $\beta$ para $\mathbb{R}^n$.
  2. Con dicha base $\beta$, se cumple que $\text{Mat}_\beta(T)$ es una matriz diagonal con entradas $\lambda_{1},\dots ,\lambda_{n}$ en su diagonal.
  3. Si $\beta’$ es otra base de $\mathbb{R}^n$ y $A=\text{Mat}_{\beta’}(T)$, entonces $\text{Mat}_\beta(T) = C^{-1}AC$ para una matriz invertible $C$ con entradas dadas por \eqref{eq:valor-u}.

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación $T$: 1) la transformamos en una matriz $A$, 2) encontramos el polinomio característico mediante $\det(\lambda I – A)$, 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones $(\lambda I – A) X=0$ dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de $\mathbb{R}^n$ a sí mismo sea diagonalizable es que tenga $n$ eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de $\mathbb{R}^{n}$ a $\mathbb{R}^{m}$ son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal $T(x,y,z)=(2x+z,y+x,-z)$ de $\mathbb{R}^3$ en $\mathbb{R}^3$. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base $\{(1,1,1),(1,2,3),(0,1,1)\}$ de $\mathbb{R}^3$. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si $A$ y $B$ son dos representaciones matriciales de una misma transformación lineal $T$, entonces $\det(A)=\det(B)$.
  4. Sea $T:\mathbb{R}^{3}\to \mathbb{R}^{3}$ dada por $T(x,y,z)=(x+y+z,x,y)$. Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base $\beta$ en la cual $\text{Mat}_{\beta}(T)$ es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas