Archivo de la etiqueta: transformaciones lineales

Álgebra Lineal II: Adjunciones complejas y transformaciones unitarias

Por Ayax Calderón

Introducción

Lo que hemos trabajado en esta unidad tiene su análogo para espacios hermitianos. En esta entrada haremos una recapitulación de los resultados que demostramos en el caso real, pero ahora los enunciaremos para el caso complejo. Las demostraciones son similares al caso real, pero haremos el énfasis correspondiente cuando haya distinciones para el caso complejo.

Adjunciones en espacios hermitianos

Uno de los ejercicios de la entrada Dualidad y representación de Riesz en espacios euclideanos consiste en enunciar y demostrar el teorema de representación de Riesz para espacios hermitianos. Si recuerdas, eso es justo lo que se necesita para hablar de la adjunción, de modo que en espacios hermitianos también podemos definir la adjunción como sigue.

Definición. Sea $V$ un espacio hermitiano con producto interior hermitiano $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Definimos a la adjunta de $T$, como la única transformación lineal $T^\ast:V\to V$ que cumple la siguiente condición para todos $x,y$ en $V$:

$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle$$

En el caso real la matriz de la transformación adjunta en una base ortonormal era la transpuesta. En el caso complejo debemos tomar la transpuesta conjugada.

Proposición. Sea $V$ un espacio hermitiano con producto interior hermitiano $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Sea $\mathcal{B}$ una base ortonormal de $V$. Se tiene que $$\text{Mat}_{\mathcal{B}}(T^\ast)=\text{Mat}_{\mathcal{B}}(T)^\ast.$$

La demostración queda como ejercicio.

Transformaciones unitarias e isometrías

En espacios hermitianos también podemos hablar de las transformaciones lineales que preservan la distancia: las isometrías. En el caso real, las isometrías de un espacio a sí mismo las llamábamos ortogonales, pero en el caso complejo usaremos otro nombre.

Definición. Sean $V_1, V_2$ espacios hermitianos sobre $\mathbb{C}$ con productos interiores hermitianos $\langle \cdot,\cdot \rangle_1,\langle \cdot,\cdot \rangle_2$. Diremos que una transformación lineal $T:V_1\to V_2$ es una isometría si es un isomorfismo de espacios vectoriales y para cualesquiera $x,y\in V_1$ se cumple que $$\langle T(x), T(y) \rangle_2 = \langle x,y\rangle_1.$$ Si $V_1$ $V_2$ son un mismo espacio hermitiano $V$, diremos que $T$ es una transformación unitaria.

Diremos que una matriz $A\in M_n(\mathbb{C})$ se dice unitaria si $AA^\ast=I_n$. Puede demostrarse que si una matriz $A$ es unitaria, entonces la transformación $X\mapsto AX$ también lo es. Así mismo, se puede ver que si $T$ es una transformación unitaria, entonces cualquier representación matricial en una base ortonormal es unitaria.

Equivalencias de matrices y transformaciones unitarias

Así como en el caso real, hay muchas maneras de pensar a las transformaciones y a las matrices unitarias. Puedes pensar en los siguientes resultados como los análogos a las descripciones alternativas en el caso real.

Teorema. Sea $T:V\to V$ una transformación lineal. Las siguientes afirmaciones son equivalentes:

  1. $T$ es unitaria es decir, $\langle T(x),T(y) \rangle = \langle x,y \rangle$ para cualesquiera $x,y\in V$.
  2. $||T(x)||=||x||$ para cualquier $x\in V$.
  3. $T^*\circ T = Id$.

Teorema. Sea $A\in M_n(\mathbb{C})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es unitaria.
  2. Las filas de $A$ forman una base ortonormal de $\mathbb{C}^n$.
  3. Las columnas de $A$ forman una base ortonormal de $\mathbb{C}^n$.
  4. Para cualquier $x\in \mathbb{C}^n$, se tiene que $$||Ax||=||x||$.

Propiedades de grupo y caracterización de unitarias

Así como en el caso real las transformaciones ortogonales forman un grupo bajo la composición, en el caso complejo las transformaciones unitarias también forman un grupo bajo la composición. Si hablamos de matrices unitarias, entonces forman un grupo bajo el producto de matrices. Es posible clasificar a las matrices unitarias así como se clasificó a las matrices ortogonales, sin embargo los resultados son notablemente más difíciles de expresar.

Más adelante…

En la siguiente entrada hablaremos de quiénes son las transformaciones complejas para las que se puede enunciar el teorema espectral en el caso complejo. Veremos el resultado correspondiente y haremos énfasis en las diferencias que debemos tomar en cuenta.

Tarea moral

  1. Demuestra que si $A$ es una matriz unitaria, entonces $|\det A|=1$.
  2. Prueba que para que una transformación lineal $T$ de un espacio hermitiano sea unitaria, basta que a los vectores de norma $1$ los mande a vectores de norma $1$.
  3. Describe las matrices $A\in M_n(\mathbb{C})$ que son simultaneamente diagonales y unitarias.
  4. Demuestra que el producto de dos matrices unitarias es una matriz unitaria y que la inversa de una matriz unitaria es unitaria.
  5. Revisa nuevamente la entrada y realiza todas las demostraciones faltantes.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Adjunta de una transformación lineal

Por Ayax Calderón

Introducción

En esta tercera unidad estudiaremos algunos aspectos geométricos de transformaciones lineales. Para ello, lo primero que haremos será introducir la noción de la adjunta de una transformación lineal. Esto nos permitirá más adelante poder hablar de varias transformaciones especiales: normales, simétricas, antisimétricas, ortogonales. De entrada, las definiciones para cada uno de estos conceptos parecerán simplemente un juego algebraico. Sin embargo, poco a poco descubriremos que pidiendo a las transformaciones lineales cierta propiedad con respecto a su adjunta, podemos recuperar muchas propiedades geométricas bonitas que satisfacen.

Un ejemplo de esto serán las transformaciones ortogonales. Estas serán las transformaciones que, a grandes rasgos, no cambian la norma. Daremos un teorema de clasificación para este tipo de transformaciones: veremos que sólo son reflexiones o rotaciones en ciertos ejes. Después estudiaremos las transformaciones simétricas y veremos un resultado fantástico: el teorema espectral. Este teorema nos garantizará que toda transformación simétrica en $\mathbb{R}$ puede ser diagonalizada, y de hecho a través de una transformación ortogonal.

El párrafo anterior nos dice que las transformaciones ortogonales y las simétricas serán «fáciles de entender» en algún sentido. Esto parece limitado a unas familias muy particulares de transformaciones. Sin embargo, cerraremos la unidad con un teorema muy importante: el teorema de descomposición polar. Gracias a él lograremos entender lo que hace cualquier transformación lineal. Tenemos un camino muy interesante por recorrer. Comencemos entonces con la idea de la adjunta de una transformación lineal.

La adjunta de una transformación lineal

Sea $V$ un espacio euclidiano y producto interior $\langle \cdot, \cdot \rangle$. Tomemos una transformación lineal $T:V \to V$. Para cada $y\in V$, la transformación $x\mapsto \langle T(x),y\rangle$ es una forma lineal. Del teorema de representación de Riesz se sigue que existe un único vector $T^*(y)\in V$ tal que
$$\langle T(x),y\rangle=\langle T^*(y),x\rangle =\langle x, T^*(y)\rangle \hspace{2mm} \forall x\in V.$$

Esta asignación de este vector $T^\ast$ es lineal, ya que al vector $ry_1+y_2$ para $r$ escalar y $y_1,y_2$ en $V$ se le asigna la forma lineal $x\mapsto \langle T(x),ry_1+y_2\rangle=r\langle(T(x),y_1\rangle + \langle (T(x),y_2)$, que se puede verificar que le corresponde en la representación de Riesz el vector $rT^\ast(y_1)+T^\ast(y_2)$.

De esta manera, podemos correctamente enunciar la siguiente definición.

Definición. Sea $V$ un espacio euclidiano y producto interior $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Definimos a la adjunta de $T$, como la única transformación lineal $T^\ast:V\to V$ que cumple la siguiente condición para todos $x,y$ en $V$:

$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle$$

Notemos que para cualesquiera $x,y\in V$ tenemos que
$$\langle y,T(x)\rangle=\langle T(x),y\rangle=\langle x,T^* (y)\rangle=\langle T^*(y),x\rangle =\langle y, (T^*)^*(x)\rangle.$$

Restando el último término del primero, se sigue que $T(x)-(T^*)^*(x)=0$, de manera que $$(T^*)^*=T,$$ por lo cual simplemente escribiremos $$T^{**}=T.$$

Por lo tanto, la asignación $T\mapsto T^*$ es una transformación auto-inversa sobre $V$.

La matriz de la transformación adjunta

Tenemos que $T^{**}=T$. Esto debería recordarnos a la transposición de matrices. En efecto, en cierto sentido podemos pensar a la transformación $T^\ast$ algo así como la transpuesta de la transformación (por lo menos en el caso real, para espacios sobre $\mathbb{C}$ será algo ligeramente distinto).

La siguiente proposición nos ayudará a reforzar esta intuición.

Proposición. Sea $V$ un espacio euclidiano y producto interior $\langle \cdot, \cdot \rangle$ y $T:V\to V$ una transformación lineal. Sea $\mathcal{B}=(e_1,\dots, e_n)$ una base otronormal de $V$. Se tiene que $$\text{Mat}_{\mathcal{B}}(T^\ast)={}^t\text{Mat}_{\mathcal{B}}(T).$$

En palabras, bajo una base ortonormal, la adjunta de una transformación tiene como matriz a la transpuesta de la transformación original.

Solución. Sea $A=\text{Mat}_{\mathcal{B}}(T)$ y $B=[B_{ij}]$ la matriz asociada a $T^*$ con respecto a $\mathcal{B}$. Para cada $i\in\{1,\ldots,n\}$ se tiene
$$T^*(e_i)=\displaystyle\sum_{k=1}^n b_{ki}e_k.$$

En vista de que $$T(e_i)=\displaystyle\sum _{k=1}^n a_{ki}e_k$$ y de que la base $\mathcal{B}$ es ortonormal, se tiene que $$\langle T(e_i),e_j\rangle=\displaystyle\sum_{k=1}^n a_{ki}\langle e_k,e_j\rangle=a_{ji}$$ y
$$\langle e_i,T^*(e_j)\rangle=\displaystyle\sum_{k=1}^n b_{kj}\langle e_i,e_k \rangle = b_{ij}.$$

Como, por definición de transformación adjunta, se tiene que
$$\langle T(e_i),e_j\rangle =\langle e_i, T^*(e_j)\rangle,$$ entonces $b_{ij}=a_{ji}$ para cada $i,j$ en $\{1,\ldots, n\}$, que precisamente significa que $B= {}^tA$.

$\square$

Ejemplos de encontrar una adjunción

La proposición de la sección anterior nos da una manera práctica de encontrar la adjunción para transformaciones lineales.

Ejemplo. Encontraremos la transformación adjunta a la transformación lineal $T:\mathbb{R}^2\to \mathbb{R}^2$ dada por $T((x,y))=(y-x,y+2x)$. Por la proposición de la sección anterior, basta expresar a $T$ en una base ortonormal y transponer. Usemos la base canónica de $\mathbb{R}^2$. En esta base, la matriz que representa a $T$ es $\begin{pmatrix} -1 & 1 \\ 2 & 1 \end{pmatrix}$. Por ello, la matriz que representa a $T^\ast$ es la transpuesta, es decir $\begin{pmatrix} -1 & 2 \\ 1 & 1 \end{pmatrix}$. De este modo, concluimos que $T^\ast((x,y)) = (-x+2y,x+y)$.

Podemos verificar que en efecto esta transformación satisface la definición de adjunción. Por un lado,

$$\langle T((a,b)), (c,d) \rangle = (b-a,b+2a)\cdot (c,d)= bc-ac+bd+2ad,$$

y por otro

$$ \langle (a,b), T((c,d)) \rangle = (a,b) \cdot (-c+2d,c+d) = -ac +2ad + bc +bd.$$

Ambas expresiones en efecto son iguales.

$\triangle$

Problema. Demuestra que una transformación lineal $T$ en un espacio euclideano de dimensión finita y la adjunta $T^\ast$ de $T$ tienen el mismo determinante.

Solución. El determinante de una transformación es igual al determinante de cualquiera de las matrices que la represente. Así, si $A$ es la forma matricial de $T$ bajo una base ortonormal, se tiene que $\det(A)=\det(T)$. Por la proposición de la sección anterior, $^tA$ es la forma matricial de $T^\ast$ en esa misma base, de modo que $\det({}^tA)=\det(T^\ast)$. Pero una matriz y su transpuesta tienen el mismo determinante, de modo que $$\det(T^\ast)=\det({}^tA)=\det(A)=\det(T).$$

$\square$

Más adelante…

La noción de transformación adjunta es nuestra primera noción fundamental para poder definir más adelante transformaciones que cumplen propiedades geométricas especiales. Con ella, en la siguiente entrada hablaremos de transformaciones simétricas, antisimétricas y normales.

Toma en cuenta que las definiciones que hemos dado hasta ahora son para espacios euclideanos, es decir, para el caso real. Cuando hablamos de espacios hermitianos, es decir, del caso complejo, los resultados cambian un poco. La transformación adjunta se define igual. Pero, por ejemplo, si la matriz que representa a una transformación es $A$, entonces la que representará a su adjunta no será la transpuesta, sino más bien la transpuesta conjugada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  1. Encuentra la transformación adjunta para las siguientes tranformaciones lineales:
    • $T:\mathbb{R}^2\to \mathbb{R}^2 $ dada por $T(x,y)=(2y-x,2x+y)$.
    • $T:\mathbb{R}^3\to \mathbb{R}^3$ dada por $T(x,y,z)=(x+y+z,y+z,z)$.
    • $T:\mathbb{R}^n \to \mathbb{R}^n$ tal que para la base canónica $e_1,\ldots,e_n$ cumple que $T(e_i)=e_{i+1}$ para $i=1,\ldots,n-1$ y $T(e_n)=0$.
  2. Considera el espacio vectorial $M_n(\mathbb{R})$. En este espacio, la operación transponer es una transformación lineal. ¿Cuál es su transformación adjunta?
  3. Completa los detalles de que $T^\ast$ es en efecto una transformación lineal.
  4. Demuestra que si $T$ es una transformación lineal sobre un espacio euclidiano y $\lambda$ es un eigenvalor de $T$, entonces $\lambda$ también es un eigenvalor de $T^\ast$. De manera más general, demuestra que $T$ y $T^\ast$ tienen el mismo polinomio característico.
  5. Sea $V$ un espacio euclidiano y $T:V\to V$. ¿Es cierto que para todo polinomio $p$ se cumple que $p(T)^\ast=p(T^\ast)$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Matrices invertibles

Por Julio Sampietro

Introducción

Siguiendo el hilo de la entrada pasada, por la correspondencia entre transformaciones lineales y matrices así como la composición y su producto, podemos traducir el problema de invertibilidad de transformaciones lineales en términos de matrices, a las que llamaremos matrices invertibles. Es decir, si tenemos $\varphi: F^n\to F^n$, $\psi: F^n\to F^n$ transformaciones lineales tales que

\begin{align*}
\varphi\circ \psi= Id_{F^n}, \hspace{2mm} \psi \circ \varphi=Id_{F^n}
\end{align*}

¿cómo se traduce esto en términos de sus matrices asociadas?

Veremos que la respuesta yace en matrices que tienen inverso multiplicativo, a diferencia de un campo $F$, donde todo $x$ tiene un $x^{-1}$, cuando trabajamos con matrices no todas tienen una matriz inversa y las que si son de especial importancia.

Definición de matrices invertibles

Definición. Decimos que una matriz $A\in M_n (F)$ es invertible o bien no singular si existe una matriz $B\in M_n(F)$ tal que

\begin{align*}
AB=BA=I_n
\end{align*}

Ejemplo. Veamos que la matriz $A=\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}$ es invertible. Para ello, tenemos que exhibir una matriz $B$ tal que $AB=I_2=BA$. Proponemos a la matriz $B=\begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}$. Haciendo la multiplicación con la regla del producto, tenemos que

\begin{align*}
AB&=\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 1 \cdot 1 + 1 \cdot 0 & 1 \cdot (-1) + 1\cdot 1\\ 0 \cdot 1 + 1 \cdot 0 & 0\cdot (-1)+ 1\cdot 1\end{pmatrix}\\
&=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}\\
&=I_2.
\end{align*}

¡Aún no hemos terminado! Para satisfacer la definición, también tenemos que mostrar que $BA=I_2$:

\begin{align*}
BA&=\begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 1 \cdot 1 + (-1) \cdot 0 & 1 \cdot 1 + (-1)\cdot 1\\ 0 \cdot 1 + 1 \cdot 0 & 0\cdot 1+ 1\cdot 1\end{pmatrix}\\
&=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}\\
&=I_2.
\end{align*}

Ahora sí, podemos concluir que la matriz $A$ es invertible.

$\square$

Observación. Una primera cosa que hay que notar es que en la definición se pide que tanto $AB$ como $BA$ sean la matriz identidad $I_n$. Es importante verificar ambas, pues como sabemos, el producto de matrices no siempre conmuta.

Otra observación importante es que si la matriz $B$ como en la definición existe, entonces es necesariamente única: En efecto, si $C\in M_n(F)$ es otra matriz tal que

\begin{align*}
AC=CA=I_n,
\end{align*}

entonces manipulando las expresiones en juego:

\begin{align*}
C&= I_n C \\&= (BA)C\\
&=B(AC)\\&= B I_n \\&=B.
\end{align*}

Entonces no hay ambigüedad al hablar de la matriz inversa de $A$. Ya no tiene mucho sentido usar una letra diferente para ella. Simplemente la denotaremos por $A^{-1}$.

Primeras propiedades de matrices invertibles

Resumimos algunas propiedades de las matrices invertibles en la siguiente proposición.

Proposición.

  1. Para $c\in F$ es un escalar distinto de cero, se tiene que $c I_n$ es invertible.
  2. Si $A$ es invertible, entonces $A^{-1}$ también lo es, y $\left(A^{-1}\right)^{-1}=A$
  3. Si $A,B\in M_n(F)$ son invertibles, entonces $AB$ también lo es y

    \begin{align*}
    \left(AB\right)^{-1}= B^{-1}A^{-1}.
    \end{align*}

Demostración:

  1. Como $c\neq 0$ y $F$ es un campo, entonces existe $c^{-1}$ en $F$ y así $c^{-1} I_n$ satisface (por la compatibilidad del producto por escalares de esta entrada)

    \begin{align*}
    (cI_n)\cdot (c^{-1}I_n)&= (cc^{-1})\cdot (I_n I_n)\\&= I_n\\
    &= (c^{-1} c) \cdot(I_n)\\&= (c^{-1} I_n) \cdot (c I_n).
    \end{align*}
    Luego $c^{-1}I_n$ es la matriz inversa de $c I_n$.
  2. Para evitar alguna confusión con la notación, denotemos a $A^{-1}$ por $B$. Así

    \begin{align*}
    AB=BA=I_n.
    \end{align*}
    Luego $B$ es invertible y su inversa es $A$.
  3. Si $A,B\in M_n(F)$ son invertibles entonces existen $A^{-1}$ y $B^{-1}$. Sea $C= B^{-1} A^{-1}$. Así

    \begin{align*}
    (AB)C=ABB^{-1}A^{-1}= A I_n A^{-1}= AA^{-1} =I_n.
    \end{align*}
    Y análogamente

    \begin{align*}
    C(AB)= B^{-1}A^{-1} A B= B^{-1} I_n B= B^{-1} B=I_n.
    \end{align*}
    Mostrando así que $AB$ es invertible con inversa $C$.

$\square$

Observación. Es importante notar que el ‘sacar inverso’ invierte el orden de los productos. Es decir, en el producto $AB$ aparece primero $A$ y luego $B$, mientras que el inverso $(AB)^{-1}$ es $B^{-1}A^{-1}$, en donde aparece primero $B^{-1}$ y luego $A^{-1}$. Esto es muy importante en vista de que la multiplicación de matrices no es conmutativa y por lo tanto en general

\begin{align*}
(AB)^{-1}\neq A^{-1} B^{-1}.
\end{align*}

También es importante notar que si bien la invertibilidad se preserva bajo productos (el producto de matrices invertibles es invertible) ésta no se preserva bajo sumas. Por ejemplo, tanto $I_n$ como $-I_n$ son invertibles en virtud del teorema, sin embargo su suma es $I_n+(-I_n)=O_n$, que no es invertible.

Ya hablamos de cuándo una matriz $A$ en $M_n(F)$ es invertible. ¿Qué sucede si consideramos a todas las matrices invertibles en $M_n(F)$? Introducimos el siguiente objeto de importancia fundamental en muchas áreas de las matemáticas:

Definición. El conjunto de matrices invertibles $A\in M_n(F)$ es llamado el grupo lineal general y es denotado por $GL_n(F)$.

En la tarea moral hay un ejercicio en el que se pide mostrar que $GL_n(F)$ es un grupo bajo la operación de producto de matrices. En realidad en este curso no hablaremos mucho de $GL_n(F)$ como grupo. Pero es importante que sepas de su existencia y que conozcas su notación, pues será importante en tu preparación matemática futura.

Invirtiendo matrices

Si bien el concepto de invertibilidad es sencillo de introducir, gran parte de la herramienta para determinar (irónicamente, a través de los determinantes) la invertibilidad de una matriz o propiedades relacionadas (por ejemplo, una computación efectiva de matrices inversas) todavía no está a nuestra disposición. Por tanto, lo único que podemos hacer es uso de ‘fuerza bruta’ para encontrar las inversas de matrices invertibles, y eso haremos en los siguientes ejemplos para al menos familiarizarnos con los cálculos.

Problema. Sea la matriz $A=\begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}$. ¿Es $A$ invertible? De serlo, calcula su inversa.

Solución. Como mencionamos, con la teoría que hemos desarrollado hasta ahora solo podemos atacar el problema directamente. Buscamos una matriz

\begin{align*}
B= \begin{pmatrix} a & b & c\\ x & y & z\\ u & v & w\end{pmatrix}
\end{align*}

tal que $AB=I_3=BA$. Usando la regla del producto, calculamos

\begin{align*}
AB=\begin{pmatrix} x & y & z\\ a & b &c \\ u & v & w \end{pmatrix}.
\end{align*}

Igualando esta matriz a $I_3$ obtenemos las condiciones

\begin{align*}
\begin{cases} x=b=w=1\\ y=z=a=c=u=v=0. \end{cases}
\end{align*}

Esto muestra que una buena candidata a ser la inversa de $A$ es la matriz

\begin{align*}
A^{-1}= \begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}.
\end{align*}

Falta un paso más: hay que verificar que $BA=I_3$. Afortunadamente esto es cierto. Su verificación queda como tarea moral.

$\triangle$

Resaltamos que el método usado no es eficiente, y tampoco es general (pues funcionó solo por la particularidad de la matriz $A$). Dicho esto, exhibimos un método que puede ser útil cuando la matriz por invertir es suficientemente ‘bonita’ (por ejemplo si tiene muchos ceros).

Sea $A\in M_n(F)$ una matriz y $b\in F^n$ un vector. Supongamos que el sistema $AX=b$ en el vector variable $X$ tiene una única solución $X\in F^n$. Un resultado que probaremos más adelante nos dice que entonces $A$ es invertible y que la solución es $X=A^{-1}b$ (es decir, que podemos ‘despejar’ $X$ multiplicando por $A^{-1}$ del lado izquierdo ambos lados). Así, si el sistema resulta fácil de resolver, podemos obtener una expresión de $A^{-1}$ en términos de cualquier vector $b$, y ésto basta para determinar a $A^{-1}$. En la práctica, la resolución del sistema mostrará que

\begin{align*}
A^{-1} b = \begin{pmatrix}
c_{11}b_1 + c_{12} b_2 +\dots + c_{1n}b_n\\
c_{21}b_1+c_{22}b_2 + \dots + c_{2n} b_n\\
\vdots\\
c_{n1} b_1 + c_{n2} b_2 +\dots + c_{nn}b_n
\end{pmatrix}
\end{align*}

para algunos escalares $c_{ij}$ independientes de $b$. Escogiendo $b=e_i$ el $i-$ésimo vector de la base canónica, el lado izquierdo es simplemente la $i-$ésima columna de $A^{-1}$ y el lado derecho es la $i-$ésima columna de $[c_{ij}]$. Como ambas matrices son iguales columna a columna, deducimos que

\begin{align*}
A^{-1}=[c_{ij}]
\end{align*}

Subrayamos que, una vez el sistema resuelto, el resto es relativamente sencillo pues solo es fijarnos en los coeficientes. La dificultad reside entonces en resolver el sistema $AX=b$, y la dificultad de este sistema depende fuertemente de la matriz $A$, por lo que nos limitaremos por lo pronto a ejemplos sencillos.

Retomemos el problema anterior para ver cómo funciona este método recién expuesto.

Problema. Resuelve el problema anterior usando el método que acabamos de describir.

Solución. Sea $b=\begin{pmatrix} b_1 \\ b_2 \\ b3 \end{pmatrix}\in F^3$, tratemos de resolver $AX=b$ para $X=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}$. El sistema se escribe entonces

\begin{align*}
\begin{pmatrix} b_1 \\ b_2 \\ b_3\end{pmatrix}=AX= \begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3\end{pmatrix}= \begin{pmatrix} x_2 \\ x_1 \\ x_3\end{pmatrix}.
\end{align*}

O equivalentemente

\begin{align*}
\begin{cases} x_1=b_2\\ x_2= b_1 \\ x_3=b_3.\end{cases}
\end{align*}

Como el sistema siempre se puede resolver dado $b\in F^3$, podemos afirmar que $A$ es invertible, y tenemos que

\begin{align*}
A^{-1}b= X= \begin{pmatrix} x_1\\ x_2 \\ x_3\end{pmatrix}= \begin{pmatrix} b_2\\ b_1 \\ b_3\end{pmatrix}= \begin{pmatrix} 0\cdot b_1 + 1\cdot b_2 + 0 \cdot b_3\\ 1\cdot b_1 +0\cdot b_2 +0\cdot b_3\\ 0\cdot b_1 + 0\cdot b_2 +1\cdot b_3\end{pmatrix}. \end{align*}

Fijándonos en los coeficientes del lado derecho, vemos que la primera fila de $A^{-1}$ es $(0 \ 1 \ 0)$, la segunda $(1\ 0 \ 0)$ y la tercera $(0\ 0\ 1)$. Luego

\begin{align*}
A^{-1}=\begin{pmatrix}
0 & 1& 0\\
1 & 0&0\\
0 & 0 & 1\end{pmatrix}\end{align*}

$\triangle$

Problema. Sea la matriz

\begin{align*}
A= \begin{pmatrix} 1 & 1 & 1 & 1\\ 0 & 1 & 1 &1 \\ 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 1\end{pmatrix} \end{align*}

Demuestre que $A$ es invertible y encuentre su inversa.

Solución. Usamos el mismo método. Sea $b= \begin{pmatrix} b_1\\ b_2 \\ b_3 \\ b_4 \end{pmatrix}\in F^4$ y resolvemos $AX=b$ con $X=\begin{pmatrix} x_1\\ x_2 \\ x_3 \\ x_4\end{pmatrix}$. Esta vez el sistema asociado es el siguiente (omitimos los cálculos de la regla del producto):

\begin{align*}
\begin{cases}
x_1+x_2+x_3+x_4=b_1\\
x_2+x_3+x_4=b_2\\
x_3+x_4=b_3\\
x_4=b_4
\end{cases}.
\end{align*}

Este sistema lo podemos resolver de manera más o menos sencilla: De la última ecuación tenemos que $x_4=b_4$, luego sustituyendo en la penúltima obtenemos $x_3+b_4=b_3$ o bien $x_3=b_3-b_4$. Sustituyendo esto a su vez en la segunda ecuación obtenemos que $x_2+b_3=b_2$, es decir $x_2=b_2-b_3$ y finalmente $x_1= b_1-b_2$. Así el sistema siempre tiene solución y estas están dadas por

\begin{align*}
A^{-1}b= X= \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4\end{pmatrix} = \begin{pmatrix} b_1-b_2\\ b_2-b_3\\ b_3-b_4\\ b_4 \end{pmatrix}.
\end{align*}

De esto se sigue que (fijándonos en los coeficientes) la primera fila de $A^{-1}$ es $(1\ -1 \ 0 \ 0)$, y análogamente obtenemos las demás, de manera que

\begin{align*}
A^{-1}=\begin{pmatrix}
1 & -1 & 0 &0\\
0 & 1 & -1 & 0\\
0&0 &1 &-1\\
0 & 0 & 0 &1
\end{pmatrix}.
\end{align*}

Un buen ejercicio es verificar que en efecto con esta inversa propuesta se cumple que $AA^{-1}=I_4=A^{-1}A$.

$\triangle$

Matrices invertibles diagonales

Concluimos esta sección con un último problema de matrices invertibles. Para resolverlo no usamos el método expuesto, sino un argumento particular para las matrices diagonales.

Problema. Demuestre que una matriz diagonal $A\in M_n(F)$ es invertible si y sólo si todas sus entradas en la diagonal son distintas de cero. Más aún, de ser el caso, $A^{-1}$ también es diagonal.

Solución. Sea $A=[a_{ij}]\in M_n(F)$ una matriz diagonal y $B=[b_{ij}]\in M_n(F)$ cualquier matriz. Usando la regla del producto tenemos que

\begin{align*}
(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj}.
\end{align*}

Como $a_{ik}=0$ para $k\neq i$ (por ser $A$ diagonal) muchos de los términos en la suma desaparecen y nos quedamos con

\begin{align*}
(AB)_{ij}= a_{ii} b_{ij}
\end{align*}

y de manera similar se puede verificar que

\begin{align*}
(BA)_{ij}=a_{jj}b_{ij}.
\end{align*}

Aprovechemos estas observaciones para proponer a la inversa de $A$.

Si $a_{ii}\neq 0$ para todo $i\in \{1,\dots, n\}$ entonces podemos considerar a $B$ como la matriz diagonal con entradas $b_{ii}=\frac{1}{a_{ii}}$. Las fórmulas que acabamos de calcular nos dan que $AB=BA=I_n$ y así $A$ es invertible y su inversa $B$ es diagonal.

Conversamente, supongamos que $A$ es invertible y diagonal. Así, existe una matriz $B$ tal que $AB=BA=I_n$. Luego para toda $i\in \{1, \dots, n\}$ se cumple

\begin{align*}
1= (I_n)_{ii}= (AB)_{ii}= a_{ii}b_{ii}
\end{align*}

Así $a_{ii}\neq 0$ para $i\in \{1, \dots, n\}$ y así todas las entradas en la diagonal son distintas de cero.

$\square$

Más adelante…

En esta entrada hablamos del concepto de matrices invertibles, vimos algunas de sus propiedades y esbozamos un método para encontrar la inversa de una matriz. Hay mejores métodos para encontrar dicha inversa. Uno de ellos, que es muy rápido, es el método de reducción gaussiana, que sirve para mucho más que invertir matrices. Para llegar a él, aún tenemos que desarrollar algo de teoría. Pero antes de eso, hablaremos de otros tipos particulares de matrices.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Aunque para determinar inversos de matrices generales necesitamos desarrollar más teoría, las matrices invertibles de $2\times 2$ son fáciles de entender. Muestra que si se tiene una matriz $A$ en $M_2(F)$ con entradas $$A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}$$ y $ad-bc\neq 0$, entonces la matriz $$B=\frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}$$ es la inversa de $A$. Para ello verifica explícitamente usando la regla del producto que tanto $AB=I_2$, como que $BA=I_2$.
  • En el primer problema de invertir matrices, muestra que $BA$ también es $I_3$.
  • La matriz $$A=\begin{pmatrix} \frac{1}{2} & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & \sqrt{2}\end{pmatrix}$$ es invertible. Encuentra su inversa.
  • Verifica que $GL_n(F)$ es en efecto un grupo bajo la operación de multiplicación de matrices. Debes mostrar que:
    • El producto de dos matrices invertibles es invertible.
    • Existe un neutro multiplicativo $E$ (¿quién sería?).
    • Para matriz $A$ en $GL_n(F)$ existe una matriz $B$ en $GL_n(F)$ tal que $AB=BA=E$.
  • Explica por qué la matriz $O_n$ no es invertible. Explica por que si una matriz en $M_n(F)$ tiene una columna (o fila) tal que todas sus entradas sen iguales a $0$, entonces la matriz no es invertible. Este ejercicio lo puedes hacer directamente de la definición, sin tener que recurrir a herramientas más fuertes.
  • Generaliza el penúltimo problema a una matriz de tamaño $n\times n$ con puros unos sobre y por encima de la diagonal, es decir, para la cual $[a_{ij}]=1$ si $j\geq i$ y $0$ en otro caso.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de vectores, matrices y matrices como transformaciones lineales

Por Julio Sampietro

Introducción

Esta entrada consiste de puros problemas resueltos. Mediante la solución de estos problemas se puede poner en práctica los conceptos vistos anteriormente. En específico, aquí repasamos los conceptos de suma y producto escalar que vimos al inicio, así como la idea de la entrada anterior de relacionar a matrices con transformaciones lineales.

Problemas resueltos

Problema 1. Escribe de manera explicita la matriz $A=[a_{ij}]\in M_{2,3}(\mathbb{R})$ tal que

\begin{align*}
a_{ij}=\begin{cases} 1 & \text{si } i+j \text{ es par}\\ 0 & \text{si } i+j\text{ es impar}\end{cases}
\end{align*}

Solución. Tomemos como ejemplo a la entrada $a_{11}$. Como $1+1=2$ y $2$ es par, entonces la entrada $a_{11}$ será igual a $1$. De manera similar, obtenemos que $a_{12}=0$ pues $1+2=3$, que es un número impar. Siguiendo de este modo, obtenemos que
\begin{align*}
A=\begin{pmatrix} 1 & 0 & 1\\
0 & 1& 0 \end{pmatrix}.
\end{align*}

$\triangle$

Problema 2. Para cada par de matrices $(A,B)$, explica cuáles de las operaciones $A+2B$ y $A-B$ tienen sentido, y cuando tengan sentido, haz el cálculo.

  1. \begin{align*}
    A= \begin{pmatrix} 1 & 1& 0\\
    0& 1 & 1\\
    1 & 0 & 1 \end{pmatrix} \hspace{5mm} \text{y}\hspace{5mm} B=\begin{pmatrix} 1 &2 &3\\
    7 & 8 & 9\\
    4 & 5 & 6
    \end{pmatrix}.
    \end{align*}
  2. \begin{align*}
    A=\begin{pmatrix} 192450916\\1\\0 \\1\\2\end{pmatrix} \hspace{5mm} \text{y} \hspace{5mm} B= \begin{pmatrix} -1\\ 0 \\ 199\\ 2020\\ 0\\ 3\end{pmatrix}.
    \end{align*}
  3. \begin{align*}
    A= \begin{pmatrix} 1 & 1 & 2\\
    3 & 5 & 8 \end{pmatrix} \hspace{5mm} \text{y} \hspace{5mm}B= \begin{pmatrix} 1&-1 & 1\\ 2 & 4 & 8 \end{pmatrix}.
    \end{align*}

Solución:

  1. Dado que ambas matrices tienen el mismo tamaño, podemos calcular ambas operaciones. Tenemos que hacer las operaciones entrada a entrada. Así, la primer entrada de $A+2B$ será $1+2\cdot 1 = 3$. Haciendo lo mismo para cada entrada, obtenemos que
    \begin{align*}
    A+2B= \begin{pmatrix}
    3 & 5 & 6\\
    14 & 17 & 19\\
    9 & 10 & 13
    \end{pmatrix}
    \end{align*}
    De manera similar, obtenemos que \begin{align*}A-B=\begin{pmatrix} 0 &-1 & -3 \\ -7 & -7 & -8\\ -3 & -5 &-5\end{pmatrix}.\end{align*}
  2. En este caso las operaciones no tienen sentido, pues una matriz tiene 5 renglones y la otra 6.
  3. Observamos que ambas matrices tienen el mismo tamaño, por lo que sí podemos calcular ambas operaciones: \begin{align*}
    A+2B= \begin{pmatrix}
    3 & -1 & 4\\ 7 & 13 & 24
    \end{pmatrix} \hspace{5mm} \text{y} \hspace{5mm} A-B=\begin{pmatrix} 0 &2 & 1 \\ 1 & 1 & 0 \end{pmatrix}.\end{align*}

$\triangle$

Problema 3.

  • a) Considera la función $f: \mathbb{R}^2\to \mathbb{R}^2$ dada por
    \begin{align*}
    f(x,y)=(x^2,y^2).
    \end{align*}
    ¿Es $f$ una transformación lineal?
  • b) Responde la misma pregunta reemplazando $\mathbb{R}$ por $\mathbb{F}_2$.

Solución.

  • a) No, $f$ no es lineal. Vamos a ver un ejemplo en el cual no «abre sumas». Por un lado, tenemos por definición que $f(2,0)=(4,0)$. Por otro lado, tenemos que $(2,0)=(1,0)+(1,0)$ y que $f(1,0)+f(1,0)= (2,0)$. Es decir
    \begin{align*}
    f( (1,0)+(1,0) ) \neq f(1,0)+f(1,0).
    \end{align*}
  • b) Si cambiamos el dominio por $\mathbb{F}_2$ entonces $f$ sí es lineal. Lo podemos verificar:
    \begin{align*}
    f(x+y,z+w)&= \left((x+y)^2, (z+w)^2\right)\\
    &= \left( x^2+y^2+2xy, z^2+w^2+2wz\right)\\
    &=\left(x^2+y^2, z^2+w^2\right)\\
    &= \left(x^2,z^2\right)+\left(y^2,w^2\right)\\
    &= f(x,z)+f(y,w).
    \end{align*}
    En estas igualdades estamos usando que $\mathbb{F}_2$ es el campo con dos elementos, en donde se cumple que $2=1+1=0$, por lo cual $2xy=0=2wz$.
    Por otro lado, si $\alpha\in \mathbb{F}_2$ es un escalar, entonces
    \begin{align*}
    f(\alpha\cdot(x,y))&= f(\alpha x, \alpha y)\\
    &= (\alpha^2 x^2, \alpha^2 y^2)\\
    &= \alpha^2 \cdot (x^2,y^2)\\
    &= \alpha \cdot f(x,y).
    \end{align*}
    De nuevo estamos usando las propiedades del campo $\mathbb{F}_2$ en la última igualdad. Como $\mathbb{F}_2$ es el campo con $2$ elementos, los valores de $\alpha, x,y $ sólo pueden ser $0$ o $1$. Como $0^2=0$ y $1^2=1$, tenemos la igualdad. Concluimos que $f$ es lineal.
  • b)’ Otra manera de resolver el inciso b) es observar que en $\mathbb{F}_2$, $x^2=x$ para todo $x$ (esto lo usamos con $\alpha, x, y$ en la prueba pasada). Luego la función $f$ coincide con la función identidad, y es más fácil verificar que ésta es lineal.

$\triangle$

Problema 4. Da un ejemplo de un mapeo $f:\mathbb{R}^2\to \mathbb{R}$ que no sea lineal, pero que cumpla

\begin{align*}
f(av)= af(v)
\end{align*}

para cualesquiera $v\in \mathbb{R}^2$ y $a\in \mathbb{R}$.

Solución. Proponemos

\begin{align*}
f(x,y)= \begin{cases} x & \text{si } y=0\\
y & \text{si } y\neq 0
\end{cases}.
\end{align*}

Verifiquemos que $f$ cumple la compatibilidad con escalares. Primero, si $a=0$ es claro que

\begin{align*}
f(av) &= f(0,0)\\
&= 0\\
&= 0 \cdot f(v)\\
&= a\cdot f(v).
\end{align*}

Entonces si $a=0$ se cumple la condición. Ahora supongamos que $a\neq 0$, tenemos dos subcasos que verificar:

  • Si $v=(x,y)$ con $y\neq 0$, entonces $av= (ax,ay)$ y $ay\neq 0$ (pues el producto de reales no nulos es no nulo), por lo que
    \begin{align*}
    f(av)&= f(ax,ay)\\
    &= ay\\
    &= a\cdot f(x,y)=a\cdot f(v).
    \end{align*}
  • Si $v=(x,0)$ entonces $av= (ax,0)$ y así
    \begin{align*}
    f(av)&= f(ax,0)\\
    &= ax\\
    &= a\cdot f(x,0)=a\cdot f(v).
    \end{align*}

Así verificamos que $f$ cumple con la condición buscada. Para ver que $f$ no es lineal, observamos que

  • $f(1,0)=1$
  • $f(0,1)=1$
  • $f(1,1)=1$

Y así tenemos

\begin{align*}
f(0,1)+f(1,0)&= 2\\
&\neq 1\\
&= f(1,1)\\
&=f((1,0)+(0,1))
\end{align*}

Es decir, existen $u$ y $v$ vectores tales que $f(u+v)\neq f(u)+f(v)$, por lo que $f$ no es lineal.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Producto de matrices y composición de sus transformaciones

Por Julio Sampietro

Introducción

En una entrada previa estudiamos el vínculo entre las matrices y las transformaciones lineales. Más precisamente vimos que existe una biyección entre ambos conjuntos, de manera que tener una matriz de $m\times n$ con entradas en algún campo $F$ es lo mismo que tener una transformación lineal $\varphi: F^n \to F^m$. En esta entrada, estudiaremos cómo esta correspondencia se comporta respecto a las dos operaciones ‘naturales’ en ambos: el producto de matrices y la composición de funciones.

Veremos que multiplicar matrices se corresponde con componer sus transformaciones lineales y vice versa. Esto puede explicar algunos fenómenos de la multiplicación de matrices que pueden ser extraños al principio, como la falta de conmutatividad ($AB\neq BA$) entre otros.

El producto de matrices

Sean $m,n,p$ números naturales positivos y sean $A\in M_{m,n}(F), B\in M_{n,p}(F)$ dos matrices. Es importante observar que el número de columnas de $A$ es el mismo que el de renglones de $B$. Esto es fundamental para que el producto de matrices esté definida.

Por nuestra correspondencia previa, sabemos que tanto a $A$ como a $B$ les corresponden transformaciones lineales

\begin{align*}
\varphi_{A}: F^n\to F^m \hspace{3mm} \varphi_B: F^p\to F^n
\end{align*}

Recuerda que $\varphi_A$ es la transformación que manda a $X\in F^n$ en $AX\in F^m$ y $\varphi_B$ es la transformación que manda a $Y\in F^p$ en $BY\in F^n$.

Podemos entonces preguntarnos por la composición

\begin{align*}
\varphi_A\circ \varphi_B: F^{p}\to F^m \hspace{5mm} (\varphi_A\circ \varphi_B)(X)= \varphi_A\left(\varphi_B(X)\right),
\end{align*}

la cual primero manda a un $X$ de $F^{p}$ a $BX$, y luego a este lo manda a $A(BX)$.

Como $\varphi_A$ y $\varphi_B$ son lineales, podemos verificar que la composición también lo es. Para verificar esto, si $X,Y\in F^{p}$ son arbitrarios así como $\alpha, \beta\in F$, entonces

\begin{align*}
(\varphi_A\circ \varphi_B)\left(\alpha X+\beta Y\right) &= \varphi_A\left(\varphi_B\left(\alpha X+\beta Y\right) \right)\\
&= \varphi_A\left( \alpha \varphi_B(X)+\beta \varphi_B(Y)\right)\\
&=\alpha\varphi_A\left(\varphi_B(X)\right) +\beta \varphi_A\left(\varphi_B(Y)\right)\\
&= \alpha \cdot (\varphi_A\circ \varphi_B) (X) +\beta\cdot (\varphi_A\circ \varphi_B)(Y) .
\end{align*}

Aquí la segunda igualdad se debe a que $\varphi_B$ es lineal y la tercera porque $\varphi_A$ lo es. En el resto de las igualdades estamos usando la definición de la composición.

Como $\varphi_A\circ \varphi_B$ es una transformación lineal, por el teorema de correspondencia entre matrices y transformaciones lineales, debe existir una única matriz $C\in M_{m,p}(F)$ tal que

\begin{align*}
\varphi_A\circ \varphi_B = \varphi_C.
\end{align*}

Esto motiva la siguiente (importante) definición:

Definición. El producto de dos matrices $A\in M_{m,n}(F)$ y $B\in M_{n,p}(F)$ (de nuevo, observamos que el número de renglones de $B$ y el número de columnas de $A$ deben coincidir) es la única matriz $AB\in M_{m,p}(F)$ tal que

\begin{align*}
A(B(X))=(AB)(X)
\end{align*}

Para todo $X\in F^p$.

Un truco para acordarse de la condición de compatibilidad en renglones y columnas es pensar en términos de transformaciones lineales: Sabemos que dos funciones $f$ y $g$ se pueden componer solo si el codominio de una es el dominio de la otra.

Observación. Como mencionamos previamente, podemos identificar a $F^n$ con el espacio $M_{n,1}(F)$ (esto es especialmente claro cuando escribimos un vector en columna: Tenemos $n$ renglones y una sola columna). Así, si a un vector $X\in F^n$ lo identificamos con su matriz $\widetilde{X}\in M_{n,1}(F)$ entonces podemos considerar el producto $A\widetilde{X}\in M_{m,1}(F)$, que resulta (al identificar de vuelta con $F^m$) coincide con $AX$. Es decir, pensar la aplicación $AX$ como una transformación o como un producto de matrices no afecta el resultado, aunque es recomendable (para nuestros propósitos) pensarlo como una transformación lineal.

Calculando el producto de matrices

Si bien la definición que dimos del producto tiene sentido desde una perspectiva un poco más abstracta, queremos poder calcular explícitamente el producto $AB$ sabiendo las entradas de $A$ y de $B$.

Para esto, sean $A=[a_{ij}]$ y $B=[b_{ij}]$ con tamaños como en la definición. Sea $e_1, \dots, e_p$ la base canónica de $F^p$. Entonces $(AB) e_j$ es la $j$-ésima columna de $AB$ (por una observación que hicimos aquí). Denotaremos por $C_1(A), \dots, C_n(A)$ y $C_1(B), \dots, C_p(B)$ a las columnas de $A$ y las de $B$ respectivamente. Usando la misma observación, podemos escribir

\begin{align*}
A(Be_j)&=AC_j(B)\\
&= b_{1j}C_1(A)+b_{2j}C_2(A)+\dots + b_{nj} C_n(A).
\end{align*}

Para la segunda igualdad, estamos usando la segunda parte de la observación de esta entrada. Por definición del producto, tenemos que $A(Be_j)=(AB)e_j=C_j(AB)$. Juntando esto con la igualdad anterior, tenemos

\begin{align*}
C_j(AB)= b_{1j} C_1(A)+b_{2j} C_2(A)+\dots + b_{nj} C_n(A).
\end{align*}

Estamos muy cerca de encontrar cualquier entrada $(i,j)$ del producto. Notamos que esta entrada está en la fila $i$ de $C_j(AB)$. Haciendo las operaciones entrada a entrada, obtenemos entonces que

\begin{align*}
(AB)_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j} +\dots +a_{in}b_{nj}.
\end{align*}

La discusión anterior prueba el siguiente resultado.

Teorema. (Regla del producto) Sean $A=[a_{ij}]\in M_{m,n}(F)$ y $B=[b_{ij}]\in M_{n,p}(F)$. Entonces la $(i,j)$-ésima entrada de $AB$ está dada por

\begin{align*}
(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj} .
\end{align*}

Hubiéramos podido dar como definición de $AB$ a la matriz con las entradas que especifica el teorema, pero esto hubiera escondido la motivación detrás de la definición: A ojos del álgebra lineal, las matrices «son» transformaciones lineales y el producto, su composición.

Lo más importante a recuperar de lo que hemos platicado hasta ahora es que el producto $AB$ se puede pensar de cualquiera de las dos formas siguientes:

  • Como la transformación lineal que corresponde a la composición de las transformaciones de $A$ y $B$.
  • Como la matriz cuyas entradas están dadas por la regla del producto.

Ambas formas de ver al producto tienen ventajas y desventajas. Usaremos una o la otra según nos convenga.

Ejemplos de producto de matrices

Ejemplo 1. Si $A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix}$ y $B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix}$ son matrices en $M_2(F)$, entonces el producto existe y por el teorema tenemos que

\begin{align*}
AB= \begin{pmatrix}
a_{11}b_{11}+a_{12}b_{21} & a_{11} b_{12}+ a_{12}b_{22}\\
a_{21}b_{11}+a_{22}b_{21} & a_{21}b_{12} +a_{22}b_{22}
\end{pmatrix}.
\end{align*}

Observa que si $C_1$ y $C_2$ son las dos columnas de $B$, entonces las dos columnas de $AB$ son $AC_1$ y $AC_2$. Esta es una buena forma de recordar cómo hacer el producto.

$\triangle$

Ejemplo 2. Si $A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\ a_{31} & a_{32} \end{pmatrix}$ y $B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix}$ entonces el producto $AB$ es una matriz de tamaño $3\times 2$, y está dada por

\begin{align*}
AB=\begin{pmatrix} a_{11} b_{11} + a_{12} b_{21} & a_{11} b_{12}+ a_{12} b_{22}\\
a_{21} b_{11} + a_{22} b_{21} & a_{21} b_{12} + a_{22} b_{22}\\
a_{31}b_{11}+a_{32}b_{21} & a_{31} b_{12} +a_{32} b_{22}
\end{pmatrix}.
\end{align*}

$\triangle$

Ejemplo 3. Tomando en cuenta el ejemplo anterior con las matrices $A=\begin{pmatrix} 1 &2 \\ 3 & 4\\ 5& 6\end{pmatrix}$ y $B=\begin{pmatrix} 1& -1\\ 0 & 2\end{pmatrix}$ entonces

\begin{align*}
AB=\begin{pmatrix} 1 & 3\\ 3 & 5 \\ 5 &7 \end{pmatrix}.
\end{align*}

$\triangle$

Observa que no podemos hacer el producto $BA$, pues la cantidad de columnas de $B$ es $2$, la cantidad de filas de $A$ es $3$, y estos números no coinciden.

Ejemplo 4. Si $A=\begin{pmatrix} 1& 0\\ 0 & 0\end{pmatrix}$ y $B=\begin{pmatrix} 0 & 0 \\ 2& 0\end{pmatrix}$ entonces podemos calcular tanto $AB$ como $BA$ y obtenemos

\begin{align*}
AB=\begin{pmatrix} 0 & 0\\
0 & 0 \end{pmatrix}=O_2 \hspace{5mm} \text{ y } \hspace{5mm} BA=\begin{pmatrix} 0 & 0 \\ 2 & 0\end{pmatrix}.
\end{align*}

$\triangle$

Propiedades básicas del producto

El último ejemplo de la sección pasada refleja dos cosas importantes del producto de matrices:

  • El producto no es conmutativo. Es decir, aunque existan ambos $AB$ y $BA$, estos no tienen por qué coincidir.
  • Aunque $A$ y $B$ no sean cero, su producto si puede serlo. En el ejemplo $A$ y $B$ eran distintas de cero pero $AB=O_2$.

Definición. Dos matrices $A,B\in M_n(F)$ conmutan si $AB=BA$.

Entonces uno tiene que tener cuidado cuando realiza manipulaciones algebraicas con matrices, pues muchas propiedades a las que estamos acostumbrados en campos dejan de ser ciertas.

Ejemplo. En un campo, uno generalmente usa las reglas para desarrollar cuadrados:

\begin{align*}
(a+b)^2&=a^2+2ab+b^2, \\
(a+b)(a-b)&=a^2-b^2 .
\end{align*}

Sin embargo, trabajando con matrices estas identidades dejan de ser ciertas, y son reemplazadas por una versión menos sencilla:

\begin{align*}
(A+B)^2&= A^2+AB+BA+B^2,
\\(A+B)(A-B)&=A^2-AB+BA-B^2.
\end{align*}

Estas coinciden con las correspondientes en el campo solo si $A$ y $B$ conmutan.

$\triangle$

Sin embargo, hay buenas noticias. Aparte de la conmutatividad, muchas otras propiedades algebraicas deseables se preservan, y las resumimos en la siguiente proposición:

Proposición. La multiplicación de matrices satisface las siguientes:

  1. Asociatividad: Se cumple que $(AB)C=A(BC)$ para cualesquiera matrices $A\in M_{m,n}(F), B\in M_{n,p}(F), C\in M_{p,q}(F)$.
  2. Compatibilidad con el producto por escalares: Se cumple que $\alpha(AB)=(\alpha A)B= A(\alpha B)$ para cualesquiera $\alpha \in F, A\in M_{m,n}(F), B\in M_{n,p}(F)$.
  3. Distributividad con respecto a la suma: Se cumplen

\begin{align*}
(A+B)C&=AC+BC\\
D(A+B)&= DA+DB
\end{align*}

para cualesquiera $A,B\in M_{m,n}(F)$, $C\in M_{n,p}(F)$ y $D\in M_{p,m}(F).$

Demostración: La demostración de estas propiedades se sigue directamente de la definición, o bien haciendo los cálculos a través de la regla del producto. Probaremos la asociatividad usando la definición, para mostrar las ventajas que tiene pensar al producto como la matriz correspondiente a la composición. Tras ver la demostración, piensa en lo tedioso que sería hacer la prueba usando la regla del producto.

Para verificar la asociatividad, basta ver que las transformaciones lineales de $(AB)C$ y $A(BC)$ son iguales (vimos en ésta entrada que si dos matrices tienen la misma transformación asociada, entonces son iguales). Es decir, que para todo $X\in F^q$ se cumple que

\begin{align*}
((AB)C)X=(A(BC))X.
\end{align*}

Por definición del producto, tenemos que

\begin{align*}
((AB)C)X= (AB)(CX)= A(B(C(X)),
\end{align*}

y desarrollando análogamente $A(BC)X$ tenemos

\begin{align*}
A(BC)X= A((BC)X)= A(B(C(X)).
\end{align*}

Comparando ambas expresiones se sigue el resultado. Como mencionamos, esto se pudo haber probado usando la regla del producto, comparando la $(i,j)$-ésima entrada de $(AB)C$ y la de $A(BC)$, verificando que ambas son iguales a

\begin{align*}
\sum_{k,l} a_{ik}b_{kl} c_{lj}.
\end{align*}

$\square$

Observación. Gracias a la asociatividad del producto, podemos escribir $ABC$ en lugar de $(AB)C$ o de $A(BC)$, aligerando la notación. Esto es más útil con más factores, por ejemplo el poder escribir $ABCD$ en lugar de $(A(BC))D$ o $A(B(CD))$. Así mismo, tampoco tenemos ambigüedad al definir el producto de cualquier número de matrices. Usaremos la notación

\begin{align*}
A^n= A\cdot A\cdot \ddots \cdot A,
\end{align*}

donde el lado derecho tiene $n$ factores. Esta es la $n$-ésima potencia de una matriz cuadrada $A$. Por construcción

\begin{align*}
A^n= A\cdot A^{n-1}.
\end{align*}

Y tomaremos como convención que $A^0=I_n$ para cualquier $A\in M_n(F)$. Dejamos como tarea moral el verificar que $I_n$ actúa como un neutro para la multiplicación, es decir que para cualquier matriz $A$ de tamaño $m\times n$ se tiene

\begin{align*}
A\cdot I_n=A \hspace{2mm} \text{ y } \hspace{2mm} I_m \cdot A=A.
\end{align*}

Acabamos esta sección con un problema para practicar los conceptos vistos.

Problema. Sea $A(x)\in M_3(\mathbb{R})$ la matriz definida por

\begin{align*}
A(x)=\begin{pmatrix} 1 & x& x^2\\ 0 & 1 & 2x\\ 0 & 0 & 1\end{pmatrix}.
\end{align*}

Demuestra que $A(x_1)A(x_2)=A(x_1+x_2)$ para cualesquiera $x_1,x_2\in \mathbb{R}$.

Solución. En este problema es más conveniente usar la regla del producto, que pensar a la composición de transformaciones. En todo problema es recomendable pensar en cuál de las formas del producto conviene más usar.

Usando la regla del producto, tenemos que

\begin{align*}
A(x_1)A(x_2)&= \begin{pmatrix} 1 & x_1 & x_1^2\\ 0 & 1 & 2x_1\\ 0 & 0 & 1 \end{pmatrix}\begin{pmatrix} 1 & x_2 & x_2^2\\ 0 & 1 & 2x_2\\ 0 & 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 1 & x_2+x_1 & x_2^2+2x_1 x_2+x_1^2\\
0 & 1 & 2x_2+2x_1\\
0 & 0 & 1\end{pmatrix} \\
&= \begin{pmatrix} 1 & x_1+x_2 & (x_1+x_2)^2\\
0 & 1 & 2(x_1+x_2)\\
0 & 0 & 1 \end{pmatrix}.
\end{align*}

Y el lado derecho es simplemente $A(x_1+x_2)$.

$\square$

Más adelante…

Si bien en esta entrada definimos el producto de matrices y estudiamos su relación con la composición de matrices, esto no es más que el primer paso de un estudio más grande: Ahora nos podemos hacer preguntas sobre transformaciones lineales (por ejemplo, ¿será biyectiva o invertible?) y estudiarlas en términos de matrices y su producto. Más adelante en el curso entrará el concepto de determinante que jugará un papel fundamental para responder muchas de estas preguntas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Realiza la operación $$\begin{pmatrix}2 & 1 & 0 \\ 1 & 2 & 0 \\ 0 & -1 & 0\end{pmatrix}^4.$$
  • Toma al vector canónico $e_i$ de $F^n$ pensado como matriz en $M_{1n}(F)$ y al vector canónico $e_j$ de $F^n$ pensado como matriz en $M_{n1}(F)$. ¿Quién es el producto de matrices $e_ie_j$? ¿Quién es el producto de matrices $e_je_i$?
  • Verifica las propiedades de compatibilidad con el producto por escalares y distributividad con respecto a la suma del producto de matrices.
  • Verifica que las matrices identidad actúan como neutro para la multiplicación de matrices.
  • Recuerda (o investiga) los axiomas de un anillo con unidad y verifica que las matrices cuadradas de tamaño $n$ forman un anillo con unidad para cualquier $n$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»