Álgebra Lineal I: Producto de matrices y composición de sus transformaciones

Introducción

En una entrada previa estudiamos el vínculo entre las matrices y las transformaciones lineales. Más precisamente vimos que existe una biyección entre ambos conjuntos, de manera que tener una matriz de m\times n con entradas en algún campo F es lo mismo que tener una transformación lineal \varphi: F^n \to F^m. En esta entrada, estudiaremos cómo esta correspondencia se comporta respecto a las dos operaciones ‘naturales’ en ambos: el producto de matrices y la composición de funciones.

Veremos que multiplicar matrices se corresponde con componer sus transformaciones lineales y vice versa. Esto puede explicar algunos fenómenos de la multiplicación de matrices que pueden ser extraños al principio, como la falta de conmutatividad (AB\neq BA) entre otros.

El producto de matrices

Sean m,n,p números naturales positivos y sean A\in M_{m,n}(F), B\in M_{n,p}(F) dos matrices. Es importante observar que el número de columnas de A es el mismo que el de renglones de B. Esto es fundamental para que el producto de matrices esté definida.

Por nuestra correspondencia previa, sabemos que tanto a A como a B les corresponden transformaciones lineales

    \begin{align*} \varphi_{A}: F^n\to F^m \hspace{3mm} \varphi_B: F^p\to F^n \end{align*}

Recuerda que \varphi_A es la transformación que manda a X\in F^n en AX\in F^m y \varphi_B es la transformación que manda a Y\in F^p en BY\in F^n.

Podemos entonces preguntarnos por la composición

    \begin{align*}\varphi_A\circ \varphi_B: F^{p}\to F^m \hspace{5mm} (\varphi_A\circ \varphi_B)(X)= \varphi_A\left(\varphi_B(X)\right), \end{align*}

la cual primero manda a un X de F^{p} a BX, y luego a este lo manda a A(BX).

Como \varphi_A y \varphi_B son lineales, podemos verificar que la composición también lo es. Para verificar esto, si X,Y\in F^{p} son arbitrarios así como \alpha, \beta\in F, entonces

    \begin{align*}(\varphi_A\circ \varphi_B)\left(\alpha X+\beta Y\right) &= \varphi_A\left(\varphi_B\left(\alpha X+\beta Y\right) \right)\\&= \varphi_A\left( \alpha \varphi_B(X)+\beta \varphi_B(Y)\right)\\ &=\alpha\varphi_A\left(\varphi_B(X)\right) +\beta \varphi_A\left(\varphi_B(Y)\right)\\&= \alpha \cdot (\varphi_A\circ \varphi_B) (X) +\beta\cdot  (\varphi_A\circ \varphi_B)(Y) .\end{align*}

Aqui la segunda igualdad se debe a que \varphi_B es lineal y la tercera porque \varphi_A lo es. En el resto de las igualdades estamos usando la definición de la composición.

Como \varphi_A\circ \varphi_B es una transformación lineal, por el teorema de correspondencia entre matrices y transformaciones lineales, debe existir una única matriz C\in M_{m,p}(F) tal que

    \begin{align*}\varphi_A\circ \varphi_B = \varphi_C.\end{align*}

Esto motiva la siguiente (importante) definición:

Definición. El producto de dos matrices A\in M_{m,n}(F) y B\in M_{n,p}(F) (de nuevo, observamos que el número de renglones de B y el número de columnas de A deben coincidir) es la única matriz AB\in M_{m,p}(F) tal que

    \begin{align*}A(B(X))=(AB)(X)\end{align*}

Para todo X\in F^p.

Un truco para acordarse de la condición de compatibilidad en renglones y columnas es pensar en términos de transformaciones lineales: Sabemos que dos funciones f y g se pueden componer solo si el codominio de una es el dominio de la otra.

Observación. Como mencionamos previamente, podemos identificar a F^n con el espacio M_{n,1}(F) (esto es especialmente claro cuando escribimos un vector en columna: Tenemos n renglones y una sola columna). Así, si a un vector X\in F^n lo identificamos con su matriz \widetilde{X}\in M_{n,1}(F) entonces podemos considerar el producto A\widetilde{X}\in M_{m,1}(F), que resulta (al identificar de vuelta con F^m) coincide con AX. Es decir, pensar la aplicación AX como una transformación o como un producto de matrices no afecta el resultado, aunque es recomendable (para nuestros propósitos) pensarlo como una transformación lineal.

Calculando el producto de matrices

Si bien la definición que dimos del producto tiene sentido desde una perspectiva un poco más abstracta, queremos poder calcular explícitamente el producto AB sabiendo las entradas de A y de B.

Para esto, sean A=[a_{ij}] y B=[b_{ij}] con tamaños como en la definición. Sea e_1, \dots, e_p la base canónica de F^p. Entonces (AB) e_j es la j-ésima columna de AB (por una observación que hicimos aquí). Denotaremos por C_1(A), \dots, C_n(A) y C_1(B), \dots, C_p(B) a las columnas de A y las de B respectivamente. Usando la misma observación, podemos escribir

    \begin{align*}A(Be_j)&=AC_j(B)\\&= b_{1j}C_1(A)+b_{2j}C_2(A)+\dots + b_{nj} C_n(A).\end{align*}

Para la segunda igualdad, estamos usando la segunda parte de la observación de esta entrada. Por definición del producto, tenemos que A(Be_j)=(AB)e_j=C_j(AB). Juntando esto con la igualdad anterior, tenemos

    \begin{align*}C_j(AB)= b_{1j} C_1(A)+b_{2j} C_2(A)+\dots + b_{nj} C_n(A).\end{align*}

Estamos muy cerca de encontrar cualquier entrada (i,j) del producto. Notamos que esta entrada está en la fila i de C_j(AB). Haciendo las operaciones entrada a entrada, obtenemos entonces que

    \begin{align*}(AB)_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j} +\dots +a_{in}b_{nj}.\end{align*}

La discusión anterior prueba el siguiente resultado.

Teorema. (Regla del producto) Sean A=[a_{ij}]\in M_{m,n}(F) y B=[b_{ij}]\in M_{n,p}(F). Entonces la (i,j)-ésima entrada de AB está dada por

    \begin{align*}(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj} .\end{align*}

Hubiéramos podido dar como definición de AB a la matriz con las entradas que especifica el teorema, pero esto hubiera escondido la motivación detrás de la definición: A ojos del álgebra lineal, las matrices “son” transformaciones lineales y el producto, su composición.

Lo más importante a recuperar de lo que hemos platicado hasta ahora es que el producto AB se puede pensar de cualquiera de las dos formas siguientes:

  • Como la transformación lineal que corresponde a la composición de las transformaciones de A y B.
  • Como la matriz cuyas entradas están dadas por la regla del producto.

Ambas formas de ver al producto tienen ventajas y desventajas. Usaremos una o la otra según nos convenga.

Ejemplos de producto de matrices

Ejemplo. Si A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix} y B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix} son matrices en M_2(F), entonces el producto existe y por el teorema tenemos que

    \begin{align*}AB= \begin{pmatrix}a_{11}b_{11}+a_{12}b_{21} & a_{11} b_{12}+ a_{12}b_{22}\\a_{21}b_{11}+a_{22}b_{21} & a_{21}b_{12} +a_{22}b_{22} \end{pmatrix}.\end{align*}

Observa que si C_1 y C_2 son las dos columnas de B, entonces las dos columnas de AB son AC_1 y AC_2. Esta es una buena forma de recordar cómo hacer el producto.

\square

Ejemplo. Si A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\ a_{31} & a_{32} \end{pmatrix} y B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix} entonces el producto AB es una matriz de tamaño 3\times 2, y está dada por

    \begin{align*}AB=\begin{pmatrix} a_{11} b_{11} + a_{12} b_{21} & a_{11} b_{12}+ a_{12} b_{22}\\a_{21} b_{11} + a_{22} b_{21} & a_{21} b_{12} + a_{22} b_{22}\\a_{31}b_{11}+a_{32}b_{21} & a_{31} b_{12} +a_{32} b_{22} \end{pmatrix}.\end{align*}

\square

Ejemplo. Tomando en cuenta el ejemplo anterior con las matrices A=\begin{pmatrix} 1 &2  \\ 3 & 4\\ 5& 6\end{pmatrix} y B=\begin{pmatrix} 1& -1\\ 0 & 2\end{pmatrix} entonces

    \begin{align*} AB=\begin{pmatrix} 1 & 3\\ 3 & 5 \\ 5 &7  \end{pmatrix}.\end{align*}

\square

Observa que no podemos hacer el producto BA, pues la cantidad de columnas de B es 2, la cantidad de filas de A es 3, y estos números no coinciden.

Ejemplo. Si A=\begin{pmatrix} 1& 0\\ 0 & 0\end{pmatrix} y B=\begin{pmatrix} 0 & 0 \\ 2& 0\end{pmatrix} entonces podemos calcular tanto AB como BA y obtenemos

    \begin{align*}AB=\begin{pmatrix} 0 & 0\\0 & 0 \end{pmatrix}=O_2 \hspace{5mm} \text{ y } \hspace{5mm} BA=\begin{pmatrix} 0 & 0 \\ 2 & 0\end{pmatrix}.\end{align*}

\square

Propiedades básicas del producto

El último ejemplo de la sección pasada refleja dos cosas importantes del producto de matrices:

  • El producto no es conmutativo. Es decir, aunque existan ambos AB y BA, estos no tienen por qué coincidir.
  • Aunque A y B no sean cero, su producto si puede serlo. En el ejemplo A y B eran distintas de cero pero AB=O_2.

Definición. Dos matrices A,B\in M_n(F) conmutan si AB=BA.

Entonces uno tiene que tener cuidado cuando realiza manipulaciones algebraicas con matrices, pues muchas propiedades a las que estamos acostumbrados en campos dejan de ser ciertas.

Ejemplo. En un campo, uno generalmente usa las reglas para desarrollar cuadrados:

    \begin{align*} (a+b)^2&=a^2+2ab+b^2, \\(a+b)(a-b)&=a^2-b^2 .\end{align*}

Sin embargo, trabajando con matrices estas identidades dejan de ser ciertas, y son reemplazadas por una versión menos sencilla:

    \begin{align*}(A+B)^2&= A^2+AB+BA+B^2,\\(A+B)(A-B)&=A^2-AB+BA-B^2.\end{align*}

Estas coinciden con las correspondientes en el campo solo si A y B conmutan.

\square

Sin embargo, hay buenas noticias. Aparte de la conmutatividad, muchas otras propiedades algebraicas deseables se preservan, y las resumimos en la siguiente proposición:

Proposición. La multiplicación de matrices satisface las siguientes:

  1. Asociatividad: Se cumple que (AB)C=A(BC) para cualesquiera matrices A\in M_{m,n}(F), B\in M_{n,p}(F), C\in M_{p,q}(F).
  2. Compatibilidad con el producto por escalares: Se cumple que \alpha(AB)=(\alpha A)B= A(\alpha B) para cualesquiera \alpha \in F, A\in M_{m,n}(F), B\in M_{n,p}(F).
  3. Distributividad con respecto a la suma: Se cumplen

    \begin{align*}(A+B)C&=AC+BC\\D(A+B)&= DA+DB\end{align*}

para cualesquiera A,B\in M_{m,n}(F), C\in M_{n,p}(F) y D\in M_{p,m}(F).

Demostración: La demostración de estas propiedades se sigue directamente de la definición, o bien haciendo los cálculos a través de la regla del producto. Probaremos la asociatividad usando la definición, para mostrar las ventajas que tiene pensar al producto como la matriz correspondiente a la composición. Tras ver la demostración, piensa en lo tedioso que sería hacer la prueba usando la regla del producto.

Para verificar la asociatividad, basta ver que las transformaciones lineales de (AB)C y A(BC) son iguales (vimos en ésta entrada que si dos matrices tienen la misma transformación asociada, entonces son iguales). Es decir, que para todo X\in F^q se cumple que

    \begin{align*}((AB)C)X=(A(BC))X.\end{align*}

Por definición del producto, tenemos que

    \begin{align*}((AB)C)X= (AB)(CX)= A(B(C(X)),\end{align*}

y desarrollando análogamente A(BC)X tenemos

    \begin{align*}A(BC)X= A((BC)X)= A(B(C(X)).\end{align*}

Comparando ambas expresiones se sigue el resultado. Como mencionamos, esto se pudo haber probado usando la regla del producto, comparando la (i,j)-ésima entrada de (AB)C y la de A(BC), verificando que ambas son iguales a

    \begin{align*}\sum_{k,l} a_{ik}b_{kl} c_{lj}.\end{align*}

\square

Observación. Gracias a la asociatividad del producto, podemos escribir ABC en lugar de (AB)C o de A(BC), aligerando la notación. Esto es más útil con más factores, por ejemplo el poder escribir ABCD en lugar de (A(BC))D o A(B(CD)). Así mismo, tampoco tenemos ambigüedad al definir el producto de cualquier número de matrices. Usaremos la notación

    \begin{align*}A^n= A\cdot A\cdot \ddots \cdot A,\end{align*}

donde el lado derecho tiene n factores. Esta es la nésima potencia de una matriz cuadrada A. Por construcción

    \begin{align*}A^n= A\cdot A^{n-1}.\end{align*}

Y tomaremos como convención que A^0=I_n para cualquier A\in M_n(F). Dejamos como tarea moral el verificar que I_n actúa como un neutro para la multiplicación, es decir que para cualquier matriz A de tamaño m\times n se tiene

    \begin{align*}A\cdot I_n=A \hspace{2mm} \text{ y } \hspace{2mm} I_m \cdot A=A.\end{align*}

Acabamos esta sección con un problema para practicar los conceptos vistos.

Problema. Sea A(x)\in M_3(\mathbb{R}) la matriz definida por

    \begin{align*}A(x)=\begin{pmatrix} 1 & x& x^2\\ 0 & 1 & 2x\\ 0 & 0 & 1\end{pmatrix}.\end{align*}

Demuestra que A(x_1)A(x_2)=A(x_1+x_2) para cualesquiera x_1,x_2\in \mathbb{R}.

Solución. En este problema es más conveniente usar la regla del producto, que pensar a la composición de transformaciones. En todo problema es recomendable pensar en cuál de las formas del producto conviene más usar.

Usando la regla del producto, tenemos que

    \begin{align*}A(x_1)A(x_2)&= \begin{pmatrix} 1 & x_1 & x_1^2\\ 0 & 1 & 2x_1\\ 0 & 0 & 1 \end{pmatrix}\begin{pmatrix} 1 & x_2 & x_2^2\\ 0 & 1 & 2x_2\\ 0 & 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 1 & x_2+x_1 & x_2^2+2x_1 x_2+x_1^2\\0 & 1 & 2x_2+2x_1\\0 & 0 & 1\end{pmatrix} \\&= \begin{pmatrix} 1 & x_1+x_2 & (x_1+x_2)^2\\0 & 1 & 2(x_1+x_2)\\0 & 0 & 1 \end{pmatrix}.\end{align*}

Y el lado derecho es simplemente A(x_1+x_2).

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Realiza la operación

        \[\begin{pmatrix}2 & 1 & 0 \\ 1 & 2 & 0 \\ 0 & -1 & 0\end{pmatrix}^4.\]

  • Toma al vector canónico e_i de F^n pensado como matriz en M_{1n}(F) y al vector canónico e_j de F^n pensado como matriz en M_{n1}(F). ¿Quién es el producto de matrices e_ie_j? ¿Quién es el producto de matrices e_je_i?
  • Verifica las propiedades de compatibilidad con el producto por escalares y distributividad con respecto a la suma del producto de matrices.
  • Verifica que las matrices identidad actúan como neutro para la multiplicación de matrices.
  • Recuerda (o investiga) los axiomas de un anillo con unidad y verifica que las matrices cuadradas de tamaño n forman un anillo con unidad para cualquier n.

Más adelante…

Si bien en esta entrada definimos el producto de matrices y estudiamos su relación con la composición de matrices, esto no es más que el primer paso de un estudio más grande: Ahora nos podemos hacer preguntas sobre transformaciones lineales (por ejemplo, ¿será biyectiva o invertible?) y estudiarlas en términos de matrices y su producto. Más adelante en el curso entrará el concepto de determinante que jugará un papel fundamental para responder muchas de estas preguntas.

Entradas relacionadas

4 comentarios en “Álgebra Lineal I: Producto de matrices y composición de sus transformaciones

  1. JP Antuna

    En el problema que se encuentra justo antes del apartado “Próximamente” hay un error de typing. Cuando se hace el producto A(x_1)A(x_2), la segunda matriz (correspondiente a A(x2)) debería tener “x_2” en lugar de “x_1” en la entrada (1,2)

    Responder
  2. José Luis Lugo Castillo

    Buen día. Revisando la observación que sigue a la definición del producto de matrices, creo que hay un pequeño error. El texto dice: al identificar de vuelta [a Mm,1(F)] con F^n, cuando debería ser con F^m

    Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.