Archivo de la etiqueta: biyección

Álgebra Superior II: Inmersión de $\mathbb{N}$ en $\mathbb{Z}$

Introducción

Desde la educación básica pensamos al conjunto de los números enteros como aquél que está conformado por los naturales, sus negativos y el cero: $$\mathbb{Z} = \{ \ldots -3, -2, -1, 0, 1, 2, 3, \ldots \} .$$ Sin embargo, para poder fundamentar nuestra construcción, hasta ahora tenemos que el conjunto $\mathbb{Z}$ consiste por definición de ciertas clases de equivalencia de una relación en $\mathbb{N}\times \mathbb{N}$. ¡Observa que ni siquiera $\mathbb{N}$ es un subconjunto de $\mathbb{Z}$ a partir de esta definición! ¿Cómo le hacemos para que estos dos puntos de vista coincidan?

En esta entrada veremos dos cosas muy importantes que nos permitirán unificar ambas ideas. Lo primero que haremos es ver que, en efecto, podemos pensar que $\mathbb{N}$ «es un subconjunto» de $\mathbb{Z}$. Esto lo ponemos entre comillas pues en realidad lo que demostraremos es que hay una copia de $\mathbb{N}$ dentro de $\mathbb{Z}$, con toda la estructura que tenía $\mathbb{N}$ originalmente: sus operaciones, sus identidades, su orden.

Después de esto, nos enfocaremos en ver que $\mathbb{Z}$ consiste exactamente de esta copia y de sus inversos aditivos. Así, habremos formalizado que $\mathbb{Z}$ consiste exactamente de los naturales, sus inversos aditivos y ningún otro elemento.

Inmersión de los naturales en los enteros

En la entrada anterior hablamos acerca del orden en $\mathbb{Z}$. Para ello hablamos del conjunto de enteros positivos $P$. También definimos las relaciones $<$ y $\leq$. En un sentido bastante formal, los enteros mayores o iguales a cero son exactamente los números naturales. La manera en la que enunciamos este resultado es la siguiente.

Teorema. Existe una función biyectiva $\gamma:\mathbb{N}\to P\cup \{\overline{(0,0)}\}$ que preserva las operaciones de suma, producto, el inverso aditivo, el inverso multiplicativo y el orden. Esta función está dada por $\gamma(n)=\overline{(n,0)}$.

Una vez que demostremos esto, la imagen $\gamma(\mathbb{N})$ será exactamente la «copia» de los naturales que vive en los enteros y que precisamente tiene todas las propiedades algebraicas de los naturales que nos interesaban.

Para hacer la demostración de este teorema, probaremos el resultado poco a poco, a través de varios lemas.

Lema 1. La función $\gamma$ está bien definida y es biyectiva.

Demostración. La función $\gamma$ está bien definida pues las clases del estilo $\overline{(n,0)}$ siempre están en $P\cup \{\overline{(0,0)}\}$: si $n=0$, entonces obtenemos la clase $\overline{(0,0)}$ y si $n\neq 0$, entonces $n>0$, lo cual justifica que $\overline{(n,0)}$ es un entero positivo, es decir, en $P$.

Veamos que la función $\gamma$ es biyectiva. Para ver que es inyectiva tomamos dos naturales $m$ y $n$ tales que $\gamma(m)=\gamma(n)$, es decir, tales que $\overline{(m,0)}=\overline{(n,0)}$. Esto quiere decir que $m+0=n+0$, pero entonces $m=n$. Para ver que es suprayectiva, ya sabemos que tomemos una clase $\overline{(a,b)}$ en $P\cup \{\overline{(0,0)}\}$. Por lo visto en la entrada anterior, esto nos dice que $a\geq b$, pero entonces existe un natural $k$ tal que $a=b+k$, de modo que $a+0=b+k$ y por lo tanto $\overline{(a,b)}=\overline{(k,0)}$. Con esto concluimos que $$\gamma(k)=\overline{(k,0)}=\overline{(a,b)}.$$

$\square$

Observa que, sin embargo, no sucede que $\gamma(\mathbb{N})$ sea todo $\mathbb{Z}$. Es decir, hay enteros diferentes de las clases $\overline{(n,0)}$, por ejemplo, el $\overline{(0,1)}$. Se puede verificar que la imagen de $\gamma$ cubre a los enteros no negativos y sólo a esos.

Regresando al enunciado del teorema, lo que veremos ahora es que $\gamma$ respeta las operaciones de suma y producto, así como sus respectivas identidades.

Lema 2. Para cualesquiera naturales $m$ y $n$ se cumple que $$\gamma(m)+\gamma(n)=\gamma(m+n)$$ y que $$\gamma(m)\gamma(n)=\gamma(mn).$$ Además, $\gamma(0)$ es la identidad aditiva en $\mathbb{Z}$ y $\gamma(1)$ es la identidad multiplicativa en $\mathbb{Z}$.

Demostración. Basta usar la definición de $\gamma$ y de la suma en $\mathbb{Z}$:
\begin{align*}
\gamma (m)+\gamma(n)&=\overline{(m,0)}+\overline{(n,0)}\\
&= \overline{(m+n,0)}\\
&=\gamma{m+n}.
\end{align*}

De modo similar, para el producto usamos la definición de $\gamma$ y la del producto en $\mathbb{Z}$:

\begin{align*}
\gamma (m)\gamma(n)&=\overline{(m,0)}\overline{(n,0)}\\
&= \overline{(mn+0\cdot 0,m\cdot 0 + 0 \cdot n)}\\
&= \overline{(mn,0)}\\
&=\gamma{mn}.
\end{align*}

La parte de las identidades es sencilla de hacer y queda como tarea moral.

$\square$

Ya vimos que $\gamma$ respeta las operaciones. Ahora veamos que también respeta el orden.

Lema 3. Para cualesquiera naturales $m$ y $n$, sucede que $m < n$ si y sólo si $\gamma(m) < \gamma(n)$.

Demostración. Por definición de $\gamma$, tenemos que $\gamma(m)<\gamma(n)$ si y sólo si $\overline{(m,0)}<\overline{(n,0)}$. En la entrada anterior vimos que esto sucede si y sólo si en $\mathbb{N}$ tenemos que $m+0<n+0$. Pero esto es justo $m<n$.

$\square $

Los lemas 1, 2 y 3 conforman la demostración del teorema de esta sección.

Caracterización de los enteros

En vista del teorema de la sección anterior, dentro de $\mathbb{Z}$ hay metida una copia de $\mathbb{N}$. ¿Cuáles son los otros elementos de $\mathbb{Z}$? ¿Hay muchos más enteros que eso? La respuesta es que no. Para acabar de tener a todos los elementos de $\mathbb{Z}$ basta con tomar esta copia de los enteros y considerar a sus inversos aditivos.

Proposición. Para cualquier entero $\overline{(a,b)}$, tenemos que sucede una y exactamente una de las afirmaciones siguientes:

  • $\overline{(a,b)}=\overline{(0,0)}$.
  • $\overline{(a,b)}=\overline{(n,0)}$ para algún natural $n\neq 0$.
  • $\overline{(a,b)}=\overline{(0,n)}$ para algún natural $n\neq 0$.

Demostración. Por el principio de tricotomía en $\mathbb{N}$, sabemos que se cumple una y exactamente una de las afirmaciones siguientes:

  • $a=b$
  • $a>b$
  • $a<b$

Si pasa la primera, entonces $\overline{(a,b)}=\overline{(0,0)}$. Si pasa la segunda, es porque existe un natural $n\neq 0$ tal que $a=b+n$, pero entonces $a+0=b+n$ y así $\overline{(a,b)}=\overline{(n,0)}$. Si pasa la tercera, es porque existe un natural $n,0$ tal que $a+n=b=b+0$, y entonces $\overline{(a,b)}=\overline{(0,n)}$.

De esta manera, se ve que siempre se cumple al menos una de las afirmaciones del enunciado. Ver que se cumple a lo más una es sencillo y queda como tarea moral.

$\square$

Siguiendo la demostración anterior con cuidado, nos damos cuenta que los casos corresponden precisamente al entero cero, a los positivos y a los negativos. La proposición anterior es una manera de ilustrar, en particular, que hay que hay el mismo número de números naturales positivos como números enteros negativos: a cada uno de ellos le podemos asociar (de manera biyectiva), un natural. Otra forma de dar esta biyección es mandar el entero positivo $\overline{(n,0)}$ al entero negativo $\overline{(0,n)}$, que es precisamente su inverso aditivo.

Re-etiquetando a los enteros

Estamos listos para abandonar la notación de parejas y clases de equivalencia. En vista de los resultados anteriores, cualquier entero positivo $\overline{(a,b)}$ es el mismo que un entero de la forma $\overline{(n,0)}$. Y los enteros de esta forma justo conforman una copia de $\mathbb{N}$ con toda la estructura algebraica que nos interesa. Así, ya nunca más tenemos que llamar a $\overline{(a,b)}$ con este nombre: basta simplemente llamarlo $n$.

Si tenemos un entero de la forma $\overline{(a,b)}$ con $a=b$, entonces simplemente lo llamaremos $0$. Y finalmente, si el entero $\overline{(a,b)}$ es negativo, podemos escribirlo de la forma $\overline{(0,n)}$ y en vista de lo anterior simplemente lo llamaremos $-n$. Todo esto funciona bien, porque también sabemos que justo $\overline{(n,0)}$ y $\overline{(0,n)}$ son inversos aditivos entre sí.

Pero, ¿cómo sabremos si al usar el símbolo $1$ nos estamos refiriendo al natural $\{\emptyset\}$ o al entero $\overline{(\{\emptyset\},\emptyset)}$? En realidad ya no es relevante, pues tenemos la total garantía de que los enteros no negativos se comportan exactamente como $\mathbb{N}$.

De esta manera, $$\mathbb{Z} = \{ \ldots -3, -2, -1, 0, 1, 2, 3, \ldots \}$$ y además tenemos la total garantía de que los enteros no negativos se comportan exactamente como los naturales.

Tarea moral

  1. Muestra que en efecto no existe ningún natural $m$ tal que $\gamma(m)=\overline{(0,1)}$.
  2. Verifica que $\gamma(0)$ es la identidad aditiva de $\mathbb{Z}$ y $\gamma(1)$ es su identidad multiplicativa.
  3. Explica por qué para un entero $\overline{(a,b)}$ no puede suceder más de una de las siguientes afirmaciones:
    • $\overline{(a,b)}=\overline{(0,0)}$.
    • $\overline{(a,b)}=\overline{(n,0)}$ para algún natural $n\neq 0$.
    • $\overline{(a,b)}=\overline{(0,n)}$ para algún natural $n\neq 0$.
  4. La función $\gamma$ no es una biyección entre $\mathbb{N}$ y $\mathbb{Z}$. Pero sí existen biyecciones entre estos dos conjuntos. Construye una y demuestra que en efecto es una biyección.
  5. Da una biyección que muestre que el conjunto de los enteros no negativos pares, $\{0, 2, 4, 6, \ldots\}$ y el conjunto de los enteros no negativos positivos, $\{ 0, 1, 2, 3, \ldots \}$ tienen la misma cardinalidad. ¿Será posible construir la biyección de modo que se preserve la operación de suma? ¿Será posible construirla de modo que se preserve la operación de producto?

Más adelante

Después de liberar la gran carga que teníamos de usar la notación de parejas y de relaciones de equivalencia, ahora ya podemos usar a los enteros tal y como los conocíamos desde educación básica: como el cero, los enteros que no son cero, y sus negativos. Además, gracias a todo lo que demostramos, ya podemos utilizar las propiedades de la suma, el producto y el orden con la confianza de que están bien fundamentadas.

Lo que sigue es estudiar con más profundidad al conjunto $\mathbb{Z}$. Aunque no haya propiamente «divisiones exactas» en este conjunto, sí podemos preguntarnos qué sucede cuando dividimos un entero por otro, y cuánto queda. Esto lleva a las nociones de divisibilidad y residuos, que a su vez llevan a áreas muy interesantes de las matemáticas como el álgebra moderna y la teoría de números.

Entradas relacionadas

Álgebra Lineal I: Producto de matrices y composición de sus transformaciones

Introducción

En una entrada previa estudiamos el vínculo entre las matrices y las transformaciones lineales. Más precisamente vimos que existe una biyección entre ambos conjuntos, de manera que tener una matriz de $m\times n$ con entradas en algún campo $F$ es lo mismo que tener una transformación lineal $\varphi: F^n \to F^m$. En esta entrada, estudiaremos cómo esta correspondencia se comporta respecto a las dos operaciones ‘naturales’ en ambos: el producto de matrices y la composición de funciones.

Veremos que multiplicar matrices se corresponde con componer sus transformaciones lineales y vice versa. Esto puede explicar algunos fenómenos de la multiplicación de matrices que pueden ser extraños al principio, como la falta de conmutatividad ($AB\neq BA$) entre otros.

El producto de matrices

Sean $m,n,p$ números naturales positivos y sean $A\in M_{m,n}(F), B\in M_{n,p}(F)$ dos matrices. Es importante observar que el número de columnas de $A$ es el mismo que el de renglones de $B$. Esto es fundamental para que el producto de matrices esté definida.

Por nuestra correspondencia previa, sabemos que tanto a $A$ como a $B$ les corresponden transformaciones lineales

\begin{align*}
\varphi_{A}: F^n\to F^m \hspace{3mm} \varphi_B: F^p\to F^n
\end{align*}

Recuerda que $\varphi_A$ es la transformación que manda a $X\in F^n$ en $AX\in F^m$ y $\varphi_B$ es la transformación que manda a $Y\in F^p$ en $BY\in F^n$.

Podemos entonces preguntarnos por la composición

\begin{align*}
\varphi_A\circ \varphi_B: F^{p}\to F^m \hspace{5mm} (\varphi_A\circ \varphi_B)(X)= \varphi_A\left(\varphi_B(X)\right),
\end{align*}

la cual primero manda a un $X$ de $F^{p}$ a $BX$, y luego a este lo manda a $A(BX)$.

Como $\varphi_A$ y $\varphi_B$ son lineales, podemos verificar que la composición también lo es. Para verificar esto, si $X,Y\in F^{p}$ son arbitrarios así como $\alpha, \beta\in F$, entonces

\begin{align*}
(\varphi_A\circ \varphi_B)\left(\alpha X+\beta Y\right) &= \varphi_A\left(\varphi_B\left(\alpha X+\beta Y\right) \right)\\
&= \varphi_A\left( \alpha \varphi_B(X)+\beta \varphi_B(Y)\right)\\
&=\alpha\varphi_A\left(\varphi_B(X)\right) +\beta \varphi_A\left(\varphi_B(Y)\right)\\
&= \alpha \cdot (\varphi_A\circ \varphi_B) (X) +\beta\cdot (\varphi_A\circ \varphi_B)(Y) .
\end{align*}

Aqui la segunda igualdad se debe a que $\varphi_B$ es lineal y la tercera porque $\varphi_A$ lo es. En el resto de las igualdades estamos usando la definición de la composición.

Como $\varphi_A\circ \varphi_B$ es una transformación lineal, por el teorema de correspondencia entre matrices y transformaciones lineales, debe existir una única matriz $C\in M_{m,p}(F)$ tal que

\begin{align*}
\varphi_A\circ \varphi_B = \varphi_C.
\end{align*}

Esto motiva la siguiente (importante) definición:

Definición. El producto de dos matrices $A\in M_{m,n}(F)$ y $B\in M_{n,p}(F)$ (de nuevo, observamos que el número de renglones de $B$ y el número de columnas de $A$ deben coincidir) es la única matriz $AB\in M_{m,p}(F)$ tal que

\begin{align*}
A(B(X))=(AB)(X)
\end{align*}

Para todo $X\in F^p$.

Un truco para acordarse de la condición de compatibilidad en renglones y columnas es pensar en términos de transformaciones lineales: Sabemos que dos funciones $f$ y $g$ se pueden componer solo si el codominio de una es el dominio de la otra.

Observación. Como mencionamos previamente, podemos identificar a $F^n$ con el espacio $M_{n,1}(F)$ (esto es especialmente claro cuando escribimos un vector en columna: Tenemos $n$ renglones y una sola columna). Así, si a un vector $X\in F^n$ lo identificamos con su matriz $\widetilde{X}\in M_{n,1}(F)$ entonces podemos considerar el producto $A\widetilde{X}\in M_{m,1}(F)$, que resulta (al identificar de vuelta con $F^m$) coincide con $AX$. Es decir, pensar la aplicación $AX$ como una transformación o como un producto de matrices no afecta el resultado, aunque es recomendable (para nuestros propósitos) pensarlo como una transformación lineal.

Calculando el producto de matrices

Si bien la definición que dimos del producto tiene sentido desde una perspectiva un poco más abstracta, queremos poder calcular explícitamente el producto $AB$ sabiendo las entradas de $A$ y de $B$.

Para esto, sean $A=[a_{ij}]$ y $B=[b_{ij}]$ con tamaños como en la definición. Sea $e_1, \dots, e_p$ la base canónica de $F^p$. Entonces $(AB) e_j$ es la $j$-ésima columna de $AB$ (por una observación que hicimos aquí). Denotaremos por $C_1(A), \dots, C_n(A)$ y $C_1(B), \dots, C_p(B)$ a las columnas de $A$ y las de $B$ respectivamente. Usando la misma observación, podemos escribir

\begin{align*}
A(Be_j)&=AC_j(B)\\
&= b_{1j}C_1(A)+b_{2j}C_2(A)+\dots + b_{nj} C_n(A).
\end{align*}

Para la segunda igualdad, estamos usando la segunda parte de la observación de esta entrada. Por definición del producto, tenemos que $A(Be_j)=(AB)e_j=C_j(AB)$. Juntando esto con la igualdad anterior, tenemos

\begin{align*}
C_j(AB)= b_{1j} C_1(A)+b_{2j} C_2(A)+\dots + b_{nj} C_n(A).
\end{align*}

Estamos muy cerca de encontrar cualquier entrada $(i,j)$ del producto. Notamos que esta entrada está en la fila $i$ de $C_j(AB)$. Haciendo las operaciones entrada a entrada, obtenemos entonces que

\begin{align*}
(AB)_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j} +\dots +a_{in}b_{nj}.
\end{align*}

La discusión anterior prueba el siguiente resultado.

Teorema. (Regla del producto) Sean $A=[a_{ij}]\in M_{m,n}(F)$ y $B=[b_{ij}]\in M_{n,p}(F)$. Entonces la $(i,j)$-ésima entrada de $AB$ está dada por

\begin{align*}
(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj} .
\end{align*}

Hubiéramos podido dar como definición de $AB$ a la matriz con las entradas que especifica el teorema, pero esto hubiera escondido la motivación detrás de la definición: A ojos del álgebra lineal, las matrices «son» transformaciones lineales y el producto, su composición.

Lo más importante a recuperar de lo que hemos platicado hasta ahora es que el producto $AB$ se puede pensar de cualquiera de las dos formas siguientes:

  • Como la transformación lineal que corresponde a la composición de las transformaciones de $A$ y $B$.
  • Como la matriz cuyas entradas están dadas por la regla del producto.

Ambas formas de ver al producto tienen ventajas y desventajas. Usaremos una o la otra según nos convenga.

Ejemplos de producto de matrices

Ejemplo. Si $A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix}$ y $B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix}$ son matrices en $M_2(F)$, entonces el producto existe y por el teorema tenemos que

\begin{align*}
AB= \begin{pmatrix}
a_{11}b_{11}+a_{12}b_{21} & a_{11} b_{12}+ a_{12}b_{22}\\
a_{21}b_{11}+a_{22}b_{21} & a_{21}b_{12} +a_{22}b_{22}
\end{pmatrix}.
\end{align*}

Observa que si $C_1$ y $C_2$ son las dos columnas de $B$, entonces las dos columnas de $AB$ son $AC_1$ y $AC_2$. Esta es una buena forma de recordar cómo hacer el producto.

$\square$

Ejemplo. Si $A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\ a_{31} & a_{32} \end{pmatrix}$ y $B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix}$ entonces el producto $AB$ es una matriz de tamaño $3\times 2$, y está dada por

\begin{align*}
AB=\begin{pmatrix} a_{11} b_{11} + a_{12} b_{21} & a_{11} b_{12}+ a_{12} b_{22}\\
a_{21} b_{11} + a_{22} b_{21} & a_{21} b_{12} + a_{22} b_{22}\\
a_{31}b_{11}+a_{32}b_{21} & a_{31} b_{12} +a_{32} b_{22}
\end{pmatrix}.
\end{align*}

$\square$

Ejemplo. Tomando en cuenta el ejemplo anterior con las matrices $A=\begin{pmatrix} 1 &2 \\ 3 & 4\\ 5& 6\end{pmatrix}$ y $B=\begin{pmatrix} 1& -1\\ 0 & 2\end{pmatrix}$ entonces

\begin{align*}
AB=\begin{pmatrix} 1 & 3\\ 3 & 5 \\ 5 &7 \end{pmatrix}.
\end{align*}

$\square$

Observa que no podemos hacer el producto $BA$, pues la cantidad de columnas de $B$ es $2$, la cantidad de filas de $A$ es $3$, y estos números no coinciden.

Ejemplo. Si $A=\begin{pmatrix} 1& 0\\ 0 & 0\end{pmatrix}$ y $B=\begin{pmatrix} 0 & 0 \\ 2& 0\end{pmatrix}$ entonces podemos calcular tanto $AB$ como $BA$ y obtenemos

\begin{align*}
AB=\begin{pmatrix} 0 & 0\\
0 & 0 \end{pmatrix}=O_2 \hspace{5mm} \text{ y } \hspace{5mm} BA=\begin{pmatrix} 0 & 0 \\ 2 & 0\end{pmatrix}.
\end{align*}

$\square$

Propiedades básicas del producto

El último ejemplo de la sección pasada refleja dos cosas importantes del producto de matrices:

  • El producto no es conmutativo. Es decir, aunque existan ambos $AB$ y $BA$, estos no tienen por qué coincidir.
  • Aunque $A$ y $B$ no sean cero, su producto si puede serlo. En el ejemplo $A$ y $B$ eran distintas de cero pero $AB=O_2$.

Definición. Dos matrices $A,B\in M_n(F)$ conmutan si $AB=BA$.

Entonces uno tiene que tener cuidado cuando realiza manipulaciones algebraicas con matrices, pues muchas propiedades a las que estamos acostumbrados en campos dejan de ser ciertas.

Ejemplo. En un campo, uno generalmente usa las reglas para desarrollar cuadrados:

\begin{align*}
(a+b)^2&=a^2+2ab+b^2, \\
(a+b)(a-b)&=a^2-b^2 .
\end{align*}

Sin embargo, trabajando con matrices estas identidades dejan de ser ciertas, y son reemplazadas por una versión menos sencilla:

\begin{align*}
(A+B)^2&= A^2+AB+BA+B^2,
\\(A+B)(A-B)&=A^2-AB+BA-B^2.
\end{align*}

Estas coinciden con las correspondientes en el campo solo si $A$ y $B$ conmutan.

$\square$

Sin embargo, hay buenas noticias. Aparte de la conmutatividad, muchas otras propiedades algebraicas deseables se preservan, y las resumimos en la siguiente proposición:

Proposición. La multiplicación de matrices satisface las siguientes:

  1. Asociatividad: Se cumple que $(AB)C=A(BC)$ para cualesquiera matrices $A\in M_{m,n}(F), B\in M_{n,p}(F), C\in M_{p,q}(F)$.
  2. Compatibilidad con el producto por escalares: Se cumple que $\alpha(AB)=(\alpha A)B= A(\alpha B)$ para cualesquiera $\alpha \in F, A\in M_{m,n}(F), B\in M_{n,p}(F)$.
  3. Distributividad con respecto a la suma: Se cumplen

\begin{align*}
(A+B)C&=AC+BC\\
D(A+B)&= DA+DB
\end{align*}

para cualesquiera $A,B\in M_{m,n}(F)$, $C\in M_{n,p}(F)$ y $D\in M_{p,m}(F).$

Demostración: La demostración de estas propiedades se sigue directamente de la definición, o bien haciendo los cálculos a través de la regla del producto. Probaremos la asociatividad usando la definición, para mostrar las ventajas que tiene pensar al producto como la matriz correspondiente a la composición. Tras ver la demostración, piensa en lo tedioso que sería hacer la prueba usando la regla del producto.

Para verificar la asociatividad, basta ver que las transformaciones lineales de $(AB)C$ y $A(BC)$ son iguales (vimos en ésta entrada que si dos matrices tienen la misma transformación asociada, entonces son iguales). Es decir, que para todo $X\in F^q$ se cumple que

\begin{align*}
((AB)C)X=(A(BC))X.
\end{align*}

Por definición del producto, tenemos que

\begin{align*}
((AB)C)X= (AB)(CX)= A(B(C(X)),
\end{align*}

y desarrollando análogamente $A(BC)X$ tenemos

\begin{align*}
A(BC)X= A((BC)X)= A(B(C(X)).
\end{align*}

Comparando ambas expresiones se sigue el resultado. Como mencionamos, esto se pudo haber probado usando la regla del producto, comparando la $(i,j)$-ésima entrada de $(AB)C$ y la de $A(BC)$, verificando que ambas son iguales a

\begin{align*}
\sum_{k,l} a_{ik}b_{kl} c_{lj}.
\end{align*}

$\square$

Observación. Gracias a la asociatividad del producto, podemos escribir $ABC$ en lugar de $(AB)C$ o de $A(BC)$, aligerando la notación. Esto es más útil con más factores, por ejemplo el poder escribir $ABCD$ en lugar de $(A(BC))D$ o $A(B(CD))$. Así mismo, tampoco tenemos ambigüedad al definir el producto de cualquier número de matrices. Usaremos la notación

\begin{align*}
A^n= A\cdot A\cdot \ddots \cdot A,
\end{align*}

donde el lado derecho tiene $n$ factores. Esta es la $n$-ésima potencia de una matriz cuadrada $A$. Por construcción

\begin{align*}
A^n= A\cdot A^{n-1}.
\end{align*}

Y tomaremos como convención que $A^0=I_n$ para cualquier $A\in M_n(F)$. Dejamos como tarea moral el verificar que $I_n$ actúa como un neutro para la multiplicación, es decir que para cualquier matriz $A$ de tamaño $m\times n$ se tiene

\begin{align*}
A\cdot I_n=A \hspace{2mm} \text{ y } \hspace{2mm} I_m \cdot A=A.
\end{align*}

Acabamos esta sección con un problema para practicar los conceptos vistos.

Problema. Sea $A(x)\in M_3(\mathbb{R})$ la matriz definida por

\begin{align*}
A(x)=\begin{pmatrix} 1 & x& x^2\\ 0 & 1 & 2x\\ 0 & 0 & 1\end{pmatrix}.
\end{align*}

Demuestra que $A(x_1)A(x_2)=A(x_1+x_2)$ para cualesquiera $x_1,x_2\in \mathbb{R}$.

Solución. En este problema es más conveniente usar la regla del producto, que pensar a la composición de transformaciones. En todo problema es recomendable pensar en cuál de las formas del producto conviene más usar.

Usando la regla del producto, tenemos que

\begin{align*}
A(x_1)A(x_2)&= \begin{pmatrix} 1 & x_1 & x_1^2\\ 0 & 1 & 2x_1\\ 0 & 0 & 1 \end{pmatrix}\begin{pmatrix} 1 & x_2 & x_2^2\\ 0 & 1 & 2x_2\\ 0 & 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 1 & x_2+x_1 & x_2^2+2x_1 x_2+x_1^2\\
0 & 1 & 2x_2+2x_1\\
0 & 0 & 1\end{pmatrix} \\
&= \begin{pmatrix} 1 & x_1+x_2 & (x_1+x_2)^2\\
0 & 1 & 2(x_1+x_2)\\
0 & 0 & 1 \end{pmatrix}.
\end{align*}

Y el lado derecho es simplemente $A(x_1+x_2)$.

$\square$

Tarea moral

  • Realiza la operación $$\begin{pmatrix}2 & 1 & 0 \\ 1 & 2 & 0 \\ 0 & -1 & 0\end{pmatrix}^4.$$
  • Toma al vector canónico $e_i$ de $F^n$ pensado como matriz en $M_{1n}(F)$ y al vector canónico $e_j$ de $F^n$ pensado como matriz en $M_{n1}(F)$. ¿Quién es el producto de matrices $e_ie_j$? ¿Quién es el producto de matrices $e_je_i$?
  • Verifica las propiedades de compatibilidad con el producto por escalares y distributividad con respecto a la suma del producto de matrices.
  • Verifica que las matrices identidad actúan como neutro para la multiplicación de matrices.
  • Recuerda (o investiga) los axiomas de un anillo con unidad y verifica que las matrices cuadradas de tamaño $n$ forman un anillo con unidad para cualquier $n$.

Más adelante…

Si bien en esta entrada definimos el producto de matrices y estudiamos su relación con la composición de matrices, esto no es más que el primer paso de un estudio más grande: Ahora nos podemos hacer preguntas sobre transformaciones lineales (por ejemplo, ¿será biyectiva o invertible?) y estudiarlas en términos de matrices y su producto. Más adelante en el curso entrará el concepto de determinante que jugará un papel fundamental para responder muchas de estas preguntas.

Entradas relacionadas