Archivo de la etiqueta: transformaciones lineales

Álgebra Lineal I: Matrices invertibles

Introducción

Siguiendo el hilo de la entrada pasada, por la correspondencia entre transformaciones lineales y matrices así como la composición y su producto, podemos traducir el problema de invertibilidad de transformaciones lineales en términos de matrices, a las que llamaremos matrices invertibles. Es decir, si tenemos \varphi: F^n\to F^n, \psi: F^n\to F^n transformaciones lineales tales que

    \begin{align*}\varphi\circ \psi= Id_{F^n}, \hspace{2mm} \psi \circ \varphi=Id_{F^n} \end{align*}

¿cómo se traduce esto en términos de sus matrices asociadas?

Veremos que la respuesta yace en matrices que tienen inverso multiplicativo, a diferencia de un campo F, donde todo x tiene un x^{-1}, cuando trabajamos con matrices no todas tienen una matriz inversa y las que si son de especial importancia.

Definición de matrices invertibles

Definición. Decimos que una matriz A\in M_n (F) es invertible o bien no singular si existe una matriz B\in M_n(F) tal que

    \begin{align*}AB=BA=I_n\end{align*}

Ejemplo. Veamos que la matriz A=\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} es invertible. Para ello, tenemos que exhibir una matriz B tal que AB=I_2=BA. Proponemos a la matriz B=\begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}. Haciendo la multiplicación con la regla del producto, tenemos que

    \begin{align*}AB&=\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 1 \cdot 1 + 1 \cdot 0 & 1 \cdot (-1) + 1\cdot 1\\ 0 \cdot 1 + 1 \cdot 0 & 0\cdot (-1)+ 1\cdot 1\end{pmatrix}\\&=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}\\&=I_2.\end{align*}

¡Aún no hemos terminado! Para satisfacer la definición, también tenemos que mostrar que BA=I_2:

    \begin{align*}BA&=\begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 1 \cdot 1 + (-1) \cdot 0 & 1 \cdot 1 + (-1)\cdot 1\\ 0 \cdot 1 + 1 \cdot 0 & 0\cdot 1+ 1\cdot 1\end{pmatrix}\\&=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}\\&=I_2.\end{align*}

Ahora sí, podemos concluir que la matriz A es invertible.

\square

Observación. Una primera cosa que hay que notar es que en la definición se pide que tanto AB como BA sean la matriz identidad I_n. Es importante verificar ambas, pues como sabemos, el producto de matrices no siempre conmuta.

Otra observación importante es que si la matriz B como en la definición existe, entonces es necesariamente única: En efecto, si C\in M_n(F) es otra matriz tal que

    \begin{align*}AC=CA=I_n,\end{align*}

entonces manipulando las expresiones en juego:

    \begin{align*}C&= I_n C \\&= (BA)C\\&=B(AC)\\&= B I_n \\&=B.\end{align*}

Entonces no hay ambigüedad al hablar de la matriz inversa de A. Ya no tiene mucho sentido usar una letra diferente para ella. Simplemente la denotaremos por A^{-1}.

Primeras propiedades de matrices invertibles

Resumimos algunas propiedades de las matrices invertibles en la siguiente proposición.

Proposición.

  1. Para c\in F es un escalar distinto de cero, se tiene que c I_n es invertible.
  2. Si A es invertible, entonces A^{-1} también lo es, y \left(A^{-1}\right)^{-1}=A
  3. Si A,B\in M_n(F) son invertibles, entonces AB también lo es y

        \begin{align*}\left(AB\right)^{-1}= B^{-1}A^{-1}.\end{align*}

Demostración:

  1. Como c\neq 0 y F es un campo, entonces existe c^{-1} en F y así c^{-1} I_n satisface (por la compatibilidad del producto por escalares de esta entrada)

        \begin{align*}(cI_n)\cdot (c^{-1}I_n)&= (cc^{-1})\cdot (I_n I_n)\\&= I_n\\&= (c^{-1} c) \cdot(I_n)\\&= (c^{-1} I_n) \cdot (c I_n).\end{align*}


    Luego c^{-1}I_n es la matriz inversa de c I_n.
  2. Para evitar alguna confusión con la notación, denotemos a A^{-1} por B. Así

        \begin{align*}AB=BA=I_n.\end{align*}


    Luego B es invertible y su inversa es A.
  3. Si A,B\in M_n(F) son invertibles entonces existen A^{-1} y B^{-1}. Sea C= B^{-1} A^{-1}. Así

        \begin{align*}(AB)C=ABB^{-1}A^{-1}= A I_n A^{-1}= AA^{-1} =I_n.\end{align*}


    Y análogamente

        \begin{align*}C(AB)= B^{-1}A^{-1} A B= B^{-1} I_n B= B^{-1} B=I_n.\end{align*}


    Mostrando así que AB es invertible con inversa C.

\square

Observación. Es importante notar que el ‘sacar inverso’ invierte el orden de los productos. Es decir, en el producto AB aparece primero A y luego B, mientras que el inverso (AB)^{-1} es B^{-1}A^{-1}, en donde aparece primero B^{-1} y luego A^{-1}. Esto es muy importante en vista de que la multiplicación de matrices no es conmutativa y por lo tanto en general

    \begin{align*}(AB)^{-1}\neq A^{-1} B^{-1}.\end{align*}

También es importante notar que si bien la invertibilidad se preserva bajo productos (el producto de matrices invertibles es invertible) ésta no se preserva bajo sumas. Por ejemplo, tanto I_n como -I_n son invertibles en virtud del teorema, sin embargo su suma es I_n+(-I_n)=O_n, que no es invertible.

Ya hablamos de cuándo una matriz A en M_n(F) es invertible. ¿Qué sucede si consideramos a todas las matrices invertibles en M_n(F)? Introducimos el siguiente objeto de importancia fundamental en muchas áreas de las matemáticas:

Definición. El conjunto de matrices invertibles A\in M_n(F) es llamado el grupo lineal general y es denotado por GL_n(F).

En la tarea moral hay un ejercicio en el que se pide mostrar que GL_n(F) es un grupo bajo la operación de producto de matrices. En realidad en este curso no hablaremos mucho de GL_n(F) como grupo. Pero es importante que sepas de su existencia y que conozcas su notación, pues será importante en tu preparación matemática futura.

Invirtiendo matrices

Si bien el concepto de invertibilidad es sencillo de introducir, gran parte de la herramienta para determinar (irónicamente, a través de los determinantes) la invertibilidad de una matriz o propiedades relacionadas (por ejemplo, una computación efectiva de matrices inversas) todavía no está a nuestra disposición. Por tanto, lo único que podemos hacer es uso de ‘fuerza bruta’ para encontrar las inversas de matrices invertibles, y eso haremos en los siguientes ejemplos para al menos familiarizarnos con los cálculos.

Problema. Sea la matriz A=\begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}. ¿Es A invertible? De serlo, calcula su inversa.

Solución. Como mencionamos, con la teoría que hemos desarrollado hasta ahora solo podemos atacar el problema directamente. Buscamos una matriz

    \begin{align*}B= \begin{pmatrix} a & b & c\\  x & y & z\\  u & v & w\end{pmatrix}\end{align*}

tal que AB=I_3=BA. Usando la regla del producto, calculamos

    \begin{align*}AB=\begin{pmatrix}  x & y & z\\  a & b &c \\ u & v & w \end{pmatrix}.\end{align*}

Igualando esta matriz a I_3 obtenemos las condiciones

    \begin{align*}\begin{cases} x=b=w=1\\ y=z=a=c=u=v=0. \end{cases}\end{align*}

Esto muestra que una buena candidata a ser la inversa de A es la matriz

    \begin{align*}A^{-1}= \begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}.\end{align*}

Falta un paso más: hay que verificar que BA=I_3. Afortunadamente esto es cierto. Su verificación queda como tarea moral.

\square

Resaltamos que el método usado no es eficiente, y tampoco es general (pues funcionó solo por la particularidad de la matriz A). Dicho esto, exhibimos un método que puede ser útil cuando la matriz por invertir es suficientemente ‘bonita’ (por ejemplo si tiene muchos ceros).

Sea A\in M_n(F) una matriz y b\in F^n un vector. Supongamos que el sistema AX=b en el vector variable X tiene una única solución X\in F^n. Un resultado que probaremos más adelante nos dice que entonces A es invertible y que la solución es X=A^{-1}b (es decir, que podemos ‘despejar’ X multiplicando por A^{-1} del lado izquierdo ambos lados). Así, si el sistema resulta fácil de resolver, podemos obtener una expresión de A^{-1} en términos de cualquier vector b, y ésto basta para determinar a A^{-1}. En la práctica, la resolución del sistema mostrará que

    \begin{align*}A^{-1} b = \begin{pmatrix}c_{11}b_1 + c_{12} b_2 +\dots + c_{1n}b_n\\c_{21}b_1+c_{22}b_2 + \dots + c_{2n} b_n\\\vdots\\c_{n1} b_1 + c_{n2} b_2 +\dots + c_{nn}b_n\end{pmatrix}\end{align*}

para algunos escalares c_{ij} independientes de b. Escogiendo b=e_i el i-ésimo vector de la base canónica, el lado izquierdo es simplemente la i-ésima columna de A^{-1} y el lado derecho es la i-ésima columna de [c_{ij}]. Como ambas matrices son iguales columna a columna, deducimos que

    \begin{align*}A^{-1}=[c_{ij}]\end{align*}

Subrayamos que, una vez el sistema resuelto, el resto es relativamente sencillo pues solo es fijarnos en los coeficientes. La dificultad reside entonces en resolver el sistema AX=b, y la dificultad de este sistema depende fuertemente de la matriz A, por lo que nos limitaremos por lo pronto a ejemplos sencillos.

Retomemos el problema anterior para ver cómo funciona este método recién expuesto.

Problema. Resuelve el problema anterior usando el método que acabamos de describir.

Solución. Sea b=\begin{pmatrix} b_1 \\ b_2 \\ b3 \end{pmatrix}\in F^3, tratemos de resolver AX=b para X=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}. El sistema se escribe entonces

    \begin{align*}\begin{pmatrix} b_1 \\ b_2 \\ b_3\end{pmatrix}=AX= \begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3\end{pmatrix}= \begin{pmatrix} x_2 \\ x_1 \\ x_3\end{pmatrix}.\end{align*}

O equivalentemente

    \begin{align*}\begin{cases} x_1=b_2\\ x_2= b_1 \\ x_3=b_3.\end{cases}\end{align*}

Como el sistema siempre se puede resolver dado b\in F^3, podemos afirmar que A es invertible, y tenemos que

    \begin{align*}A^{-1}b= X= \begin{pmatrix} x_1\\ x_2 \\ x_3\end{pmatrix}= \begin{pmatrix} b_2\\ b_1 \\ b_3\end{pmatrix}= \begin{pmatrix} 0\cdot b_1 + 1\cdot b_2 + 0 \cdot b_3\\ 1\cdot b_1 +0\cdot b_2 +0\cdot b_3\\ 0\cdot b_1 + 0\cdot b_2 +1\cdot b_3\end{pmatrix}. \end{align*}

Fijándonos en los coeficientes del lado derecho, vemos que la primera fila de A^{-1} es (0 \ 1 \ 0), la segunda (1\ 0 \ 0) y la tercera (0\ 0\ 1). Luego

    \begin{align*}A^{-1}=\begin{pmatrix}0 & 1& 0\\1 & 0&0\\0 & 0 & 1\end{pmatrix}\end{align*}

\square

Problema. Sea la matriz

    \begin{align*}A= \begin{pmatrix} 1 & 1 & 1 & 1\\ 0 & 1 & 1 &1 \\ 0 & 0 & 1 & 1\\ 0 & 0 & 0 & 1\end{pmatrix} \end{align*}

Demuestre que A es invertible y encuentre su inversa.

Solución. Usamos el mismo método. Sea b= \begin{pmatrix} b_1\\ b_2 \\ b_3 \\ b_4 \end{pmatrix}\in F^4 y resolvemos AX=b con X=\begin{pmatrix} x_1\\ x_2 \\ x_3 \\ x_4\end{pmatrix}. Esta vez el sistema asociado es el siguiente (omitimos los cálculos de la regla del producto):

    \begin{align*}\begin{cases}x_1+x_2+x_3+x_4=b_1\\x_2+x_3+x_4=b_2\\x_3+x_4=b_3\\x_4=b_4 \end{cases}.\end{align*}

Este sistema lo podemos resolver de manera más o menos sencilla: De la última ecuación tenemos que x_4=b_4, luego sustituyendo en la penúltima obtenemos x_3+b_4=b_3 o bien x_3=b_3-b_4. Sustituyendo esto a su vez en la segunda ecuación obtenemos que x_2+b_3=b_2, es decir x_2=b_2-b_3 y finalmente x_1= b_1-b_2. Así el sistema siempre tiene solución y estas están dadas por

    \begin{align*}A^{-1}b= X= \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4\end{pmatrix} = \begin{pmatrix} b_1-b_2\\ b_2-b_3\\ b_3-b_4\\ b_4 \end{pmatrix}.\end{align*}

De esto se sigue que (fijándonos en los coeficientes) la primera fila de A^{-1} es (1\ -1 \ 0 \ 0), y análogamente obtenemos las demás, de manera que

    \begin{align*}A^{-1}=\begin{pmatrix}1 & -1 & 0 &0\\0 & 1 & -1 & 0\\  0&0 &1 &-1\\0 & 0 & 0 &1\end{pmatrix}.\end{align*}

Un buen ejercicio es verificar que en efecto con esta inversa propuesta se cumple que AA^{-1}=I_4=A^{-1}A.

\square

Matrices invertibles diagonales

Concluimos esta sección con un último problema de matrices invertibles. Para resolverlo no usamos el método expuesto, sino un argumento particular para las matrices diagonales.

Problema. Demuestre que una matriz diagonal A\in M_n(F) es invertible si y sólo si todas sus entradas en la diagonal son distintas de cero. Más aún, de ser el caso, A^{-1} también es diagonal.

Solución. Sea A=[a_{ij}]\in M_n(F) una matriz diagonal y B=[b_{ij}]\in M_n(F) cualquier matriz. Usando la regla del producto tenemos que

    \begin{align*}(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj}.\end{align*}

Como a_{ik}=0 para k\neq i (por ser A diagonal) muchos de los términos en la suma desaparecen y nos quedamos con

    \begin{align*}(AB)_{ij}= a_{ii} b_{ij}\end{align*}

y de manera similar se puede verificar que

    \begin{align*}(BA)_{ij}=a_{jj}b_{ij}.\end{align*}

Aprovechemos estas observaciones para proponer a la inversa de A.

Si a_{ii}\neq 0 para todo i\in \{1,\dots, n\} entonces podemos considerar a B como la matriz diagonal con entradas b_{ii}=\frac{1}{a_{ii}}. Las fórmulas que acabamos de calcular nos dan que AB=BA=I_n y así A es invertible y su inversa B es diagonal.

Conversamente, supongamos que A es invertible y diagonal. Así, existe una matriz B tal que AB=BA=I_n. Luego para toda i\in \{1, \dots, n\} se cumple

    \begin{align*}1= (I_n)_{ii}= (AB)_{ii}= a_{ii}b_{ii}\end{align*}

Así a_{ii}\neq 0 para i\in \{1, \dots, n\} y así todas las entradas en la diagonal son distintas de cero.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Aunque para determinar inversos de matrices generales necesitamos desarrollar más teoría, las matrices invertibles de 2\times 2 son fáciles de entender. Muestra que si se tiene una matriz A en M_2(F) con entradas

        \[A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\]

    y ad-bc\neq 0, entonces la matriz

        \[B=\frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}\]

    es la inversa de A. Para ello verifica explícitamente usando la regla del producto que tanto AB=I_2, como que BA=I_2.
  • En el primer problema de invertir matrices, muestra que BA también es I_3.
  • La matriz

        \[A=\begin{pmatrix} \frac{1}{2} & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & \sqrt{2}\end{pmatrix}\]

    es invertible. Encuentra su inversa.
  • Verifica que GL_n(F) es en efecto un grupo bajo la operación de multiplicación de matrices. Debes mostrar que:
    • El producto de dos matrices invertibles es invertible.
    • Existe un neutro multiplicativo E (¿quién sería?).
    • Para matriz A en GL_n(F) existe una matriz B en GL_n(F) tal que AB=BA=E.
  • Explica por qué la matriz O_n no es invertible. Explica por que si una matriz en M_n(F) tiene una columna (o fila) tal que todas sus entradas sen iguales a 0, entonces la matriz no es invertible. Este ejercicio lo puedes hacer directamente de la definición, sin tener que recurrir a herramientas más fuertes.
  • Generaliza el penúltimo problema a una matriz de tamaño n\times n con puros unos sobre y por encima de la diagonal, es decir, para la cual [a_{ij}]=1 si j\geq i y 0 en otro caso.

Más adelante…

En esta entrada hablamos del concepto de matrices invertibles, vimos algunas de sus propiedades y esbozamos un método para encontrar la inversa de una matriz. Hay mejores métodos para encontrar dicha inversa. Uno de ellos, que es muy rápido, es el método de reducción gaussiana, que sirve para mucho más que invertir matrices. Para llegar a él, aún tenemos que desarrollar algo de teoría. Pero antes de eso, hablaremos de otros tipos particulares de matrices.

Entradas relacionadas

Álgebra Lineal I: Problemas de vectores, matrices y matrices como transformaciones lineales

Introducción

Esta entrada consiste de puros problemas resueltos. Mediante la solución de estos problemas se puede poner en práctica los conceptos vistos anteriormente. En específico, aquí repasamos los conceptos de suma y producto escalar que vimos al inicio, así como la idea de la entrada anterior de relacionar a matrices con transformaciones lineales.

Problemas resueltos

Problema. Escribe de manera explicita la matriz A=[a_{ij}]\in M_{2,3}(\mathbb{R}) tal que

    \begin{align*}a_{ij}=\begin{cases} 1 & \text{si } i+j \text{ es par}\\ 0 & \text{si } i+j\text{ es impar}\end{cases}\end{align*}

Solución. Tomemos como ejemplo a la entrada a_{11}. Como 1+1=2 y 2 es par, entonces la entrada a_{11} será igual a 1. De manera similar, obtenemos que a_{12}=0 pues 1+2=3, que es un número impar. Siguiendo de este modo, obtenemos que

    \begin{align*}A=\begin{pmatrix} 1 & 0 & 1\\0 & 1& 0 \end{pmatrix}.\end{align*}

\square

Problema. Para cada par de matrices (A,B), explica cuáles de las operaciones A+2B y A-B tienen sentido, y cuando tengan sentido, haz el cálculo.

  1.     \begin{align*}A= \begin{pmatrix} 1 & 1& 0\\0& 1 & 1\\1 & 0 & 1 \end{pmatrix} \hspace{5mm} \text{y}\hspace{5mm} B=\begin{pmatrix} 1 &2 &3\\7 & 8 & 9\\4 & 5 & 6\end{pmatrix}.\end{align*}

  2.     \begin{align*} A=\begin{pmatrix} 192450916\\1\\0 \\1\\2\end{pmatrix} \hspace{5mm} \text{y} \hspace{5mm} B= \begin{pmatrix} -1\\ 0 \\ 199\\ 2020\\ 0\\ 3\end{pmatrix}.\end{align*}

  3.     \begin{align*}A= \begin{pmatrix} 1 & 1 & 2\\3 & 5 & 8 \end{pmatrix} \hspace{5mm} \text{y} \hspace{5mm}B= \begin{pmatrix} 1&-1 & 1\\ 2 & 4 & 8 \end{pmatrix}.\end{align*}

Solución:

  1. Dado que ambas matrices tienen el mismo tamaño, podemos calcular ambas operaciones. Tenemos que hacer las operaciones entrada a entrada. Así, la primer entrada de A+2B será 1+2\cdot 1 = 3. Haciendo lo mismo para cada entrada, obtenemos que

        \begin{align*}A+2B= \begin{pmatrix}3 & 5 & 6\\14 & 17 & 19\\9 & 10 & 13\end{pmatrix} \end{align*}


    De manera similar, obtenemos que

        \begin{align*}A-B=\begin{pmatrix}  0 &-1 & -3 \\ -7 & -7 & -8\\ -3 & -5 &-5\end{pmatrix}.\end{align*}

  2. En este caso las operaciones no tienen sentido, pues una matriz tiene 5 renglones y la otra 6.
  3. Observamos que ambas matrices tienen el mismo tamaño, por lo que sí podemos calcular ambas operaciones:

        \begin{align*}A+2B= \begin{pmatrix}3 & -1 & 4\\ 7 & 13 & 24\end{pmatrix} \hspace{5mm} \text{y} \hspace{5mm} A-B=\begin{pmatrix} 0 &2 & 1 \\ 1 & 1 & 0 \end{pmatrix}.\end{align*}

\square

Problema.

  • a) Considera la función f: \mathbb{R}^2\to \mathbb{R}^2 dada por

        \begin{align*}f(x,y)=(x^2,y^2).\end{align*}


    ¿Es f una transformación lineal?
  • b) Responde la misma pregunta reemplazando \mathbb{R} por \mathbb{F}_2.

Solución.

  • a) No, f no es lineal. Vamos a ver un ejemplo en el cual no “abre sumas”. Por un lado, tenemos por definición que f(2,0)=(4,0). Por otro lado, tenemos que (2,0)=(1,0)+(1,0) y que f(1,0)+f(1,0)= (2,0). Es decir

        \begin{align*}f( (1,0)+(1,0) ) \neq f(1,0)+f(1,0).\end{align*}

  • b) Si cambiamos el dominio por \mathbb{F}_2 entonces f sí es lineal. Lo podemos verificar:

        \begin{align*}f(x+y,z+w)&= \left((x+y)^2, (z+w)^2\right)\\&= \left( x^2+y^2+2xy, z^2+w^2+2wz\right)\\&=\left(x^2+y^2, z^2+w^2\right)\\&= \left(x^2,z^2\right)+\left(y^2,w^2\right)\\&= f(x,z)+f(y,w).\end{align*}


    En estas igualdades estamos usando que \mathbb{F}_2 es el campo con dos elementos, en donde se cumple que 2=1+1=0, por lo cual 2xy=0=2wz.
    Por otro lado, si \alpha\in \mathbb{F}_2 es un escalar, entonces

        \begin{align*}f(\alpha\cdot(x,y))&= f(\alpha x, \alpha y)\\&= (\alpha^2 x^2, \alpha^2 y^2)\\&= \alpha^2 \cdot (x^2,y^2)\\&= \alpha \cdot f(x,y).\end{align*}


    De nuevo estamos usando las propiedades del campo \mathbb{F}_2 en la última igualdad. Como \mathbb{F}_2 es el campo con 2 elementos, los valores de \alpha, x,y sólo pueden ser 0 o 1. Como 0^2=0 y 1^2=1, tenemos la igualdad. Concluimos que f es lineal.
  • b)’ Otra manera de resolver el inciso b) es observar que en \mathbb{F}_2, x^2=x para todo x (esto lo usamos con \alpha, x, y en la prueba pasada). Luego la función f coincide con la función identidad, y es más fácil verificar que ésta es lineal.

\square

Problema. Da un ejemplo de un mapeo f:\mathbb{R}^2\to \mathbb{R} que no sea lineal, pero que cumpla

    \begin{align*}f(av)= af(v)\end{align*}

para cualesquiera v\in \mathbb{R}^2 y a\in \mathbb{R}.

Solución. Proponemos

    \begin{align*}f(x,y)= \begin{cases} x & \text{si } y=0\\  y & \text{si } y\neq 0\end{cases}.\end{align*}

Verifiquemos que f cumple la compatibilidad con escalares. Primero, si a=0 es claro que

    \begin{align*}f(av) &= f(0,0)\\&= 0\\&= 0 \cdot f(v)\\&= a\cdot f(v).\end{align*}

Entonces si a=0 se cumple la condición. Ahora supongamos que a\neq 0, tenemos dos subcasos que verificar:

  • Si v=(x,y) con y\neq 0, entonces av= (ax,ay) y ay\neq 0 (pues el producto de reales no nulos es no nulo), por lo que

        \begin{align*}f(av)&= f(ax,ay)\\&= ay\\&= a\cdot f(x,y)=a\cdot f(v).\end{align*}

  • Si v=(x,0) entonces av= (ax,0) y así

        \begin{align*}f(av)&= f(ax,0)\\&= ax\\&= a\cdot f(x,0)=a\cdot f(v).\end{align*}

Así verificamos que f cumple con la condición buscada. Para ver que f no es lineal, observamos que

  • f(1,0)=1
  • f(0,1)=1
  • f(1,1)=1

Y así tenemos

    \begin{align*}f(0,1)+f(1,0)&= 2\\&\neq 1\\&= f(1,1)\\&=f((1,0)+(0,1))\end{align*}

Es decir, existen u y v vectores tales que f(u+v)\neq f(u)+f(v), por lo que f no es lineal.

\square

Entradas relacionadas

Álgebra Lineal I: Producto de matrices y composición de sus transformaciones

Introducción

En una entrada previa estudiamos el vínculo entre las matrices y las transformaciones lineales. Más precisamente vimos que existe una biyección entre ambos conjuntos, de manera que tener una matriz de m\times n con entradas en algún campo F es lo mismo que tener una transformación lineal \varphi: F^n \to F^m. En esta entrada, estudiaremos cómo esta correspondencia se comporta respecto a las dos operaciones ‘naturales’ en ambos: el producto de matrices y la composición de funciones.

Veremos que multiplicar matrices se corresponde con componer sus transformaciones lineales y vice versa. Esto puede explicar algunos fenómenos de la multiplicación de matrices que pueden ser extraños al principio, como la falta de conmutatividad (AB\neq BA) entre otros.

El producto de matrices

Sean m,n,p números naturales positivos y sean A\in M_{m,n}(F), B\in M_{n,p}(F) dos matrices. Es importante observar que el número de columnas de A es el mismo que el de renglones de B. Esto es fundamental para que el producto de matrices esté definida.

Por nuestra correspondencia previa, sabemos que tanto a A como a B les corresponden transformaciones lineales

    \begin{align*} \varphi_{A}: F^n\to F^m \hspace{3mm} \varphi_B: F^p\to F^n \end{align*}

Recuerda que \varphi_A es la transformación que manda a X\in F^n en AX\in F^m y \varphi_B es la transformación que manda a Y\in F^p en BY\in F^n.

Podemos entonces preguntarnos por la composición

    \begin{align*}\varphi_A\circ \varphi_B: F^{p}\to F^m \hspace{5mm} (\varphi_A\circ \varphi_B)(X)= \varphi_A\left(\varphi_B(X)\right), \end{align*}

la cual primero manda a un X de F^{p} a BX, y luego a este lo manda a A(BX).

Como \varphi_A y \varphi_B son lineales, podemos verificar que la composición también lo es. Para verificar esto, si X,Y\in F^{p} son arbitrarios así como \alpha, \beta\in F, entonces

    \begin{align*}(\varphi_A\circ \varphi_B)\left(\alpha X+\beta Y\right) &= \varphi_A\left(\varphi_B\left(\alpha X+\beta Y\right) \right)\\&= \varphi_A\left( \alpha \varphi_B(X)+\beta \varphi_B(Y)\right)\\ &=\alpha\varphi_A\left(\varphi_B(X)\right) +\beta \varphi_A\left(\varphi_B(Y)\right)\\&= \alpha \cdot (\varphi_A\circ \varphi_B) (X) +\beta\cdot  (\varphi_A\circ \varphi_B)(Y) .\end{align*}

Aqui la segunda igualdad se debe a que \varphi_B es lineal y la tercera porque \varphi_A lo es. En el resto de las igualdades estamos usando la definición de la composición.

Como \varphi_A\circ \varphi_B es una transformación lineal, por el teorema de correspondencia entre matrices y transformaciones lineales, debe existir una única matriz C\in M_{m,p}(F) tal que

    \begin{align*}\varphi_A\circ \varphi_B = \varphi_C.\end{align*}

Esto motiva la siguiente (importante) definición:

Definición. El producto de dos matrices A\in M_{m,n}(F) y B\in M_{n,p}(F) (de nuevo, observamos que el número de renglones de B y el número de columnas de A deben coincidir) es la única matriz AB\in M_{m,p}(F) tal que

    \begin{align*}A(B(X))=(AB)(X)\end{align*}

Para todo X\in F^p.

Un truco para acordarse de la condición de compatibilidad en renglones y columnas es pensar en términos de transformaciones lineales: Sabemos que dos funciones f y g se pueden componer solo si el codominio de una es el dominio de la otra.

Observación. Como mencionamos previamente, podemos identificar a F^n con el espacio M_{n,1}(F) (esto es especialmente claro cuando escribimos un vector en columna: Tenemos n renglones y una sola columna). Así, si a un vector X\in F^n lo identificamos con su matriz \widetilde{X}\in M_{n,1}(F) entonces podemos considerar el producto A\widetilde{X}\in M_{m,1}(F), que resulta (al identificar de vuelta con F^m) coincide con AX. Es decir, pensar la aplicación AX como una transformación o como un producto de matrices no afecta el resultado, aunque es recomendable (para nuestros propósitos) pensarlo como una transformación lineal.

Calculando el producto de matrices

Si bien la definición que dimos del producto tiene sentido desde una perspectiva un poco más abstracta, queremos poder calcular explícitamente el producto AB sabiendo las entradas de A y de B.

Para esto, sean A=[a_{ij}] y B=[b_{ij}] con tamaños como en la definición. Sea e_1, \dots, e_p la base canónica de F^p. Entonces (AB) e_j es la j-ésima columna de AB (por una observación que hicimos aquí). Denotaremos por C_1(A), \dots, C_n(A) y C_1(B), \dots, C_p(B) a las columnas de A y las de B respectivamente. Usando la misma observación, podemos escribir

    \begin{align*}A(Be_j)&=AC_j(B)\\&= b_{1j}C_1(A)+b_{2j}C_2(A)+\dots + b_{nj} C_n(A).\end{align*}

Para la segunda igualdad, estamos usando la segunda parte de la observación de esta entrada. Por definición del producto, tenemos que A(Be_j)=(AB)e_j=C_j(AB). Juntando esto con la igualdad anterior, tenemos

    \begin{align*}C_j(AB)= b_{1j} C_1(A)+b_{2j} C_2(A)+\dots + b_{nj} C_n(A).\end{align*}

Estamos muy cerca de encontrar cualquier entrada (i,j) del producto. Notamos que esta entrada está en la fila i de C_j(AB). Haciendo las operaciones entrada a entrada, obtenemos entonces que

    \begin{align*}(AB)_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j} +\dots +a_{in}b_{nj}.\end{align*}

La discusión anterior prueba el siguiente resultado.

Teorema. (Regla del producto) Sean A=[a_{ij}]\in M_{m,n}(F) y B=[b_{ij}]\in M_{n,p}(F). Entonces la (i,j)-ésima entrada de AB está dada por

    \begin{align*}(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj} .\end{align*}

Hubiéramos podido dar como definición de AB a la matriz con las entradas que especifica el teorema, pero esto hubiera escondido la motivación detrás de la definición: A ojos del álgebra lineal, las matrices “son” transformaciones lineales y el producto, su composición.

Lo más importante a recuperar de lo que hemos platicado hasta ahora es que el producto AB se puede pensar de cualquiera de las dos formas siguientes:

  • Como la transformación lineal que corresponde a la composición de las transformaciones de A y B.
  • Como la matriz cuyas entradas están dadas por la regla del producto.

Ambas formas de ver al producto tienen ventajas y desventajas. Usaremos una o la otra según nos convenga.

Ejemplos de producto de matrices

Ejemplo. Si A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix} y B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix} son matrices en M_2(F), entonces el producto existe y por el teorema tenemos que

    \begin{align*}AB= \begin{pmatrix}a_{11}b_{11}+a_{12}b_{21} & a_{11} b_{12}+ a_{12}b_{22}\\a_{21}b_{11}+a_{22}b_{21} & a_{21}b_{12} +a_{22}b_{22} \end{pmatrix}.\end{align*}

Observa que si C_1 y C_2 son las dos columnas de B, entonces las dos columnas de AB son AC_1 y AC_2. Esta es una buena forma de recordar cómo hacer el producto.

\square

Ejemplo. Si A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\ a_{31} & a_{32} \end{pmatrix} y B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix} entonces el producto AB es una matriz de tamaño 3\times 2, y está dada por

    \begin{align*}AB=\begin{pmatrix} a_{11} b_{11} + a_{12} b_{21} & a_{11} b_{12}+ a_{12} b_{22}\\a_{21} b_{11} + a_{22} b_{21} & a_{21} b_{12} + a_{22} b_{22}\\a_{31}b_{11}+a_{32}b_{21} & a_{31} b_{12} +a_{32} b_{22} \end{pmatrix}.\end{align*}

\square

Ejemplo. Tomando en cuenta el ejemplo anterior con las matrices A=\begin{pmatrix} 1 &2  \\ 3 & 4\\ 5& 6\end{pmatrix} y B=\begin{pmatrix} 1& -1\\ 0 & 2\end{pmatrix} entonces

    \begin{align*} AB=\begin{pmatrix} 1 & 3\\ 3 & 5 \\ 5 &7  \end{pmatrix}.\end{align*}

\square

Observa que no podemos hacer el producto BA, pues la cantidad de columnas de B es 2, la cantidad de filas de A es 3, y estos números no coinciden.

Ejemplo. Si A=\begin{pmatrix} 1& 0\\ 0 & 0\end{pmatrix} y B=\begin{pmatrix} 0 & 0 \\ 2& 0\end{pmatrix} entonces podemos calcular tanto AB como BA y obtenemos

    \begin{align*}AB=\begin{pmatrix} 0 & 0\\0 & 0 \end{pmatrix}=O_2 \hspace{5mm} \text{ y } \hspace{5mm} BA=\begin{pmatrix} 0 & 0 \\ 2 & 0\end{pmatrix}.\end{align*}

\square

Propiedades básicas del producto

El último ejemplo de la sección pasada refleja dos cosas importantes del producto de matrices:

  • El producto no es conmutativo. Es decir, aunque existan ambos AB y BA, estos no tienen por qué coincidir.
  • Aunque A y B no sean cero, su producto si puede serlo. En el ejemplo A y B eran distintas de cero pero AB=O_2.

Definición. Dos matrices A,B\in M_n(F) conmutan si AB=BA.

Entonces uno tiene que tener cuidado cuando realiza manipulaciones algebraicas con matrices, pues muchas propiedades a las que estamos acostumbrados en campos dejan de ser ciertas.

Ejemplo. En un campo, uno generalmente usa las reglas para desarrollar cuadrados:

    \begin{align*} (a+b)^2&=a^2+2ab+b^2, \\(a+b)(a-b)&=a^2-b^2 .\end{align*}

Sin embargo, trabajando con matrices estas identidades dejan de ser ciertas, y son reemplazadas por una versión menos sencilla:

    \begin{align*}(A+B)^2&= A^2+AB+BA+B^2,\\(A+B)(A-B)&=A^2-AB+BA-B^2.\end{align*}

Estas coinciden con las correspondientes en el campo solo si A y B conmutan.

\square

Sin embargo, hay buenas noticias. Aparte de la conmutatividad, muchas otras propiedades algebraicas deseables se preservan, y las resumimos en la siguiente proposición:

Proposición. La multiplicación de matrices satisface las siguientes:

  1. Asociatividad: Se cumple que (AB)C=A(BC) para cualesquiera matrices A\in M_{m,n}(F), B\in M_{n,p}(F), C\in M_{p,q}(F).
  2. Compatibilidad con el producto por escalares: Se cumple que \alpha(AB)=(\alpha A)B= A(\alpha B) para cualesquiera \alpha \in F, A\in M_{m,n}(F), B\in M_{n,p}(F).
  3. Distributividad con respecto a la suma: Se cumplen

    \begin{align*}(A+B)C&=AC+BC\\D(A+B)&= DA+DB\end{align*}

para cualesquiera A,B\in M_{m,n}(F), C\in M_{n,p}(F) y D\in M_{p,m}(F).

Demostración: La demostración de estas propiedades se sigue directamente de la definición, o bien haciendo los cálculos a través de la regla del producto. Probaremos la asociatividad usando la definición, para mostrar las ventajas que tiene pensar al producto como la matriz correspondiente a la composición. Tras ver la demostración, piensa en lo tedioso que sería hacer la prueba usando la regla del producto.

Para verificar la asociatividad, basta ver que las transformaciones lineales de (AB)C y A(BC) son iguales (vimos en ésta entrada que si dos matrices tienen la misma transformación asociada, entonces son iguales). Es decir, que para todo X\in F^q se cumple que

    \begin{align*}((AB)C)X=(A(BC))X.\end{align*}

Por definición del producto, tenemos que

    \begin{align*}((AB)C)X= (AB)(CX)= A(B(C(X)),\end{align*}

y desarrollando análogamente A(BC)X tenemos

    \begin{align*}A(BC)X= A((BC)X)= A(B(C(X)).\end{align*}

Comparando ambas expresiones se sigue el resultado. Como mencionamos, esto se pudo haber probado usando la regla del producto, comparando la (i,j)-ésima entrada de (AB)C y la de A(BC), verificando que ambas son iguales a

    \begin{align*}\sum_{k,l} a_{ik}b_{kl} c_{lj}.\end{align*}

\square

Observación. Gracias a la asociatividad del producto, podemos escribir ABC en lugar de (AB)C o de A(BC), aligerando la notación. Esto es más útil con más factores, por ejemplo el poder escribir ABCD en lugar de (A(BC))D o A(B(CD)). Así mismo, tampoco tenemos ambigüedad al definir el producto de cualquier número de matrices. Usaremos la notación

    \begin{align*}A^n= A\cdot A\cdot \ddots \cdot A,\end{align*}

donde el lado derecho tiene n factores. Esta es la nésima potencia de una matriz cuadrada A. Por construcción

    \begin{align*}A^n= A\cdot A^{n-1}.\end{align*}

Y tomaremos como convención que A^0=I_n para cualquier A\in M_n(F). Dejamos como tarea moral el verificar que I_n actúa como un neutro para la multiplicación, es decir que para cualquier matriz A de tamaño m\times n se tiene

    \begin{align*}A\cdot I_n=A \hspace{2mm} \text{ y } \hspace{2mm} I_m \cdot A=A.\end{align*}

Acabamos esta sección con un problema para practicar los conceptos vistos.

Problema. Sea A(x)\in M_3(\mathbb{R}) la matriz definida por

    \begin{align*}A(x)=\begin{pmatrix} 1 & x& x^2\\ 0 & 1 & 2x\\ 0 & 0 & 1\end{pmatrix}.\end{align*}

Demuestra que A(x_1)A(x_2)=A(x_1+x_2) para cualesquiera x_1,x_2\in \mathbb{R}.

Solución. En este problema es más conveniente usar la regla del producto, que pensar a la composición de transformaciones. En todo problema es recomendable pensar en cuál de las formas del producto conviene más usar.

Usando la regla del producto, tenemos que

    \begin{align*}A(x_1)A(x_2)&= \begin{pmatrix} 1 & x_1 & x_1^2\\ 0 & 1 & 2x_1\\ 0 & 0 & 1 \end{pmatrix}\begin{pmatrix} 1 & x_2 & x_2^2\\ 0 & 1 & 2x_2\\ 0 & 0 & 1 \end{pmatrix}\\&=\begin{pmatrix} 1 & x_2+x_1 & x_2^2+2x_1 x_2+x_1^2\\0 & 1 & 2x_2+2x_1\\0 & 0 & 1\end{pmatrix} \\&= \begin{pmatrix} 1 & x_1+x_2 & (x_1+x_2)^2\\0 & 1 & 2(x_1+x_2)\\0 & 0 & 1 \end{pmatrix}.\end{align*}

Y el lado derecho es simplemente A(x_1+x_2).

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Realiza la operación

        \[\begin{pmatrix}2 & 1 & 0 \\ 1 & 2 & 0 \\ 0 & -1 & 0\end{pmatrix}^4.\]

  • Toma al vector canónico e_i de F^n pensado como matriz en M_{1n}(F) y al vector canónico e_j de F^n pensado como matriz en M_{n1}(F). ¿Quién es el producto de matrices e_ie_j? ¿Quién es el producto de matrices e_je_i?
  • Verifica las propiedades de compatibilidad con el producto por escalares y distributividad con respecto a la suma del producto de matrices.
  • Verifica que las matrices identidad actúan como neutro para la multiplicación de matrices.
  • Recuerda (o investiga) los axiomas de un anillo con unidad y verifica que las matrices cuadradas de tamaño n forman un anillo con unidad para cualquier n.

Más adelante…

Si bien en esta entrada definimos el producto de matrices y estudiamos su relación con la composición de matrices, esto no es más que el primer paso de un estudio más grande: Ahora nos podemos hacer preguntas sobre transformaciones lineales (por ejemplo, ¿será biyectiva o invertible?) y estudiarlas en términos de matrices y su producto. Más adelante en el curso entrará el concepto de determinante que jugará un papel fundamental para responder muchas de estas preguntas.

Entradas relacionadas

Álgebra Lineal I: Matrices como transformaciones lineales

Introducción

En la entrada pasada introdujimos el concepto de vector en F^n y el concepto de matriz en M_{m,n}(F). También definimos las operaciones básicas de suma y producto escalar. En esta entrada exploraremos la relación que existe entre estos. Más precisamente, veremos cómo una matriz define una función que manda vectores en vectores, y cómo algunas de estas funciones (que resultarán ser las transformaciones lineales) nos dan una matriz. Más adelante hablaremos de espacios vectoriales en general y de transformaciones lineales entre ellos. Pero es muy importante entender estos conceptos primero en una situación concreta.

Procederemos construyendo primero la transformación asociada a una matriz. Luego, verificaremos algunas propiedades de la construcción realizada. Finalmente, veremos que hay una biyección entre matrices y transformaciones lineales.

Construir una transformación a partir de una matriz

Comencemos con un campo F y una matriz A\in M_{m,n}(F) con entradas a_{ij}, es decir

    \begin{align*}A=\begin{pmatrix} a_{11} & a_{12} & \ldots & a_{1n}\\a_{21} & a_{22} & \ldots & a_{2n}\\& \vdots & \ddots & \vdots\\a_{m1} & a_{m2} & \ldots & a_{mn}\end{pmatrix}\end{align*}

A un vector X=\begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix} \in F^n le podemos asociar un nuevo vector que denotaremos (de manera sugestiva) AX\in F^m (observa el cambio de superíndice) y definimos como

    \[AX= \begin{pmatrix} a_{11}x_1+a_{12}x_2 +\dots+ a_{1n} x_n \\ a_{21} x_1 +a_{22} x_2 +\dots + a_{2n} x_2 \\ \vdots \\ a_{m1}x_1 +a_{m2} x_2 + \dots +a_{mn}x_n \end{pmatrix}.\]

Así, obtenemos una función de F^n a F^m que manda a cada vector X de F^n en el vector AX de F^m.

Ejemplo: A la matriz

    \[A=\begin{pmatrix} 1 & 0 & 1 &0 \\ 1 & 2 &3 &4 \\ 0 & 0 & 0 & 1 \end{pmatrix}\in M_{3,4}(\mathbb{R})\]

le asociamos entonces la función f: \mathbb{R}^4\to \mathbb{R}^3 definida por

    \[f\left( \begin{pmatrix} x \\ y \\z \\ w \end{pmatrix} \right) = A\cdot \begin{pmatrix} x \\ y \\ z \\ w \end{pmatrix} = \begin{pmatrix}  x+ z\\ x+2y+3z+4w\\ w \end{pmatrix}.\]

\square

Observación: Si denotamos por e_1, \dots, e_n a la base canónica de F^n y A\in M_{m,n}(F) tiene entradas a_{ij} entonces

    \begin{align*}Ae_i&=\begin{pmatrix} a_{11}\cdot  0+\dots + a_{1i} \cdot 1+\dots +a_{1n}\cdot 0\\  a_{21}\cdot 0+\dots + a_{2i} \cdot 1+\dots + a_{2n}\cdot 0\\ \vdots \\ a_{n1}\cdot 0 +\dots + a_{ni} \cdot 1+ \dots + a_{nn}\cdot 0 \end{pmatrix}\\&= \begin{pmatrix} a_{1i}\\ a_{2i}\\ \vdots \\ a_{mi} \end{pmatrix}=C_i.\end{align*}

Dónde, recordamos, C_i es la i-ésima columna de A. Más generalmente, si X=\begin{pmatrix} x_1\\ x_2 \\ \vdots \\ x_n \end{pmatrix}\in F^n es cualquier vector, entonces

    \[AX= x_1 C_1+ \dots +x_n C_n.\]

Las sutilezas de esta asignación matriz-transformación se resumen en el siguiente resultado:

Teorema: Para cualesquiera matrices A,B\in M_{m,n} (F), cualesquiera vectores X,Y\in F^n cualesquiera escalares \alpha, \beta \in F se cumple:

  1. A(\alpha X +\beta Y)=\alpha AX+\beta AY
  2. (\alpha A+ \beta B)X= \alpha A X +\beta B X
  3. Si AX=BX para toda X\in F^n, entonces A=B.

Demostración: Escribimos A=[a_{ij}], B=[b_{ij}] y X=\begin{pmatrix} x_1\\ x_2\\ \vdots \\ x_n \end{pmatrix} y Y=\begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix}. Así \alpha A+ \beta B= [\alpha a_{ij}+\beta b_{ij}] y \alpha X+ \beta Y= \begin{pmatrix} \alpha x_1 + \beta y_1 \\ \alpha x_2 +\beta y_2\\ \vdots \\ \alpha x_n +\beta y_n \end{pmatrix}

  1. Por definición, la i-ésima coordenada de A(\alpha X+ \beta Y) es

        \[\sum_{j=1}^{n} a_{ij}(\alpha x_j+\beta y_j)= \alpha \sum_{j=1}^n a_{ij} x_j+ \beta \sum_{j=1}^{n} a_{ij} y_j.\]

    Aquí estamos las propiedades distributivas en F. El lado derecho de la ecuación corresponde a la i-ésima coordenada de \alpha AX+\beta AY, lo que prueba el resultado.
  2. El argumento es esencialmente el mismo, el cálculo esta vez se reduce a la igualdad

        \[\sum_{j=1}^{n} \left(\alpha a_{ij}+\beta b_{ij}\right) x_j = \alpha \sum_{j=1}^{n} a_{ij} x_j +\beta \sum_{j=1}^n b_{ij} x_j.\]

    Esta sabemos es verdadera por las propiedades distributivas en F.
  3. Por hipótesis, tenemos A e_i = B e_i dónde e_i denota el i-ésimo elemento de la base canónica de F^n. Por la observación anterior, esto implica que la i-ésima columna de A es igual a la i-ésima columna de B, para todo i. Luego A y B son iguales.

\square

Observa que en las demostraciones (1) y (2) anteriores estamos usando las propiedades del campo F para poder distribuir la suma y producto. A grandes rasgos, lo importante que estamos haciendo es ver que, gracias a que todo sucede entrada a entrada, entonces la distributividad también sucede para matrices y vectores.

La asignación que a cada matriz le asocia una función

La última condición del teorema nos dice que la asignación que manda a cada matriz A a su función \varphi_A=X\mapsto AX (en símbolos, la asignación A\mapsto \varphi_A) es inyectiva: si a dos matrices le asociamos la misma función, es porque eran la misma matriz para empezar. Esta asignación tiene como dominio el conjunto de matrices M_{m,n} (F) y como codominio el conjunto de funciones \varphi: F^n \to F^m que (por las parte (1) del último teorema) cumplen

    \[\varphi(\alpha X +\beta Y)= \alpha \varphi(X)+\beta \varphi(Y)\]

para cualesquiera \alpha,\beta \in F y X,Y\in F^n.

A una función (o bien “transformación”) \varphi: F^n \to F^m que cumple esta última condición se le llama lineal. Observamos que cualquier transformación lineal satisface \varphi(0)=0, ya que si en la condición ponemos \alpha=\beta=0 tenemos que

    \[\varphi(0)=\varphi(0\cdot X+ 0 \cdot Y)= 0\cdot \varphi(X)+0\cdot \varphi(Y)=0.\]

En otras áreas de las matemáticas el término “lineal” denota otro tipo de transformaciones, por ejemplo las de la forma \psi(X)=aX+b, que nosotros llamaremos afines. Más que “función lineal” usaremos el término transformación lineal.

El siguiente teorema nos dice que la asignación A\mapsto \varphi_A discutida arriba no es sólo inyectiva, si no también suprayectiva. Es decir, cualquier transformación lineal \varphi: F^n\to F^m es la función asociada de alguna matriz A\in M_{m,n}(F).

Teorema: Sea \varphi: F^n\to F^m una transformación lineal. Existe una única matriz A\in M_{m,n} (F) tal que \varphi(X)=AX para toda X\in F^n.

Demostración: La unicidad fue establecida en el último inciso del teorema anterior, basta con verificar existencia. Sea \varphi: F^n\to F^m lineal, y sea e_1, \dots, e_n la base canónica para F^n. Construimos la matriz A tal que la i-ésima columna C_i es el vector \varphi(e_i)\in F^m. Así, por una observación previa, tenemos que Ae_i= C_i = \varphi(e_i) para cualquier 1\leq i \leq n.

Si X=\begin{bmatrix} x_1\\ x_2\\ \vdots \\ x_n \end{bmatrix} \in F^n es cualquier vector, entonces X=x_1 e_1 +x_2 e_2 +\dots + x_n e_n. Como \varphi es lineal, entonces

    \begin{align*}\varphi(X)&=\varphi(x_1 e_1 +x_2 e_2 + \dots + x_n e_n)\\&= x_1 \varphi(e_1)+x_2 \varphi(e_2)+\dots + x_n \varphi(e_n)\\&= x_1 C_1+ x_2 C_2 +\dots + x_n C_n= AX.\end{align*}

La última igualdad es de nuevo una consecuencia de la observación que hicimos. Luego \varphi(X)=AX para toda X\in F^n y queda así probado el teorema.

\square

Tenemos entonces una biyección entre matrices en M_{m,n}(F) y transformaciones lineales \varphi: F^n\to F^m. En símbolos

    \[M_{m,n}(F) \leftrightarrow \lbrace \varphi: F^n \to F^m \mid \varphi \text{ es lineal }\rbrace.\]

Ejemplo: Ya vimos cómo obtener la transformación lineal asociada a una matriz, ahora queremos hacer el proceso inverso. Por ejemplo, si tenemos el mapeo f: \mathbb{R}^4 \to \mathbb{R}^3 dado por

    \[f: (x,y,z,w) \mapsto (x+y-z, 3z-w, z+2y),\]

entonces ¿cuál es la matriz A tal que f(X)=AX?

De acuerdo con nuestra demostración del teorema, las columnas de A corresponden a las imágenes f(e_i). Hacemos entonces el cálculo directo:

  • f(e_1)= f(1,0,0,0)=(1,0,0)
  • f(e_2)=f(0,1,0,0)=(1,0,2)
  • f(e_3)= f(0,0,1,0)= (-1, 3,1)
  • f(e_4)= f(0,0,0,1)=(0,-1,0)

Así

    \[A=\begin{pmatrix} 1 & 1 & -1 & 0 \\ 0 & 0 &3 & -1 \\ 0 & 2 & 1 & 0 \end{pmatrix}\]

En realidad, pudimos habernos saltado el cálculo y solo fijarnos en los coeficientes de cada coordenada: La primer coordenada de f(x,y,z,w) no es más que x+y-z= 1\cdot x+ 1\cdot y +(-1)\cdot z +0\cdot w, acomodando estos coeficientes [1\ 1 \ -1 \ 0] en las columnas correspondientes nos da el primer renglón de A. De manera análoga, con la segunda coordenada recuperamos el segundo renglón y con la tercer coordenada el tercero, y así recuperamos A.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra la matriz de la transformación lineal que manda al vector (x,y,z) de \mathbb{R}^3 al vector (x+y+z,x-y+z, x + 3y, 2y-z, 8x+z) de \mathbb{R}^5.
  • Considera la matriz A=\begin{pmatrix} 1 & -1 & 1 \\ -1 & 1 & -1 \\ 1 & -1 & 1 \\ -2 & 2 & -2\end{pmatrix}. Si la pensamos como transformación lineal, ¿de dónde a dónde va? ¿cómo se escribe de manera explícita AX en términos de las coordenadas del vector X al que se le aplica?
  • Sea A la matriz del punto anterior. Sean X=(1,2,3) y Y=(3,-1,4). Encuentra AX y AY. Realiza la suma AX+AY. Luego, por separado, realiza primero la suma X+Y y usando esto encuentra el valor de A(X+Y). Verifica en en efecto ambos procesos te dan el mismo resultado.
  • Explica por qué no es posible encontrar una matriz que represente a la función que manda al vector (x,y,z,w) de \mathbb{R}^4 al vector (x+y+z+w, xy+yz+zw+wx) de \mathbb{R}^2.
  • ¿Cuál es la matriz que representa a la transformación lineal que manda al vector (x_1,x_2,\ldots,x_n) de F^n al vector (x_2,x_3,\ldots,x_n,x_1), también de F^n?

Más adelante…

La conclusión principal de esta entrada es que para entender transformaciones lineales basta con entender las matrices con entradas en el campo. Este fenómeno será muy recurrente en el álgebra lineal, y muchos problemas de transformaciones lineales se traducen en problemas de matrices y vice-versa. ¡A veces la traducción es tan inmediata que incluso se omite!

Entradas relacionadas

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en M_n(\mathbb{R}) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en M_n(F) también lo sean.

Problema. Demuestra que la matriz simétrica con coeficientes complejos

A=\begin{pmatrix} 1 & i \\ i & -1 \end{pmatrix}

no es diagonalizable.

Solución. Por la primera proposición de la clase “Eigenvalores y eigenvectores de transformaciones y matrices”, si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P^{-1}DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos \lambda \in \mathbb{C} tal que \text{det}(\lambda I-A)=0,

    \begin{align*}\text{det}(\lambda I-A)&=\begin{vmatrix} \lambda -1 & i \\ i & \lambda +1 \end{vmatrix} \\&=(\lambda-1)(\lambda+1)-i^2=\lambda^2 -1+1 \\&=\lambda^2=0.\end{align*}

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es \lambda =0. Si D es de la forma

D=\begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix},

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P^{-1}DP=0, contradiciendo la definición de A.

\square

Problema. Sea A una matriz simétrica con entradas reales y supongamos que A^k=I para algún entero positivo k. Prueba que A^2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser \pm 1. Esto implica que todos los eigenvalores de A^2 son iguales a 1. Dado que A^2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A^2=I.

\square

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

\norm{T}=\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}.

Por ende, decimos que una transformación es acotada si su norma es acotada, \norm{T}<\infty.

Problema. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean \lambda_1,\ldots,\lambda_n los eigenvalores de T. Prueba que

\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}} =\max_{1\leq i\leq n} |\lambda_i|.

Solución. Renumerando a los eigenvalores, podemos decir que \max_i |\lambda_i|=|\lambda_n|. Sea e_1,\ldots,e_n una base ortonormal de V tal que T(e_i)=\lambda_i e_i para todo i. Si x\in V\setminus {0}, podemos escribirlo como x=x_1e_1+\ldots+x_n e_n para algunos reales x_i. Entonces, por linealidad de T,

T(x)=\sum_{i=1}^n \lambda_i x_ie_i.

Dado que |\lambda_i|\leq |\lambda_n| para toda i, tenemos que

\frac{\norm{T(x)}}{\norm{x}}=\sqrt{\frac{\sum_{i=1}^n \lambda_i^2 x_i^2}{\sum_{i=1}^n x_i^2}}\leq |\lambda_n|,

por lo tanto

    \begin{align*} \max_{1\leq i\leq n} |\lambda_i|&=|\lambda_n|=\frac{\norm{T(e_n)}}{\norm{e_n}}\\&\leq \sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}\\ &\leq |\lambda_n|= \max_{1\leq i\leq n} |\lambda_i|. \end{align*}

Obteniendo lo que queremos.

\square

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=\frac{1}{7}\begin{pmatrix} -2 & 6 & -3 \\ 6 & 3 & 2 \\ -3 & 2 & 6 \end{pmatrix}.

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

    \begin{align*}0&=\text{det}(\lambda I-A)=\begin{vmatrix} \lambda+2/7 & -6/7 & 3/7 \\ -6/7 & \lambda-3/7 & -2/7 \\ 3/7 & -2/7 & \lambda-6/7 \end{vmatrix} \\&= \lambda^3-\lambda^2-\lambda+1 \\&= (\lambda -1)(\lambda^2 -1),\end{align*}

entonces los eigenvalores de A son 1,-1, (\lambda=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=\lambda v, para todo eigenvalor \lambda.

Si \lambda=-1,

(\lambda I-A)v=\frac{1}{7}\begin{pmatrix} -5 & -6 & 3 \\ -6 & -10 & -2 \\ 3 & -2 & -13 \end{pmatrix}v=0,

reduciendo, obtenemos que v=(3\alpha, -2\alpha, \alpha) para todo \alpha\in \mathbb{R}.

Si \lambda=1, resolviendo de la misma manera (\lambda I-A)v=(I-A)v=0, tenemos que v=(\beta,\gamma,-3\beta+2\gamma) para todo \beta,\gamma. Entonces el conjunto de eigenvectores es

B=\{ v_1=(3,-2,1), \quad v_2=(1,0,-3), \quad v_3=(0,1,2) \}.

Es fácil ver que el conjunto B es linealmente independiente, más aún \text{dim}(\mathbb{R}^3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

\square

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Entradas relacionadas