Archivo de la etiqueta: composición

Geometría Analítica I: Recordatorio de funciones

Por Paola Berenice García Ramírez

Introducción

En la entrada anterior [Enlace entrada anterior] se introdujo la esencia del concepto de transformaciones y que estaremos viendo diversos tipos de transformaciones, pero para que no trabajemos en un espacio desconocido, en ésta entrada hablaremos de nociones básicas de funciones que debemos tener presentes para luego definir formalmente el concepto de qué es una transformación.

Funciones

Sean $E$ y $F$ dos conjuntos no vacíos, denominaremos función de un conjunto $E$ en un conjunto $F$ (o función definida en $E$ con valores en $F$) a una regla o ley $f$ que a todo elemento $x \in E$ le pone en correspondencia un determinado elemento $f(x) \in F$.

Al conjunto de los elementos $x \in E$ les llamamos dominio o argumento de la función $f$ y normalmente su notación es $Dom(f)$. Al conjunto de los elementos $f(x) \in F$ le llamamos rango o imagen y se denota por $Im(f)$. Además se encuentra el conjunto $F$ del contradominio, el cual contiene al rango.

A una función la designamos por lo general con la letra $f$ o con el símbolo $f: E \longrightarrow F$, que nos señala que $f$ aplica el conjunto $E$ en $F$. También podemos emplear la notación $x \mapsto f(x)$ para indicarnos que al elemento $x$ le corresponde el elemento $f(x)$. Cabe mencionar que en la mayoría de los casos las funciones se definen mediante igualdades, las cuales describen la ley de correspondencia.

Ejemplo 1. Podemos decir que la función $f$ está definida mediante la igualdad $f(x) = \sqrt{ x^2 + 1}$, $x \in [a,b]$. Si $y$ es la notación general de los elementos del conjunto $F$, o sea $F = \{y\}$, la aplicación $f: E \longrightarrow F$ se escribe en forma de la igualdad $y = f(x)$, y decimos entonces que la función se encuentra dada en su forma explícita.

Ejemplo 2. Mediante la siguiente imagen vamos a obtener $Domf$, $Imf$ y el $Codf$.

Podemos ver que $Domf$ es el conjunto formado por $\{1, -2, 2, -3, 3, 4\} $. La $Imf$ es $\{2, -4, 4, -6, 6, 8\}$ y el $Codf$ es $\{-2,2,-4,4,-6,6,8,-8\}$. Podemos darnos cuenta que no necesariamente la $Imf$ debe coincidir siempre con el $Codf$.

Ejemplo 3. Sea la función definida por la ecuación $y = \sqrt{3 – 9x}$. Debido a que la función es una raíz cuadrada, $y$ es función de $x$ sólo para $3-9x \geq 0$; pues para cualquier $x$ que satisfaga esta desigualdad, se determina un valor único de $y$. Procedemos a resolver la desigualdad:

\begin{align*}
3-9x & \geq 0,\\
3 & \geq 9x,\\
\dfrac{3}{9} & \geq x,\\
\dfrac{1}{3} & \geq x.
\end{align*}

Sin embargo si $x > \dfrac{1}{3}$, obtenemos la raíz cuadrada de un número negativo y en consecuencia no existe un número real $y$. Por tanto $x$ debe estar restringida a $\dfrac{1}{3} \geq x $. Concluimos que el $Domf$ es el intervalo $\left(- \infty, \dfrac{1}{3}\right]$ y la $Imf$ es $[0, + \infty).$

Gráfica de $f(x) = \sqrt{3-9x}$

Función inyectiva, sobreyectiva y biyectiva

Definición. Una función $f: E \longrightarrow F$ se denomina:

  • Inyectiva si $f(x) = f(x’)$ implica que $x = x’$. Otra forma de expresarlo es que no existen dos elementos de $E$ con una misma imagen ($x \neq x $ implica que $f(x) \neq f(x’)$).
  • Suprayectiva o sobreyectiva si $\forall y \in F$ existe $x \in E$ tal que $f(x)=y$. Es decir que todos los elementos del conjunto $F$ son imagen de algún elemento de $E$.
  • Biyectiva si la función cumple ser inyectiva y suprayectiva.

Problema 1. Consideren la función $f: \mathbb{R} \longrightarrow \mathbb{R} $ definida por $f(x) = \dfrac{3x-1}{x+3}$ y determinen su dominio y si es biyectiva.

Solución. Veamos el dominio de la función, para que la función racional $f(x) = \dfrac{3x-1}{x+3}$ no se indetermine debe cumplirse que:

\begin{align*}
x+3 & \neq 0,\\
x & \neq -3,\\
\therefore Domf & = \mathbb{R} – \{-3 \}.\\
\end{align*}

Ahora veamos si $f$ es biyectiva. Sean $a,b \in \mathbb{R} – \{ -3 \}$, para que $f$ sea inyectiva debe cumplir que $f(x) = f(x’)$ implica que $x = x’$, por ello:

\begin{equation*}
f(a) = f(b) \hspace{0.5cm} \Longrightarrow \hspace{0.5cm} \dfrac{3a-1}{a+3} = \dfrac{3b-1}{b+3}.\\
\end{equation*}

Resolviendo:

\begin{align*}
(3a-1)(b+3) &= (3b-1)(a+3),\\
3ab + 9a – b -3 &= 3ab +9b -a -3,\\
10a &= 10b,\\
a &= b.
\end{align*}

Por tanto $f$ es inyectiva. Ahora veamos si $f$ es suprayectiva, sean $x, y \in E$ entonces:

\begin{align*}
f(x) = f(y) \hspace{0.5cm} &\Longrightarrow \hspace{0.5cm} y = \dfrac{3x-1}{x+3},\\
\end{align*}

Resolviendo

\begin{align*}
y(x+3) &= 3x-1,\\
yx +3y &= 3x-1,\\
yx-3x &= -3y-1,\\
x(y-3) &= -3y-1,
\end{align*}

y despejando a $x$

\begin{align*}
x &= \dfrac{-3y-1}{y-3},\\
x &= \dfrac{3y+1}{3-y},
\end{align*}

y como $3-y \neq 0$, entonces $y \neq 3$. En consecuencia $y \in \mathbb{R} – \{3 \}$. Pero al estar definida $f$ por $f: \mathbb{R} \longrightarrow \mathbb{R}$, tenemos que $f$ no es suprayectiva.

\begin{align*}
\therefore f \text{ no es biyectiva}.
\end{align*}

Composición de funciones y funciones inversas.

Definición. Dadas las funciones $f: A \longrightarrow B$ y $g: B \longrightarrow C$ , donde la imagen de $f$ está contenida en el dominio de $g$, se define la función composición $(g \circ f): A \longrightarrow C$ como $(g \circ f)(x) = g(f(x)),$ para todos los elementos $x$ de $A$.

La composición de funciones se realiza aplicando dichas funciones en orden de derecha a izquierda, de manera que en $(g \circ f)(x)$ primero actúa la función $f$ y luego la $g$ sobre $f(x)$.

Ejemplo 4. Sean las funciones $f$ y $g$ tales que $f(x)=x+1$ y $g(x) = x^2 +2$, calcularemos las funciones composición $(g \circ f)(x)$ y $(f \circ g)(x)$. Tenemos para $(g \circ f)(x)$

\begin{align*}
(g \circ f)(x) = g[f(x)] &= g(x+1),\\
&= (x+1)^2 + 2,\\
&= x^2 +2x +1 +2,\\
&= x^2 + 2x +3.
\end{align*}

Y para $(f \circ g)(x)$

\begin{align*}
(f \circ g)(x) = f[g(x)] &= f(x^2+2),\\
&= (x^2 + 2) + 1,\\
&= x^2 + 3.\\
\end{align*}

Observemos que la composición no es conmutativa pues las funciones $(f \circ g)$ y $(g \circ f)$ no son iguales.

Definición. Llamaremos función inversa de $f$ a otra función $f^{-1}$ que cumple que si $f(x)=y$, entonces $f^{-1}(y)=x$.

Sólo es posible determinar la función inversa $f^{-1}: B \longrightarrow A$ si y sólo si $f: A \longrightarrow B$ es biyectiva.

Notemos que la función inversa $f^{-1}: B \longrightarrow A$ también es biyectiva y cumple:

\begin{align*}
f^{-1}(f(x)) &= x, \hspace{0.2cm} \forall x \in A,\\
f(f^{-1}(y)) &= y, \hspace{0.2cm} \forall y \in B.
\end{align*}

Dicho de otro modo,

\begin{align*}
f^{-1} \circ f &= id_{A},\\
f \circ f^{-1} &= id_{B},
\end{align*}

donde $id_{A}$ e $id_{B}$ son las funciones identidad de $A$ y $B$ respectivamente. Es decir, son las funciones $id_{A}: A \longrightarrow A$ definida por $id_{A}(x) = x$ e $id_{B}: B \longrightarrow B$ definida por $id_{B}(y) = y$.

Concepto formal de transformación

Ahora hemos llegado a la definición de nuestro interés.

Definición. Una transformación en un plano A es una función biyectiva $f: A \longrightarrow A$ del plano en sí mismo.

Llamaremos transformación en el plano, a toda función que hace corresponder a cada punto del plano, otro punto del mismo.

Tarea moral

Vamos a realizar unos par de ejercicios para repasar y practicar los conceptos que vimos en esta entrada.

Ejercicio 1. Consideren la siguiente función $f: \mathbb{R} \longrightarrow \mathbb{R}$ definida por $f(x) = \dfrac{3x-1}{x+3}$ y determinen su dominio, si ella es inyectiva, suprayectiva y la inversa de $f$.

Ejercicio 2. Sean $f: X \longrightarrow Y$ y $g: Y \longrightarrow Z$ funciones, demuestren que

(1) Si $f$ y $g$ son inyectivas, entonces $g \circ f$ es inyectiva.

(2) Si $g \circ f$ es suprayectiva, entonces $g$ es suprayectiva.

Más adelante

En esta entrada vimos las nociones básicas de funciones que nos llevaron a definir formalmente el concepto de una transformación. Dicho concepto nos permitirá comenzar a trabajar en la siguiente entrada con unos primeros conjuntos cuyas propiedades hacen que tengan un nombre especial: los grupos de transformaciones.

Enlaces

  • Página principal del curso:
  • Entrada anterior del curso:
  • Siguiente entrada del curso:

Álgebra Superior I: Relaciones en conjuntos: dominio, codominio y composición

Por Guillermo Oswaldo Cota Martínez

Introducción

Habiendo hablado del producto cartesiano, ya tenemos los ingredientes para irnos acercando a la definición de función, pero antes de hablar de ellas, tenemos que hablar de relaciones y de algunos de sus conceptos. En esta entrada introduciremos el concepto de relación, dominio, codominio y composición entre relaciones.

Relaciones

Cuando estamos hablando de el producto cartesiano, estamos juntando las parejas posibles de elementos entre dos conjuntos. Pero quizá no nos interesen todas las parejas posibles, quizá a veces solo nos interesaría hablar de algún subconjunto de estas parejas. Por ejemplo, si tenemos los conjuntos de zapatos izquierdos y derechos denotados por $I,D$ entonces no siempre nos interesan todas las parejas posibles de zapatos, quizá solo nos interese combinar cada zapato izquierda con su par correspondiente. Para dar un ejemplo, imagina que hay tres zapatos $A,B,C$ y los conjuntos $I$ y $D$ contienen tres zapatos de cada uno de los zapatos que hay:

$I = \{I_A, I_B, I_C\} $

$D = \{D_A, D_B, D_C\} $

Si quisieramos unir cada zapato con su par, nos podemos fijar en su producto cartesiano $I \times D$, sin embargo hay elementos que sí nos van a interesar y otros que no. Por ejemplo, la pareja $(I_A,D_A)$ sí nos interesa, pues es el zapato izquierdo y derecho del zapato $A$. Por otro lado, la pareja $(I_A,D_C)$ no nos interesa, pues estamos juntando dos zapatos pero de modelos distintos. En particular, el subconjunto de $I \times D$ que describe a los tres zapatos es: $$R = \{(I_A,D_A),(I_B,D_B),(I_C,D_C)\}.$$ Este conjunto es una relación entre los conjuntos $I$ y $D$. Como podrás notar, $R \subset I \times D$, y para la definición de relación, basta con que el conjunto esté contenido en el producto cartesiano para que cumpla la definicón.

Definición. Sean $X$ y $Y$ dos conjuntos, una relación entre los conjuntos $X$ y $Y$ es un subconjunto $R$ del producto cartesiano $X \times Y$: $$R \subset X \times Y $$

Definición. Si $R$ es una relación de $X$ en $Y$, diremos que $x$ está relacionado con $y$ bajo la relación $R$ si la pareja $(x,y) \in X \times Y$ y $(x,y) \in R$.

Con esta última definición, podemos notar que el zapato izquierdo $A$ ($I_A$) está relacionado con el zapato derecho $A$ ($D_A$) bajo la relación $R$, pues la pareja $(I_A,D_A)$ pertenece a la relación $R$.

En nuestro ejemplo anterior, mostramos una relación entre $I$ y $D$. Otros ejemplos de relaciones entre $I$ y $D$ son los siguientes:

$\{(I_B,D_A),(I_C,D_B),(I_C,D_A)\},$
$\{(I_C,D_B)\}$
$\{(I_A,D_A),(I_C,D_B)\}$
$\emptyset$
$I \times D$

Dominio y codominio de relaciones

Vamos ahora a trabajar con el conjunto de los números enteros $\mathbb{Z}$. Y trabajaremos con el producto cartesiano $\mathbb{Z} \times \mathbb{Z}$. Llamemos a este producto cartesiano $\mathbb{Z}^2$ que es la forma en que comúnmente se le denota al producto cartesiano entre el mismo conjunto (en este caso $\mathbb{Z}$) en la literatura.

Ahora, consideremos la siguiente relación entre los conjuntos: $$R = \{(x,y) \in \mathbb{Z}^2: (x \text{ es múltiplo de 3} )\land (y = 2x) \} $$

Y notemos que algunos ejemplos de elementos de esta relación son: $\{ (3,6),(0,0),(-3,-6),(3^{10},2*3^{10}) ,(-300,-600)\} \subset R$. Gráficamente, podemos ver la relación en la siguiente imagen:

Del lado izquierdo corresponden los elementos $x$ de las parejas $(x,y) \in R$ y del lado derecho los elementos $y$. Notemos que del lado izquierdo (los elementos $x$), no consideramos todos los elementos. Por ejemplo, los números $\{-5,-4,-2,-1,1,2,4,5\}$ no forman ninguna pareja, pues en la definición de nuestro conjunto, solo estamos considerando los múltiplos de $3$ del lado izquierdo de la relación. A estos números que sí forman parejas del lado izquierdo, les llamamos dominio.

Definición. Sean $X,Y$ dos conjuntos y $R$ una relación de $X$ en $Y$. El dominio de la relación $R$ es $$Dom(R) = \{x \in X: \exists y \in Y \text{ tal que } (x,y) \in R\}$$

Notemos que siempre pasará que $Dom(R)\subset X$, otra definición que no hay que confundir con la de dominio es la de contradominio, al que nos referimos como el conjunto $Y$.

Definición. Sean $X,Y$ dos conjuntos y $R$ una relación de $X$ en $Y$. El contradominio de $R$ es el conjunto $Y$.

En nuestro ejemplo anterior, $$Dom(R)=\{x \in X: x \text{ es múltiplo de 3}\}$$.

Esto es cierto, pues las parejas de la relación $R$ son aquellas parejas de la forma $(3n,6n)$, pues pedimos que del lado izquierdo estén los múltiplos de $3$ (todo múltiplo de $3$ puede escribirse como algún número entero $n$ multiplicado por $3$), y del lado izquierdo el doble del número que escribimos del otro lado (si del lado izquierdo está $3n$ entonces del derecho estará $2*3n=6n$). Así que el dominio son aquellos números que forman alguna pareja, es decir, los múltiplos de $3$.

Por otro lado, el contradominio es $\mathbb{Z}$. Ahora, podemos preguntarnos en un concepto análogo a la idea de los elementos $y$ para los cuales existe un elemento $x$ de forma que $(x,y)$ pertenezca a la relación, para eso, podemos observar que los únicos elementos de $Z$ que pertenecen a alguna pareja del lado derecho son $\{\dots,-12,-6,0,6,12,\dots\}$, es decir, los múltiplos de $6$, de manera que podríamos hablar de que este conjunto es la imagen de la relación $R$.

Definición. Sean $X,Y$ dos conjuntos y $R$ una relación de $X$ en $Y$. La imagen de $R$ es: $$Im(R) = \{y \in Y: \exists x \in X \text{ tal que } (x,y) \in R\}$$

Imagen Directa e Imagen Inversa

Ahora, tomemos a los conjuntos $A=\{0,2,3,5,6,7,8,9\}$ y $B=\{-6,-1,2,3,4,6,7,12,21\}$ veamos que $A \times B \subset \mathbb{Z}^2$ pues ambos son subconjuntos de números enteros. El siguiente concepto que vamos a presentar, va a ser la imagen directa e inversa. Para esto, consideremos nuevamente nuestra relación $R$ de la sección anterior. Veamos que los elementos de $A$ que pertenecen al dominio de $R$ son $\{0,3,6,9\}$ esto pues $\{(0,0),(3,6),(6,12),(9,18)\} \subset R$. Definamos la imagen directa de $A$ como los elementos en la imagen de $R$ con la restricción de que únicamente consideremos elementos de $A$ del lado izquierdo.

Definición. Sean $X,Y$ dos conjuntos, $A \subset X$ y $R$ una relación de $X$ en $Y$. La imagen directa de $A$ es el conjunto: $$Im[A]=\{y \in Y: \exists x \in A \text{ tal que }(x,y) \in R\}$$

Compara esta definición con la definición de imagen, lo único que estamos cambiando es el conjunto al que pertencen las $x$.

De manera similar, tenemos un concepto similar para $B$, en donde restringiremos ahora el dominio. Para esto, nota que las parejas de $R$ que tienen su imagen en $B$ son $\{(-3,-6),(3,6),(6,12)\}$. Y el concepto de imagen inversa, serán aquellos elementos del dominio de $R$ los cuales están relacionados con algún elemento de $B$.

Definición. Sean $X,Y$ dos conjuntos, $B\subset Y$ y $R$ una relación de $X$ en $Y$. La imagen inversa de $B$ es el conjunto: $$Im^{-1}[B]=\{x \in X: \exists y \in B \text{ tal que }(x,y) \in R\}$$

De esta, manera:

$$Im[A]=\{0,6,12,18\},$$ $$ Im^{-1}[B]=\{-3,3,6\}.$$

A continuación, vamos a introducir una última definición de esta entrada, que da la idea intuitiva de juntar distintas relaciones.

Composición de funciones

Ahora, veremos la siguiente relación entre el conjunto de zapatos izquierdos $I$ y conjunto de zapatos derechos $D$:

$$R = \{(x,y) \in I \times D: x \text{ es del mismo color que }y\} $$

Y la relación entre zapatos derechos y el conjunto $P$ de pantalones:

$$ T = \{(x,y) \in D \times P:x \text{ es del mismo color que }y\} $$

Estas relaciones solo nos están juntando colores de prendas, la primera nos junta zapatos del mismo color y la tercera relaciones el color de los zapatos derechos con el del pantalón.

Así que por si ejemplol tuvieramos los colores rojo, amarillo y azul entre zapatos izquierdos, derechos y pantalones, entonces la primera relación tendría al zapato izquierdo rojo $I_R$, el zapato derecho rojo $D_R$ y el pantalón rojo $P_R$, de manera que $(I_R,D_R) \in R \land (D_R,P_R) \in T$. ¿Podemos establecer la conexión entre los zapatos izquierdos y los pantalones? Pues con esta pareja, resulta que de alguna manera el zapato $D_R$ une a los dos elementos mediante dos relaciones distintas. La primera relación tiene como contradominio el conjunto $D$ mientras que la segunda lo tiene como dominio.

De la misma manera, podemos conectar el zapato izquierdo azul $I_A$ con algún pantalón de la siguiente manera:

  1. Notamos que $I_A$ está relacionado con el zapato derecho azul $D_A$ mediante la relación $R$.
  2. Observamos que a su vez el zapato $D_A$ está relacionado con el pantalón azul $P_A$ mediante $T$.

De esta manera, podemos encontrar alguna conexión del zapato $I_A$ al pantalón $P_A$ viendo que hay una relación entre $I_A$ con $D_A$ y de $D_A$ con $P_A$. Así que podríamos definir una relación entre los zapatos izquierdos y los pantalones a través de las relaciones $R$ y $T$. Definamos esta relación como $R \circ T$ de la siguiente manera:

$$T \circ R = \{(x,y) \in I \times P: \exists z \in D \text{ tal que }\big( (x,z) \in R \land (z,y) \in T\big) \} $$

Lo que queremos decir con esta expresión, es que los elementos de la relación $T \circ R$ son los elementos $(x,y)$ de tal forma que existe una forma de conectar $(x,y)$ mediante un elemento $z$ de tal forma que $x$ está relacionado con $y$ mediante la relación $T \circ R$ si existe un elemento $z$ que los conecta, es decir, si existe $z$ en $Im(R) \cap Dom(T)$ de tal forma que $(x,z) \in R$ y $(z,y) \in T$.

Definición. Sean $X,Z,Y$ tres conjuntos, $R$ una relación de $X$ en $Z$ y $T$ una relación de $Z$ en $Y$. La relación composición de $R$ con $T$ es la relación:
$$T \circ R = \{ (x,y) \in X \times Y: \exists z \in Z\big( (x,z) \in R \land (z,y) \in T\big)$$

Veamos ahora un ejemplo de nuevo con los número enteros. Considera la relación que ya habíamos visto anteriormente, dada por: $$R = \{(x,y) \in \mathbb{Z}^2: (x \text{ es múltiplo de 3} )\land (y = 2x) \} $$ Nota ahora, que como dijimos anteriormente, estos son las parejas de la forma $(3n,6n)$ de manera que otra forma de escribir el conjunto es $$R = \{(3n,6n): n \in \mathbb{Z} \} $$.

Ahora considera la siguiente relación $T$:$$T = \{(x,y) \in \mathbb{Z}^2: x = y+1\}$$

Algunos elementos de esta relación son: $\{(3,2),(7,6),(1,0),(-9,-10)\}$. Gráficamente se ve de la siguiente manera:

Y si te das cuenta, únicamente son los números de la forma $(n+1,n)$. Por lo que podríamos escribir esta relación como $$T = \{(n+1,n): n \in \mathbb{Z} \} $$.

Ahora veamos cómo se ve la composición $T \circ R$. Para ello, tomemos un elemento de la relación $R$. Por ejemplo, $(3,6) \in R$. Ahora notemos que de igual forma, $(6,5)$ pertenece a la relación $T$. De manera que $(3,5) \in T \circ R$. En general, un elemento de la relación $R$ se escribe como $(3n,6n)$, y un elemento de la relación $T$, como dijimos al principio del párrafo, es de la forma $(n+1,n)$ o lo que es lo mismo, $(n,n-1)$. Y enseguida nota que si tomamos un número entero $n$, entonces $(3n,6n) \in R$ y $(6n,6n-1) \in T$. De esta manera, podemos escribir a la composición de $R$ con $T$ como el conjunto: $$ T \circ R = \{(3n,6n-1): n \in \mathbb{Z}\}$$

Más adelante…

En la siguiente entrada seguiremos hablando de las relaciones entre conjuntos y veremos algunos tipos de relaciones especiales que tendrán algunas propiedades interesantes. También hablaremos un poco más de relaciones de un conjunto en sí mismo, este tipo de relaciones ya las hemos visto, sin embargo, veremos más propiedades que pueden cumplir estas. Esto nos servirá para hablar después de órdenes entre conjuntos.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sea $$R=\{(x,y) \in \mathbb{Z}^2: x+y=0\}$$ y la relación$$T=\{(x,y) \in \mathbb{Z}^2: x-y=0\}.$$Encuentra:
    • $Dom(R)$
    • $Im(R)$
    • Escribe todos los elementos de $T \circ R$
    • Encuentra $Im[\{1,2,3,4,5\}]$ sobre la relación $R$
    • Encuentra $Im^{-1}[\{-1,-2,-3,-4,-5\}]$ sobre la relación $T$
  2. Demuestra que si $R = \{(x,y) \in \mathbb{Z}^2: (x \text{ es múltiplo de 3} )\land (y = 2x) \} $, entonces $$R = \{(3n,6n): n \in \mathbb{Z} \} $$
  3. La recta $\mathcal{L}$ con pendiente $m$ e intersección $b$ con el eje $y$ en los números enteros es el conjunto: $$\mathcal{L}=\{(x,y) \in \mathbb{Z}^2: mx+b=y\} $$ Encuentra $\mathcal{L_1}\cap \mathcal{L_2}$ donde $\mathcal{L_1}$ es la recta con $m=1,b=0$ y $\mathcal{L_2}$ es la recta con $m=-1,b=2$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Producto de matrices y composición de sus transformaciones

Por Julio Sampietro

Introducción

En una entrada previa estudiamos el vínculo entre las matrices y las transformaciones lineales. Más precisamente vimos que existe una biyección entre ambos conjuntos, de manera que tener una matriz de $m\times n$ con entradas en algún campo $F$ es lo mismo que tener una transformación lineal $\varphi: F^n \to F^m$. En esta entrada, estudiaremos cómo esta correspondencia se comporta respecto a las dos operaciones ‘naturales’ en ambos: el producto de matrices y la composición de funciones.

Veremos que multiplicar matrices se corresponde con componer sus transformaciones lineales y vice versa. Esto puede explicar algunos fenómenos de la multiplicación de matrices que pueden ser extraños al principio, como la falta de conmutatividad ($AB\neq BA$) entre otros.

El producto de matrices

Sean $m,n,p$ números naturales positivos y sean $A\in M_{m,n}(F), B\in M_{n,p}(F)$ dos matrices. Es importante observar que el número de columnas de $A$ es el mismo que el de renglones de $B$. Esto es fundamental para que el producto de matrices esté definida.

Por nuestra correspondencia previa, sabemos que tanto a $A$ como a $B$ les corresponden transformaciones lineales

\begin{align*}
\varphi_{A}: F^n\to F^m \hspace{3mm} \varphi_B: F^p\to F^n
\end{align*}

Recuerda que $\varphi_A$ es la transformación que manda a $X\in F^n$ en $AX\in F^m$ y $\varphi_B$ es la transformación que manda a $Y\in F^p$ en $BY\in F^n$.

Podemos entonces preguntarnos por la composición

\begin{align*}
\varphi_A\circ \varphi_B: F^{p}\to F^m \hspace{5mm} (\varphi_A\circ \varphi_B)(X)= \varphi_A\left(\varphi_B(X)\right),
\end{align*}

la cual primero manda a un $X$ de $F^{p}$ a $BX$, y luego a este lo manda a $A(BX)$.

Como $\varphi_A$ y $\varphi_B$ son lineales, podemos verificar que la composición también lo es. Para verificar esto, si $X,Y\in F^{p}$ son arbitrarios así como $\alpha, \beta\in F$, entonces

\begin{align*}
(\varphi_A\circ \varphi_B)\left(\alpha X+\beta Y\right) &= \varphi_A\left(\varphi_B\left(\alpha X+\beta Y\right) \right)\\
&= \varphi_A\left( \alpha \varphi_B(X)+\beta \varphi_B(Y)\right)\\
&=\alpha\varphi_A\left(\varphi_B(X)\right) +\beta \varphi_A\left(\varphi_B(Y)\right)\\
&= \alpha \cdot (\varphi_A\circ \varphi_B) (X) +\beta\cdot (\varphi_A\circ \varphi_B)(Y) .
\end{align*}

Aquí la segunda igualdad se debe a que $\varphi_B$ es lineal y la tercera porque $\varphi_A$ lo es. En el resto de las igualdades estamos usando la definición de la composición.

Como $\varphi_A\circ \varphi_B$ es una transformación lineal, por el teorema de correspondencia entre matrices y transformaciones lineales, debe existir una única matriz $C\in M_{m,p}(F)$ tal que

\begin{align*}
\varphi_A\circ \varphi_B = \varphi_C.
\end{align*}

Esto motiva la siguiente (importante) definición:

Definición. El producto de dos matrices $A\in M_{m,n}(F)$ y $B\in M_{n,p}(F)$ (de nuevo, observamos que el número de renglones de $B$ y el número de columnas de $A$ deben coincidir) es la única matriz $AB\in M_{m,p}(F)$ tal que

\begin{align*}
A(B(X))=(AB)(X)
\end{align*}

Para todo $X\in F^p$.

Un truco para acordarse de la condición de compatibilidad en renglones y columnas es pensar en términos de transformaciones lineales: Sabemos que dos funciones $f$ y $g$ se pueden componer solo si el codominio de una es el dominio de la otra.

Observación. Como mencionamos previamente, podemos identificar a $F^n$ con el espacio $M_{n,1}(F)$ (esto es especialmente claro cuando escribimos un vector en columna: Tenemos $n$ renglones y una sola columna). Así, si a un vector $X\in F^n$ lo identificamos con su matriz $\widetilde{X}\in M_{n,1}(F)$ entonces podemos considerar el producto $A\widetilde{X}\in M_{m,1}(F)$, que resulta (al identificar de vuelta con $F^m$) coincide con $AX$. Es decir, pensar la aplicación $AX$ como una transformación o como un producto de matrices no afecta el resultado, aunque es recomendable (para nuestros propósitos) pensarlo como una transformación lineal.

Calculando el producto de matrices

Si bien la definición que dimos del producto tiene sentido desde una perspectiva un poco más abstracta, queremos poder calcular explícitamente el producto $AB$ sabiendo las entradas de $A$ y de $B$.

Para esto, sean $A=[a_{ij}]$ y $B=[b_{ij}]$ con tamaños como en la definición. Sea $e_1, \dots, e_p$ la base canónica de $F^p$. Entonces $(AB) e_j$ es la $j$-ésima columna de $AB$ (por una observación que hicimos aquí). Denotaremos por $C_1(A), \dots, C_n(A)$ y $C_1(B), \dots, C_p(B)$ a las columnas de $A$ y las de $B$ respectivamente. Usando la misma observación, podemos escribir

\begin{align*}
A(Be_j)&=AC_j(B)\\
&= b_{1j}C_1(A)+b_{2j}C_2(A)+\dots + b_{nj} C_n(A).
\end{align*}

Para la segunda igualdad, estamos usando la segunda parte de la observación de esta entrada. Por definición del producto, tenemos que $A(Be_j)=(AB)e_j=C_j(AB)$. Juntando esto con la igualdad anterior, tenemos

\begin{align*}
C_j(AB)= b_{1j} C_1(A)+b_{2j} C_2(A)+\dots + b_{nj} C_n(A).
\end{align*}

Estamos muy cerca de encontrar cualquier entrada $(i,j)$ del producto. Notamos que esta entrada está en la fila $i$ de $C_j(AB)$. Haciendo las operaciones entrada a entrada, obtenemos entonces que

\begin{align*}
(AB)_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j} +\dots +a_{in}b_{nj}.
\end{align*}

La discusión anterior prueba el siguiente resultado.

Teorema. (Regla del producto) Sean $A=[a_{ij}]\in M_{m,n}(F)$ y $B=[b_{ij}]\in M_{n,p}(F)$. Entonces la $(i,j)$-ésima entrada de $AB$ está dada por

\begin{align*}
(AB)_{ij}= \sum_{k=1}^{n} a_{ik} b_{kj} .
\end{align*}

Hubiéramos podido dar como definición de $AB$ a la matriz con las entradas que especifica el teorema, pero esto hubiera escondido la motivación detrás de la definición: A ojos del álgebra lineal, las matrices «son» transformaciones lineales y el producto, su composición.

Lo más importante a recuperar de lo que hemos platicado hasta ahora es que el producto $AB$ se puede pensar de cualquiera de las dos formas siguientes:

  • Como la transformación lineal que corresponde a la composición de las transformaciones de $A$ y $B$.
  • Como la matriz cuyas entradas están dadas por la regla del producto.

Ambas formas de ver al producto tienen ventajas y desventajas. Usaremos una o la otra según nos convenga.

Ejemplos de producto de matrices

Ejemplo 1. Si $A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix}$ y $B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix}$ son matrices en $M_2(F)$, entonces el producto existe y por el teorema tenemos que

\begin{align*}
AB= \begin{pmatrix}
a_{11}b_{11}+a_{12}b_{21} & a_{11} b_{12}+ a_{12}b_{22}\\
a_{21}b_{11}+a_{22}b_{21} & a_{21}b_{12} +a_{22}b_{22}
\end{pmatrix}.
\end{align*}

Observa que si $C_1$ y $C_2$ son las dos columnas de $B$, entonces las dos columnas de $AB$ son $AC_1$ y $AC_2$. Esta es una buena forma de recordar cómo hacer el producto.

$\triangle$

Ejemplo 2. Si $A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\ a_{31} & a_{32} \end{pmatrix}$ y $B=\begin{pmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{pmatrix}$ entonces el producto $AB$ es una matriz de tamaño $3\times 2$, y está dada por

\begin{align*}
AB=\begin{pmatrix} a_{11} b_{11} + a_{12} b_{21} & a_{11} b_{12}+ a_{12} b_{22}\\
a_{21} b_{11} + a_{22} b_{21} & a_{21} b_{12} + a_{22} b_{22}\\
a_{31}b_{11}+a_{32}b_{21} & a_{31} b_{12} +a_{32} b_{22}
\end{pmatrix}.
\end{align*}

$\triangle$

Ejemplo 3. Tomando en cuenta el ejemplo anterior con las matrices $A=\begin{pmatrix} 1 &2 \\ 3 & 4\\ 5& 6\end{pmatrix}$ y $B=\begin{pmatrix} 1& -1\\ 0 & 2\end{pmatrix}$ entonces

\begin{align*}
AB=\begin{pmatrix} 1 & 3\\ 3 & 5 \\ 5 &7 \end{pmatrix}.
\end{align*}

$\triangle$

Observa que no podemos hacer el producto $BA$, pues la cantidad de columnas de $B$ es $2$, la cantidad de filas de $A$ es $3$, y estos números no coinciden.

Ejemplo 4. Si $A=\begin{pmatrix} 1& 0\\ 0 & 0\end{pmatrix}$ y $B=\begin{pmatrix} 0 & 0 \\ 2& 0\end{pmatrix}$ entonces podemos calcular tanto $AB$ como $BA$ y obtenemos

\begin{align*}
AB=\begin{pmatrix} 0 & 0\\
0 & 0 \end{pmatrix}=O_2 \hspace{5mm} \text{ y } \hspace{5mm} BA=\begin{pmatrix} 0 & 0 \\ 2 & 0\end{pmatrix}.
\end{align*}

$\triangle$

Propiedades básicas del producto

El último ejemplo de la sección pasada refleja dos cosas importantes del producto de matrices:

  • El producto no es conmutativo. Es decir, aunque existan ambos $AB$ y $BA$, estos no tienen por qué coincidir.
  • Aunque $A$ y $B$ no sean cero, su producto si puede serlo. En el ejemplo $A$ y $B$ eran distintas de cero pero $AB=O_2$.

Definición. Dos matrices $A,B\in M_n(F)$ conmutan si $AB=BA$.

Entonces uno tiene que tener cuidado cuando realiza manipulaciones algebraicas con matrices, pues muchas propiedades a las que estamos acostumbrados en campos dejan de ser ciertas.

Ejemplo. En un campo, uno generalmente usa las reglas para desarrollar cuadrados:

\begin{align*}
(a+b)^2&=a^2+2ab+b^2, \\
(a+b)(a-b)&=a^2-b^2 .
\end{align*}

Sin embargo, trabajando con matrices estas identidades dejan de ser ciertas, y son reemplazadas por una versión menos sencilla:

\begin{align*}
(A+B)^2&= A^2+AB+BA+B^2,
\\(A+B)(A-B)&=A^2-AB+BA-B^2.
\end{align*}

Estas coinciden con las correspondientes en el campo solo si $A$ y $B$ conmutan.

$\triangle$

Sin embargo, hay buenas noticias. Aparte de la conmutatividad, muchas otras propiedades algebraicas deseables se preservan, y las resumimos en la siguiente proposición:

Proposición. La multiplicación de matrices satisface las siguientes:

  1. Asociatividad: Se cumple que $(AB)C=A(BC)$ para cualesquiera matrices $A\in M_{m,n}(F), B\in M_{n,p}(F), C\in M_{p,q}(F)$.
  2. Compatibilidad con el producto por escalares: Se cumple que $\alpha(AB)=(\alpha A)B= A(\alpha B)$ para cualesquiera $\alpha \in F, A\in M_{m,n}(F), B\in M_{n,p}(F)$.
  3. Distributividad con respecto a la suma: Se cumplen

\begin{align*}
(A+B)C&=AC+BC\\
D(A+B)&= DA+DB
\end{align*}

para cualesquiera $A,B\in M_{m,n}(F)$, $C\in M_{n,p}(F)$ y $D\in M_{p,m}(F).$

Demostración: La demostración de estas propiedades se sigue directamente de la definición, o bien haciendo los cálculos a través de la regla del producto. Probaremos la asociatividad usando la definición, para mostrar las ventajas que tiene pensar al producto como la matriz correspondiente a la composición. Tras ver la demostración, piensa en lo tedioso que sería hacer la prueba usando la regla del producto.

Para verificar la asociatividad, basta ver que las transformaciones lineales de $(AB)C$ y $A(BC)$ son iguales (vimos en ésta entrada que si dos matrices tienen la misma transformación asociada, entonces son iguales). Es decir, que para todo $X\in F^q$ se cumple que

\begin{align*}
((AB)C)X=(A(BC))X.
\end{align*}

Por definición del producto, tenemos que

\begin{align*}
((AB)C)X= (AB)(CX)= A(B(C(X)),
\end{align*}

y desarrollando análogamente $A(BC)X$ tenemos

\begin{align*}
A(BC)X= A((BC)X)= A(B(C(X)).
\end{align*}

Comparando ambas expresiones se sigue el resultado. Como mencionamos, esto se pudo haber probado usando la regla del producto, comparando la $(i,j)$-ésima entrada de $(AB)C$ y la de $A(BC)$, verificando que ambas son iguales a

\begin{align*}
\sum_{k,l} a_{ik}b_{kl} c_{lj}.
\end{align*}

$\square$

Observación. Gracias a la asociatividad del producto, podemos escribir $ABC$ en lugar de $(AB)C$ o de $A(BC)$, aligerando la notación. Esto es más útil con más factores, por ejemplo el poder escribir $ABCD$ en lugar de $(A(BC))D$ o $A(B(CD))$. Así mismo, tampoco tenemos ambigüedad al definir el producto de cualquier número de matrices. Usaremos la notación

\begin{align*}
A^n= A\cdot A\cdot \ddots \cdot A,
\end{align*}

donde el lado derecho tiene $n$ factores. Esta es la $n$-ésima potencia de una matriz cuadrada $A$. Por construcción

\begin{align*}
A^n= A\cdot A^{n-1}.
\end{align*}

Y tomaremos como convención que $A^0=I_n$ para cualquier $A\in M_n(F)$. Dejamos como tarea moral el verificar que $I_n$ actúa como un neutro para la multiplicación, es decir que para cualquier matriz $A$ de tamaño $m\times n$ se tiene

\begin{align*}
A\cdot I_n=A \hspace{2mm} \text{ y } \hspace{2mm} I_m \cdot A=A.
\end{align*}

Acabamos esta sección con un problema para practicar los conceptos vistos.

Problema. Sea $A(x)\in M_3(\mathbb{R})$ la matriz definida por

\begin{align*}
A(x)=\begin{pmatrix} 1 & x& x^2\\ 0 & 1 & 2x\\ 0 & 0 & 1\end{pmatrix}.
\end{align*}

Demuestra que $A(x_1)A(x_2)=A(x_1+x_2)$ para cualesquiera $x_1,x_2\in \mathbb{R}$.

Solución. En este problema es más conveniente usar la regla del producto, que pensar a la composición de transformaciones. En todo problema es recomendable pensar en cuál de las formas del producto conviene más usar.

Usando la regla del producto, tenemos que

\begin{align*}
A(x_1)A(x_2)&= \begin{pmatrix} 1 & x_1 & x_1^2\\ 0 & 1 & 2x_1\\ 0 & 0 & 1 \end{pmatrix}\begin{pmatrix} 1 & x_2 & x_2^2\\ 0 & 1 & 2x_2\\ 0 & 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 1 & x_2+x_1 & x_2^2+2x_1 x_2+x_1^2\\
0 & 1 & 2x_2+2x_1\\
0 & 0 & 1\end{pmatrix} \\
&= \begin{pmatrix} 1 & x_1+x_2 & (x_1+x_2)^2\\
0 & 1 & 2(x_1+x_2)\\
0 & 0 & 1 \end{pmatrix}.
\end{align*}

Y el lado derecho es simplemente $A(x_1+x_2)$.

$\square$

Más adelante…

Si bien en esta entrada definimos el producto de matrices y estudiamos su relación con la composición de matrices, esto no es más que el primer paso de un estudio más grande: Ahora nos podemos hacer preguntas sobre transformaciones lineales (por ejemplo, ¿será biyectiva o invertible?) y estudiarlas en términos de matrices y su producto. Más adelante en el curso entrará el concepto de determinante que jugará un papel fundamental para responder muchas de estas preguntas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Realiza la operación $$\begin{pmatrix}2 & 1 & 0 \\ 1 & 2 & 0 \\ 0 & -1 & 0\end{pmatrix}^4.$$
  • Toma al vector canónico $e_i$ de $F^n$ pensado como matriz en $M_{1n}(F)$ y al vector canónico $e_j$ de $F^n$ pensado como matriz en $M_{n1}(F)$. ¿Quién es el producto de matrices $e_ie_j$? ¿Quién es el producto de matrices $e_je_i$?
  • Verifica las propiedades de compatibilidad con el producto por escalares y distributividad con respecto a la suma del producto de matrices.
  • Verifica que las matrices identidad actúan como neutro para la multiplicación de matrices.
  • Recuerda (o investiga) los axiomas de un anillo con unidad y verifica que las matrices cuadradas de tamaño $n$ forman un anillo con unidad para cualquier $n$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Cambio de base de transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior definimos las matrices de cambio de base. Vimos algunas de sus propiedades básicas y mostramos cómo nos pueden ayudar para resolver el primero de los siguientes dos problemas.

  • Supongamos que tenemos dos bases $B_1$ y $B_2$ de un espacio vectorial $V$ y que tomamos un vector $v$ en $V$. Si ya sabemos la combinación lineal de elementos de $B_1$ que da $v$, ¿cómo podemos saber la combinación lineal de elementos de $B_2$ que da $v$? En otras palabras, ¿cómo podemos pasar a $v$ de su expresión en base $B_1$ a su expresión en base $B_2$?
  • Supongamos que tenemos una transformación lineal $T:V\to W$ entre dos espacios vectoriales $V$ y $W$, dos bases $B_1$ y $B_2$ de $V$ y dos bases $C_1$ y $C_2$ de $W$. Si ya sabemos qué le hace $T$ a los elementos de $V$ en términos de las bases $B_1$ y $C_1$, ¿cómo podemos saber qué hace $T$ en términos de las bases $B_2$ y $C_2$?

El objetivo de esta entrada es ver cómo con las matrices de cambio de base también podemos resolver el segundo problema. Después de hacer esto, hablaremos de una noción fundamental en álgebra lineal: la de matrices similares.

Matrices de cambio de base y transformaciones lineales

Las matrices de cambios de base nos ayudan a entender a las matrices de transformaciones lineales en bases diferentes.

Teorema. Sea $T:V\to W$ una transformación lineal entre espacios de dimensión finita $V$ y $W$. Sean $B_1$ y $B_2$ bases de $V$, y $C_1$ y $C_2$ bases de $W$. Entonces $$\Mat_{C_2,B_2}(T) = \Mat_{C_2}(C_1)\Mat_{C_1,B_1}(T)\Mat_{B_1}(B_2).$$

Observa cómo la elección de orden en la notación está rindiendo fruto. En el lado derecho «van apareciendo las bases» en el «orden natural» $C_2$, $C_1$, $B_1$, $B_2$.

Demostración. Sean $P=\Mat_{C_1}(C_2)$ y $Q=\Mat_{B_1}(B_2)$. Por un resultado de la entrada anterior, $P$ es la matriz que representa a la transformación identidad en $W$ con respecto a las bases $C_1$ y $C_2$, es decir, $P=\Mat_{C_1,C_2}(\text{id}_W)$.

Por cómo son las matrices de composiciones de transformaciones lineales, y usando que $\text{id}_W\circ T=T$, tenemos que $$\Mat_{C_1,C_2}(\text{id}_W)\Mat_{C_2,B_2}(T)=\Mat_{C_1,B_2}(T).$$

De manera análoga, $Q$ es la matriz que representa a la transformación identidad en $V$ con respecto a las bases $B_1$ y $B_2$, de donde tenemos que $$\Mat_{C_1,B_1}(T)\Mat_{B_1,B_2}(\text{id}_V)=\Mat_{C_1,B_2}(T).$$

De esta forma, $$P\Mat_{C_2,B_2}(T) = \Mat_{C_1,B_2}(T) = \Mat_{C_1,B_1}(T) Q.$$ El resultado se obtiene multiplicando por la izquierda ambos lados de esta ecuación por $P^{-1}=\Mat_{C_2}(C_1)$.

$\square$

En la siguiente entrada se verán varios ejemplos que involucran crear matrices para transformaciones lineales, matrices de cambios de base y multiplicarlas para entender una transformación lineal en distintas bases.

Por el momento, dejamos únicamente un corolario del teorema anterior, para el caso en el que tenemos una transformación lineal de un espacio vectorial a sí mismo expresado en términos de dos bases.

Corolario. Sea $T:V\to V$ una transformación lineal de un espacio vectorial $V$ de dimensión finita a sí mismo. Sean $B$ y $B’$ bases de $V$ y $P$ la matriz de cambio de base de $B$ a $B’$. Entonces $$\Mat_{B’}(T)=P^{-1}\Mat_{B}(T)P.$$

Matrices similares

Definición. Decimos que dos matrices $A$ y $B$ en $M_{n}(F)$ son similares o conjugadas si existe una matriz invertible $P$ en $M_n(F)$ tal que $B=P^{-1}AP$.

En otras palabras, $A$ y $B$ son matrices similares si representan a una misma transformación lineal en diferentes bases.

Proposición. La relación «ser similares» es una relación de equivalencia en $M_n(F)$.

Demostración. Toda matriz es similar a sí misma usando $P=I_n$, la identidad. Si $A$ y $B$ son similares con matriz invertible $P$, entonces $B$ y $A$ son similares con matriz invertible $P^{-1}$. Si $A$ y $B$ son similares con matriz invertible $P$ y $B$ y $C$ son similares con matriz invertible $Q$, notemos que $A=P^{-1}BP=P^{-1}(Q^{-1}CQ)P=(QP)^{-1}C(QP)$, de modo que $A$ y $C$ son similares con matriz invertible $QP$.

$\square$

¿Por qué es importante saber si dos matrices son similares? Resulta que dos matrices similares comparten muchas propiedades, como su traza, su determinante, su rango, etc. Para algunas matrices es más sencillo calcular estas propiedades. Así que una buena estrategia en álgebra lineal es tomar una matriz $A$ «complicada» y de ahí encontrar una matriz similar $B$ «más simple», y usar $B$ para encontrar propiedades de $A$.

Veamos un ejemplo de esto. Mediante un sencillo argumento inductivo se puede mostrar lo siguiente.

Proposición. Si $A$ y $B$ son matrices similares con $A=P^{-1}BP$, entonces $A^n=P^{-1}B^nP$.

Si $B$ fuera una matriz diagonal, entonces es fácil encontrar $B^n$: basta con elevar cada una de las entradas de su diagonal a la $n$ (lo cual es mucho más fácil que hacer productos de matrices). Así, esto da una forma muy fácil de encontrar $A^n$: basta con encontrar $B^n$, y luego hacer dos multiplicaciones de matrices más, por $P^{-1}$ a la izquierda y por $P$ a la derecha.

Más adelante…

En estas últimas dos entradas aprendimos a hacer «cambios de base», tanto para coordenadas, como para formas matriciales. También, introdujimos el concepto de similitud de matrices. Cuando $A$ es una matriz similar a una matriz diagonal, decimos que $A$ es diagonalizable. Que una matriz sea diagonalizable trae muchas ventajas. Como ya mencionamos, una de ellas es poder elevar la matriz a potencias de manera sencilla. Otra ventaja es que en las matrices diagonalizables es sencillo calcular rangos, determinantes y otras invariantes de álgebra lineal.

Una parte importante de lo que resta del curso consistirá en entender por qué las matrices simétricas con entradas reales son diagonalizables. El teorema principal del curso (el teorema espectral), consistirá en mostrar que toda matriz simétrica con entradas reales es diagonalizable mediante matrices ortogonales. Para poder demostrarlo, necesitaremos primero estudiar teoría geométrica de espacios vectoriales y teoría de determinantes.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Deduce el corolario del teorema principal de esta entrada.
  • Considera $\mathbb{R}[x]_2$ de polinomios con coeficientes reales y grado a lo más dos. Sea $T: \mathbb{R}[x]_2$ la transformación tal que $T(p)=p’$, el polinomio derivado. Encuentra la matriz que representa a la transformación en la base $\{1+x+x^2,1+2x,1\}$ y la matriz que representa a la transformación en la base $\{1,x,x^2\}$. Encuentra también la matriz de cambio de base de la primera a la segunda. Verifica que se cumple la conclusión del corolario.
  • Sean $A$ y $B$ matrices similares. Muestra que $A$ es invertible si y sólo si $B$ lo es.
  • Sean $A$ y $B$ matrices similares. Muestra que $A$ y $B$ tienen la misma traza.
  • Completa el argumento inductivo para demostrar la última proposición.
  • Considera la matriz con entradas complejas $A=\begin{pmatrix}1 & 0 & 0\\ 0 & i & 0\\ 0 & 0 & -1 \end{pmatrix}$. Encuentra $A^{105}$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Matrices de cambio de base

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente platicamos de cómo al elegir una base ordenada $B$ de un espacio vectorial $V$ de dimensión finita $n$, podemos expresar a cada uno de sus vectores en términos de «coordenadas», que vienen de los coeficientes de la combinación lineal de elementos de $B$ que da el vector. Así mismo, vimos cómo podemos comenzar con una transformación lineal $T:V\to W$ entre espacios vectoriales $V$ y $W$ y de ahí obtener una «matriz que la represente». Para ello, necesitamos elegir bases ordenadas $B_V$ y $B_W$ de $V$ y $W$ respectivamente. Tanto las coordenadas, como las matrices que representan a transformaciones lineales, dependen fuertemente de las bases ordenadas elegidas. En esta entrada hablaremos de las matrices de cambio de base, pues nos ayudarán a pasar de unas coordenadas a otras.

Siento más concretos, es posible que en algunas aplicaciones de álgebra lineal tengamos una transformación $T:V\to W$, y que los vectores de $V$ o los de $W$ los tengamos que entender en más de una base. Así, los dos siguientes problemas aparecen frecuentemente:

  • Supongamos que tenemos dos bases (ordenadas) $B_1$ y $B_2$ de un espacio vectorial $V$ y que tomamos un vector $v$ en $V$. Si ya sabemos la combinación lineal de elementos de $B_1$ que da $v$, ¿cómo podemos saber la combinación lineal de elementos de $B_2$ que da $v$? En otras palabras, ¿cómo podemos pasar a $v$ de su expresión en base $B_1$ a su expresión en base $B_2$?
  • Supongamos que tenemos una transformación lineal $T:V\to W$ entre dos espacios vectoriales $V$ y $W$, dos bases (ordenadas) $B_1$ y $B_2$ de $V$ y dos bases (ordenadas) $C_1$ y $C_2$ de $W$. Si ya sabemos qué le hace $T$ a los elementos de $V$ en términos de las bases $B_1$ y $C_1$, ¿cómo podemos saber qué hace $T$ en términos de las bases $B_2$ y $C_2$?

La herramienta que necesitamos para responder ambos problemas se le conoce como matrices de cambio de base. El objetivo de esta entrada es definir estas matrices, ver algunas propiedades básicas que cumplen y ver cómo nos ayudan a resolver el primero de los problemas de aquí arriba. En una segunda entrada veremos cómo también sirven para resolver el segundo.

Matrices de cambio de base

Definición. Sea $V$ un espacio vectorial de dimensión $n$ sobre el campo $F$. Sean $B=(v_1,\ldots,v_n)$ y $B’=(v_1′, \ldots, v_n’)$ dos bases ordenadas de $V$. La matriz de cambio de base de $B$ a $B’$ es la matriz $P=[p_{ij}]$ en $M_{n}(F)$ cuya columna $j$ tiene como entradas a las coordenadas de $v_j’$ escrito en términos de la base $B$. En otras palabras, las entradas $p_{1j},\ldots,p_{nj}$ de la $j$-ésima columna de $P$ son los únicos elementos de $F$ para los cuales $$v_j’=p_{1j}v_1+\ldots +p_{nj} v_n,$$ para toda $j=1,2,\ldots,n$.

Ejemplo. Considera la base ordenada $B=(1,x,x^2)$ de $\mathbb{R}_2[x]$, el espacio vectorial de polinomios de coeficientes reales grado a lo más $2$. Veremos que $B’=(3x^2,2x,1)$ es también una base de $\mathbb{R}_2[x]$. Encontraremos la matriz de cambio de base de $B$ a $B’$ y la matriz de cambio de base de $B’$ a $B$.

La dimensión de $\mathbb{R}_2[x]$ es $3$ y $B’$ tiene $3$ elementos, así que basta ver que los elementos de $B’$ son linealmente independientes para ver que $B’$ es base. Una combinación lineal $a(3x^2)+b(2x)+c(1)=0$ es equivalente a que $3ax^2+2bx+c=0$, lo cual sucede si y sólo si $a=b=c=0$. Esto muestra que $B’$ es base.

Para encontrar a la matriz de cambio de base de $B$ a $B’$ lo que tenemos que hacer es escribir a los elementos de $B’$ como combinación lineal de los elementos de $B$. Esto lo hacemos de la siguiente manera (recuerda que el orden es importante):

\begin{align*}
3x^2 &= 0 \cdot 1 + 0 \cdot x + 3 \cdot x^2\\
2x &= 0\cdot 1+ 2\cdot x + 0 \cdot x^2\\
1 & = 1\cdot 1 + 0 \cdot x + 0 \cdot x^2.
\end{align*}

Como los coeficientes de $3x^2$ en la base ordenada $B$ son $0$, $0$ y $3$, entonces la primer columna de la matriz de cambio de base será $\begin{pmatrix} 0 \\ 0 \\ 3\end{pmatrix}$. Argumentando de manera similar para $2x$ y $1$, tenemos que la matriz de cambio de base de $B$ a $B’$ es $$\begin{pmatrix}
0 & 0 & 1\\
0 & 2 & 0 \\
3 & 0 & 0
\end{pmatrix}.$$

Para encontrar a la matriz de cambio de base de $B’$ a $B$, expresamos a los elementos de $B$ en términos de la base $B’$ como sigue:

\begin{align*}
1 &= 0 \cdot (3x^2) + 0 \cdot (2x) + 1 \cdot 1\\
x &= 0\cdot (3x^2)+ \frac{1}{2} \cdot (2x) + 0 \cdot 1\\
x^2 & = \frac{1}{3} \cdot (3x^2) + 0 \cdot (2x) + 0 \cdot 1.
\end{align*}

En este caso fue sencillo hacerlo, pero en otros problemas frecuentemente esto se hace resolviendo un sistema de ecuaciones.

De esta manera, tenemos que la matriz de cambio de base de $B’$ a $B$ es $$\begin{pmatrix}
0 & 0 & \frac{1}{3}\\
0 & \frac{1}{2} & 0 \\
1 & 0 & 0
\end{pmatrix}.$$

$\triangle$

Cambio de coordenadas usando matrices de cambio de base

Las matrices de cambio de base nos ayudan a responder la primer pregunta que planteamos al inicio de esta entrada. Si conocemos las coordenadas de un vector en una base, podemos usar la matriz de cambio de base para encontrar las coordenadas del vector en otra base.

Proposición. Sea $V$ un espacio vectorial de dimensión $n$, $B=(v_1,\ldots,v_n)$, $B’=(v_1′,\ldots,v_n’)$ bases ordenadas de $V$ y $P$ la matriz de cambio de base de $B$ a $B’$. Supongamos que el vector $v$ de $V$ se escribe en base $B$ como $$v=c_1v_1+c_2v_2+\ldots+c_nv_n$$ y en base $B’$ como $$v=c_1’v_1’+c_2’v_2’+\ldots+c_n’v_n’.$$ Entonces: $$
P
\begin{pmatrix}
c_1′ \\
\vdots \\
c_n’
\end{pmatrix}=\begin{pmatrix}
c_1 \\
\vdots \\
c_n
\end{pmatrix} .$$

En otras palabras, la matriz $P$ de cambio de base de $B$ a $B’$ manda las coordenadas de un vector en base $B’$ a coordenadas en base $B$ al multiplicar por la izquierda. Ojo: para construir $P$ expresamos a $B’$ en términos de $B$, pero lo que hace $P$ es expresar a alguien de coordenadas en $B’$ a coordenadas en $B$.

Demostración. El vector de coordenadas de $v_j’$ escrito en base $B’$ es el vector canónico $e_j$ de $F^n$. Además, $Pe_j$ es la $j$-ésima columna de $P$, que por construcción es el vector de coordenadas de $v_j’$ en la base $B$. Así, el resultado es cierto para los vectores $v_j’$ de la base $B’$. Para cualquier otro vector $v$, basta expresarlo en términos de la base $B’$ y usar la linealidad de asignar el vector de coordenadas y la linealidad de $P$.

$\square$

Problema. Escribe a los vectores $v_1=(4,3,5,2)$, $v_2=(2,2,2,2)$ y $v_3(0,0,0,1)$ de $\mathbb{R}^4$ como combinación lineal de los elementos de la base $B$ de $\mathbb{R}^4$ conformada por los vectores $(1,0,0,0)$, $(1,1,0,0)$, $(1,1,1,0)$ y $(1,1,1,1)$.

Solución. Conocemos las coordenadas de $v_1,v_2,v_3$ en la base canónica $(1,0,0,0)$, $(0,1,0,0)$, $(0,0,1,0)$, $(0,0,0,1)$. De hecho, el vector de coordenadas de $v_1$ es exactamente $v_1$ (esto es algo que sucede pues estamos trabajando en $\mathbb{R}^4$). Lo que nos estan pidiendo son las coordenadas de $v_1,v_2,v_3$ en la base $B$. Nos gustaría usar la proposición anterior. Para ello, necesitamos encontrar la matriz de cambio de base de $B$ a la base canónica. Escribamos entonces a la base canónica en términos de los vectores de $B$:

\begin{align*}
(1,0,0,0)&=1\cdot (1,0,0,0)+0\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\
(0,1,0,0)&= -1\cdot (1,0,0,0)+1\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\
(0,0,1,0)&= 0\cdot (1,0,0,0)-1\cdot (1,1,0,0)+1\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\
(0,0,0,1)&= 0\cdot (1,0,0,0)+0\cdot (1,1,0,0)-1\cdot (1,1,1,0)+1\cdot (1,1,1,1)\\
\end{align*}

A estas coordenadas las ponemos como columnas para encontrar la matriz de cambio de base de $B$ a la base canónica:
$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix}.$$

Para encontrar las coordenadas de $v_1, v_2, v_3$ en términos de la base $B$, basta con multiplicar esta matriz a la izquierda para cada uno de ellos:

$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
4 \\
3 \\
5 \\
2
\end{pmatrix} = \begin{pmatrix}
1 \\
-2 \\
3\\
2
\end{pmatrix},$$

$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
2 \\2 \\ 2 \\ 2
\end{pmatrix} = \begin{pmatrix}
0 \\0 \\ 0\\ 2
\end{pmatrix} $$ y

$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\0 \\ 0 \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\0 \\ -1\\ 1
\end{pmatrix}. $$

En efecto, se puede verificar que estos nuevos vectores dan las combinaciones lineales de la base $B$ que hacen a $v_1$, $v_2$ y $v_3$, por ejemplo, para $v_1$ tenemos: $$(4,5,3,2)=(1,0,0,0)-2(1,1,0,0)+3(1,1,1,0)+2(1,1,1,1).$$

$\triangle$

Matrices de cambio de base como la forma matricial de una transformación lineal

A la matriz de cambio de base de $B$ a $B’$ la denotamos por $\text{Mat}_B(B’)$.

Una observación crucial es que podemos pensar a las matrices de cambio de base en un espacio vectorial $V$ justo como formas matriciales correspondientes a una transformación lineal específica. De hecho, la transformación lineal que le corresponde es muy bonita: es la identidad $\text{id}_V$ que manda a cada vector de $V$ a sí mismo.

De manera más concreta, si $B$ y $B’$ son bases de $V$ y $\text{Mat}_B(B’)$ es la matriz de cambio de base de $B$ a $B’$, entonces $$\text{Mat}_B(B’)=\text{Mat}_{B,B’}(\text{id}_V).$$ A estas alturas tienes todas las herramientas necesarias para demostrar esto.

¿Qué sucede si ahora tenemos tres bases $B$, $B’$ y $B»$ de $V$ y componemos a la identidad consigo misma? Utilizando los argumentos de la entrada anterior, la matriz correspondiente a la composición es el producto de las matrices de cada transformación. Juntando esto con la observación anterior, tenemos la siguiente propiedad para matrices de cambio de base:

$$\text{Mat}_B(B»)=\text{Mat}_{B}(B’)\cdot \text{Mat}_{B’}(B»).$$

Finalmente, ¿qué sucede si en la igualdad anterior ponemos $B»=B$? Al lado izquierdo tenemos la matriz de cambio de base de $B$ a sí misma, que puedes verificar que es la identidad. Al lado derecho tenemos al producto de la matriz de cambio de base de $B$ a $B’$ con la matriz de cambio de $B’$ a $B$. Esto muestra que las matrices de cambio de base son invertibles.

Resumimos todas estas observaciones en la siguiente proposición:

Proposición. Sean $B$, $B’$ y $B»$ bases del espacio vectorial de dimensión finita $V$.

  • La matriz de cambio de base de $B$ a $B’$ corresponde a la matriz de la transformación identidad de $V$ a $V$, en donde el primer $V$ lo pensamos con la base $B’$ y al segundo con la base $B$.
  • El producto de matrices de cambio de base de $B$ a $B’$ y de $B’$ a $B»$ es la matriz de cambio de base de $B$ a $B»$.
  • La matriz de cambio de base de $B$ a $B’$ es invertible, y su inversa es la de cambio de base de $B’$ a $B$.

En la próxima entrada veremos cómo las matrices de cambio de base también nos ayudan a entender transformaciones lineales bajo distintas bases.

Más adelante…

En esta entrada ya vimos cómo cambian las coordenadas de un vector cuando cambiamos de base. Lo que haremos en la siguiente entrada es estudiar cómo cambia la forma matricial de una transformación lineal cuando cambiamos las bases de su espacio vectorial origen y su espacio vectorial destino.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Qué sucede en el primer ejemplo si multiplicas ambas matrices de cambio de base que encontramos?
  • En el segundo ejemplo, encuentra la matriz de cambio de base de la base canónica a la matriz $B$
  • Considera las cuatro matrices de $2\times 2$ que puedes formar colocando tres unos y un cero. Muestra que estas cuatro matrices forman una base $B$ de $M_{2,2}(\mathbb{R})$. Determina la matriz de cambio de base de $B$ a la base canónica de $M_{2,2}(\mathbb{R})$. Ojo: Una cosa son los elementos del espacio vectorial y otra cosa van a ser las matrices de cambio de base. Como $M_{2,2}(\mathbb{R})$ es de dimensión $4$, la matriz de cambio de base que tienes que determinar en realidad es de $4\times 4$.
  • Da una demostración de que, en efecto $$\text{Mat}_B(B’)=\text{Mat}_{B,B’}(\text{id}_V).$$
  • Verifica que la matriz de cambio de base $B$ a sí misma es la identidad.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»