Archivo de la etiqueta: isomorfismo

Álgebra Moderna I: Propiedades de los Homomorfismos

Por Cecilia del Carmen Villatoro Ramos

Introducción

En la entrada anterior vimos una introducción a los homomorfismos y algunas propiedades. Ahora sabemos que un homomorfismo es una función $\varphi :G\rightarrow \bar{G}$ entre dos grupos $(G,*)$ y $(\bar{G},\bar{*})$, que respeta las operaciones, es decir, que para todas $a,b\in G$, $\varphi(a*b) = \varphi(a)\bar{*}\varphi(b)$. A partir de ahora simplificaremos la notación y escribiremos simplemente la condición anterior como: para todas $a,b\in G$, $\varphi(ab) = \varphi(a)\varphi(b)$ (a menos que haya ambigüedad respecto a qué operación se está usando en cada caso).

En esta entrada, continuaremos dando algunas propiedades de los homomorfismos, en particular veremos cómo se comportan con las potencias de elementos del grupo y, en seguida, cómo se comparan el orden de un elemento y el orden de su imagen bajo un homomorfismo.

Homomorfismos y la potencia

Dado que el homomorfismo respeta el producto, se va a comportar bien con las potencias.

Proposición. Sean $G, \bar{G}$ grupos, $\varphi: G\rightarrow \bar{G}$ un homomorfismo. Entonces,

  1. $\varphi(e_G) = e_{\bar{G}}$.
  2. $\varphi(a^{-1}) = \left( \varphi(a)\right)^{-1}$ para toda $a \in G$.
  3. $\varphi(a^n) = \left( \varphi(a)\right)^n$ para toda $a \in G$ y para toda $n \in \z$.

Demostración.

Sean $G, \bar{G}$ grupos y $\varphi: G \rightarrow \bar{G}$ un homomorfismo.

P.D. $\varphi(e_G) = \varphi e_{\bar{G}}$.

Por un lado tenemos que $\varphi(e_g) e_{\bar{G}} = \varphi(e_G)$ porque $e_{\bar{G}}$ es el neutro de $\bar{G}$. Por otro lado tenemos que $\varphi(e_G) = \varphi(e_G e_G)$ porque $e_{G}$ es el neutro de $G$, y $ \varphi(e_G e_G) = \varphi(e_G) \varphi(e_G)$ porque $\varphi$ es un homomorfismo.

Entonces tenemos

\begin{align*}
&\varphi(e_g) e_{\bar{G}} = \varphi(e_G) = \varphi(e_G) \varphi(e_G). \\
\end{align*}

Cancelamos $\varphi(e_G)$, y obtenemos
\begin{align*}
e_{\bar{G}} = \varphi(e_G).
\end{align*}

Sea $a \in G$.
P.D. $\varphi(a^{-1}) = \left( \varphi(a)\right)^{-1}$.

Por un lado tenemos que $\varphi(a) \left(\varphi(a) \right)^{-1} = e_{\bar{G}}$.

Por el inciso anterior, tenemos que $e_{\bar{G}} = \varphi(e_G) = \varphi(a a^{-1})$ y como $\varphi$ es un homomorfismo, tenemos que $\varphi(a a^{-1}) = \varphi(a)\varphi( a^{-1})$.

Entonces tenemos que $\varphi(a) \left(\varphi(a) \right)^{-1} = \varphi(a)\varphi( a^{-1})$, donde podemos cancelar $\varphi(a)$:

\begin{align*}
&\varphi(a) \left(\varphi(a) \right)^{-1} = \varphi(a)\varphi( a^{-1}) \\
&\Rightarrow \left(\varphi(a) \right)^{-1} = \varphi( a^{-1}).
\end{align*}

Sea $a\in G$.
P.D. $\varphi(a^n) = \left( \varphi(a)\right)^n$ para toda $a \in G$ y $n \in \z$.
Demostraremos primero el resultado para $n\in\n$ por inducción sobre $n$.

Sea $n=0$.

Entonces, por el inciso 1,
\begin{align*}
\varphi(a^0) = \varphi(e_G) = e_{\bar{G}} = (\varphi(a))^0.
\end{align*}

Sea $n\geq 0$.
Para nuestra hipótesis de inducción, supongamos que $\varphi(a^n) = (\varphi(a))^n$.

Por la definición de potencia,
\begin{align*}
\varphi(a^{n+1}) = \varphi(a^n a).
\end{align*}

Luego, como $\varphi$ es un homomorfismo,
\begin{align*}
\varphi(a^n a) &= \varphi(a^n) \varphi(a) \\
&= (\varphi(a))^n \varphi(a) & \text{Por H.I.}\\
&= (\varphi(a))^{n+1} &\text{Por la definición de potencia}
\end{align*}

Por lo tanto $\varphi(a^n) = (\varphi(a))^n$ para toda $n\in \n$.

Finalmente, si $n \in \z^+$.
\begin{align*}
\varphi(a^{-n}) &= \varphi((a^n)^{-1}) \\
&= \varphi((a^n))^{-1} &\text{Por el inciso 2}\\
&= ((\varphi(a))^n)^{-1} &\text{Por lo probado anteriormente}\\
&= (\varphi(a))^{-n}
\end{align*}

Por lo tanto $\varphi(a^m) = (\varphi(a))^m$, para toda $m \in \z$.

$\blacksquare$

Homomorfismos y el orden

Corolario. Sean $G, \bar{G}$ grupos, sea $\varphi: G\to \bar{G}$ un homomorfismo.
Si $a\in G$ es de orden finito, $\varphi(a)$ también lo es y $o(\varphi(a)) \big| o(a)$. Es decir, el orden de $\varphi(a)$ divide al orden de $a$.
Más aún, si $\varphi$ es un isomorfismo, entonces $o(\varphi(a)) = o(a)$.

Demostración.
Sean $G, \bar{G}$ grupos, $\varphi: G \to \bar{G}$ un homomorfismo y sea $a\in G$ de orden finito.

Ahora, usamos las propiedades de $\varphi$ para obtener las siguientes igualdades.

\begin{align*}
\varphi(a)^{o(a)} = \varphi(a^{o(a)}) = \varphi(e_G) = e_{\bar{G}}.
\end{align*}

Esto nos dice que $\varphi(a)$ es de orden finito. Esto no significa que $o(a)$ es el orden de $\varphi(a)$, pero sí se sigue, por las propiedades del orden de un elemento, que $o(\varphi(a))\big| o(a)$.

Ahora, si $\varphi$ es un isomorfismo, $\varphi^{-1}$ también, así que por lo antes probado $o(\varphi^{-1}(b))\big| o(b)$ para todo $b\in\bar{G}$; en particular, para $b=\varphi(a)$ se tiene que $o(\varphi^{–1}(\varphi(a))) \big| o(\varphi(a))$. Entonces,
\begin{align*}
o(a) = o(\varphi^{–1}(\varphi(a))) \big| o(\varphi(a))
\end{align*}

Por lo tanto $o(\varphi(a)) = o(a)$.

$\blacksquare$

Ejemplo.

Por último, veamos un ejemplo para ilustrar las propiedades que acabamos de ver.

Sea $G$ un grupo, $a \in G$ de orden finito.

Dado $g\in G$ sabemos que
\begin{align*}
\gamma_g : G \to G \quad \text{con} \quad \gamma_g(x) = gxg^{-1} \; \forall x\in G
\end{align*}

es un isomorfismo.

Así, $\gamma_g(a)$ es de orden finito y $o(\gamma_g(a)) = o(a)$. Entonces, $gag^{-1}$ es de orden finito y $o(gag^{-1}) = o(a)$.

Así, elementos conjugados tienen el mismo orden.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sean $G$ y $\bar{G}$ grupos y $X\subseteq G$ tal que $G = \left< X\right>.$ Sea $\varphi: X \to \bar{G} $ una función. ¿Qué se requiere para poder extender $\varphi$ a un homomorfismo $\psi: G \to \bar{G}$? En ese caso ¿de cuántas formas se pueden extender?
  2. Describe, si es que existen, todos los homomorfismos:
    • de $\z$ en $\z$
    • de $\z_{12}$ en $\z_5$
    • de $\z$ en $\z_8$
    • de $\z_{12}$ en $\z_{14}$
  3. Determina si los siguientes grupos son isomorfos
    • $Q$ y $D_{2(4)}$
    • $(SO(2,\r), \cdot\,)$ y $(S^1, \cdot\,)$
    • $(\z[x], +)$ y $(\mathbb{Q}^+, \cdot\,)$

Más adelante…

Los resutados mostrados en esta entrada no son más que consecuencias lógicas a lo que establecimos en la entrada anterior. Es importante recalcarlos, pero es claro que si un homomorfismo se comporta bien con el producto, se va a comportar bien con la potencia y por ende, con el orden de un elemento.

En la siguiente entrada, definiremos nuevos conceptos relacionados con los homomorfismos, como el núcleo de un homomorfismo y la proyección canónica.

Entradas relacionadas

Álgebra Moderna I: Homomorfismo, Monomorfismo, Epimorfismo, Isomorfismo y Automorfismo

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Lo sé, el título parece un trabalenguas. Pero ten paciencia, en realidad no es tan complicado.

A lo largo de este curso hemos estado trabajando con grupos, ahora vamos a pensar en funciones que respetan de alguna manera la estructura de los grupos.

Tomemos por ejemplo el grupo de Klein, $V = \{(0,0), (1,0), (0,1),(1,1)\}$, es un grupo que tiene un neutro $(0,0)$ y los otros tres elementos comparten que: tienen orden 2, si se suman consigo mismos obtenemos el neutro y si sumamos dos, obtenemos el tercero:

\begin{align*}
(1,0) + (1,0) &= (0,0)\\
(0,1) + (0,1) &= (0,0)\\
(1,1) + (1,1) &= (0,0).
\end{align*}

\begin{align*}
(1,0) + (0,1) &= (1,1)\\
(0,1) + (1,1) &= (1,0)\\
(1,1) + (1,0) &= (0,1).
\end{align*}

Por otro lado, podemos tomar el conjunto $P = \{(1), (1\, 2)(3\,4), (1\,3)(2\,4), (1\,4)(2\,3)\}$. $P$ es un grupo que tiene un neutro $(1)$ y los otros tres elementos comparten que: tienen orden 2, si se componen consigo mismos obtenemos el neutro y si componemos dos, obtenemos el tercero:

\begin{align*}
(1\, 2)(3\,4)(1\,2)(3\,4) &= (1)\\
(1\,3)(2\,4)(1\,3)(2\,4) &= (1)\\
(1\,4)(2\,3)(1\,4)(2\,3) &= (1).
\end{align*}

\begin{align*}
(1\, 2)(3\,4)(1\,3)(2\,4) &= (1\,4)(2\,3)\\
(1\,3)(2\,4)(1\,4)(2\,3) &= (1\, 2)(3\,4)\\
(1\,4)(2\,3)(1\, 2)(3\,4) &= (1\,3)(2\,4).
\end{align*}

¿Suena familiar? Bueno, esto es porque a pesar de que son grupos distintos, con elementos y operaciones muy diferentes, estructuralmente son iguales.

Para formalizar esta idea, nos gustaría observar que existe una correspondencia entre los dos grupos. Esta correspondencia es biyectiva y además tiene que respetar la estructura de las operaciones. Entonces sería algo así:

\begin{align*}
(0,0) &\longrightarrow (1)\\
(1,0) &\longrightarrow (1\, 2)(3\,4)\\
(0,1) &\longrightarrow (1\,3)(2\,4)\\
(1,1) &\longrightarrow (1\,4)(2\,3).
\end{align*}

En este caso decimos que $V$ y $P$ son isomorfos. Lo definiremos formalmente más adelante, por ahora es importante que observes que esta correspondencia mantiene la estructura de las operaciones de los grupos. Así, este es el objetivo de la entrada, definir y trabajar con funciones (no necesariamente biyectivas) que mantengan las operaciones de dos grupos. Estas funciones son llamadas homomorfismos.

¿Qué son todos estos homomorfismos?

Primero, comencemos definiendo lo más general. Una función que mantenga las operaciones entre grupos.

Definición. Sean $(G,*), (\bar{G}, \bar{*})$ grupos. Decimos que la función $\varphi:G \mapsto \bar{G}$ (ó $\varphi: (G,*)\mapsto (\bar{G},\bar{*})$) es un homomorfismo de grupos si
$$\varphi(a*b) = \varphi(a) \bar{*} \varphi(b) \quad \forall a,b\in G.$$

Se puede decir que $\phi$ «abre» a la operación.

Definiciones varias.

Ahora, le agregaremos condiciones a $\varphi$. Dependiendo de qué condición extra cumpla, el homorfismo tomará otro nombre.

  • Si el homomorfismo $\varphi$ es inyectivo se llama monomorfismo.
  • Si el homomorfismo $\varphi$ es suprayectivo se llama epimorfismo.
  • Si el homomorfismo $\varphi$ es biyectivo se llama isomorfismo.
  • Un isomorfismo de un grupo en sí mismo se llama automorfismo.

Notación. Si $\varphi$ es un isomorfismo decimos que $G$ es isomorfo a $\bar{G}$ y lo denotamos como $G \cong \bar{G}$.

Puede parecer mucho vocabulario nuevo, así que guarda esta entrada para recordar qué es cada uno.

Ejemplos.

  1. Tomemos $\varphi: (\z , +) \mapsto (\z_n,+)$ con $\varphi(a) = \bar{a}$ para toda $a\in \z$. Es decir, $\varphi$ manda a cada entero a su clase módulo $n$.

    Veamos qué sucede con la suma :
    $\varphi(a+b) = \overline{a+b} = \bar{a} + \bar{b} = \varphi(a) + \varphi(b)$ para toda $a,b \in \z$.

    Además, dado $\bar{a} \in \z_n, \bar{a} = \varphi(a)$. Entonces $\varphi$ es suprayectiva.
    Por lo tanto $\varphi$ es un epimorfismo.
  2. Sea $n \in \n^+$.
    Tomamos $\varphi: (S_n, \circ) \mapsto (S_{n+1}, \circ)$ donde para cada $\alpha \in S_n$ se define $\varphi(\alpha) \in S_{n+1}$ tal que
    \begin{align*}
    \varphi(\alpha)(i) =
    \begin{cases}
    \alpha(i) & \text{si } i \in \{1,…,n\} \\
    n+1 & \text{si } i = n+1
    \end{cases}
    \end{align*}
    Es decir, se mantienen las permutaciones de $S_n$ pero se consideran como elementos de $S_{n+1}$ pensando que dejan fijo a $ n+1$.

    Ahora veamos qué sucede con el producto, sean $\alpha, \beta \in S_n$:
    \begin{align*}
    \varphi(\alpha)\varphi(\beta) (i) &= \varphi(\alpha)(\varphi(\beta)(i)) \\
    & = \begin{cases} \alpha(\beta(i)) & \text{si } i \in \{1, … , n\} \\
    n+1 & \text{si } i = n+1
    \end{cases} \\
    &= \varphi(\alpha\beta)(i)
    \end{align*}

    Además, si $\varphi(\alpha) = (1)$ entonces $\alpha(i) = i$ para todo $i \in \{1, …, n\}$. Así $\alpha = (1).$ Por lo que $\varphi$ es inyectiva.
    En conclusión, $\varphi$ es un monomorfismo.
  3. Sea $\varphi: (\r, +) \mapsto (\r^+, \cdot)$ con $\varphi(x) = e^x$ para todo $x\in\r$.
    Entonces, para la suma de dos elementos en el dominio $x,y \in \r$ tendríamos,
    $$\varphi(x+y) = e^{x+y} = e^x e^y = \varphi(x) \varphi(y).$$
    Sabemos que $\psi: \r^+ \mapsto \r$ con $\psi(y) = \ln(y)$ para toda $y \in \r^+$ es la inversa de $\varphi$, así $\varphi$ es biyectiva.
    Por lo tanto $\varphi$ es un isomorfismo.
  4. Veamos un ejemplo más abstracto. Sea $G$ un grupo y $g\in G$. Y, dadas $x,y \in G$, definimos
    $\gamma_g(xy) = g(xy) g^{-1} = (gxg^{-1}) (gyg^{-1}) = \gamma_g (x) \gamma_g(y).$
    Además, para toda $x \in G$,
    \begin{align*}
    \gamma_g \circ \gamma_{g^{-1}} (x) = \gamma_g (g^{-1}x g ) = g(g^{-1} x g) g^{-1} = x \\
    \gamma_{g^{-1}} \circ \gamma_{g} (x) = \gamma_{g^{-1}} (g x g^{-1} ) = g^{-1}(g x g^{-1}) g = x .
    \end{align*}
    Donde, $g^{-1}$ existe porque $G$ es un grupo. Así, lo anterior nos indica que $\gamma_g$ es un homomorfismo invertible, que además tiene como dominio y codominio a $G$.

    Por lo tanto $\gamma_g$ es un automorfismo.

Propiedades de los homomorfismos

Proposición. El inverso de un isomorfismo es un isomorfismo.

Demostración.

Sean $(G, *), (\bar{G}, \bar{*})$ grupos, $\varphi:G\mapsto \bar{G}$ es un isomorfismo.
Tomemos $c,d \in\bar{G}$.

Como $\varphi$ es suprayectiva, existen $a,b \in G$ tales que $\varphi(a) = c$ y $\varphi(b) = d$.

\begin{align*}
\varphi^{-1} (c \bar{*}d) &= \varphi^{-1} \left( \varphi(a) \bar{*} \varphi(b) \right) \\
&= \varphi^{-1}\left( \varphi(a * b)\right) & \varphi \text{ es un homomorfismo}\\
& = \varphi^{-1} \circ \varphi (a*b)\\
& = a * b & \text{Composición de inversas}\\
& = \varphi^{-1}(c) * \varphi^{-1}(d) & \text{Pues }\varphi(a) = c,\, \varphi(b) = d
\end{align*}

Así, $\varphi^{-1}$ es un homomorfismo y como es biyectivo por ser invertible, entonces $\varphi^{-1}$ es un isomorfismo.

$\blacksquare$

Proposición. La composición de homomorfismos es un homomorfismo.

Demostración.

Sean $(G,*), (\bar{G}, \bar{*}), (\tilde{G}, \tilde{*})$ grupos. También, sean $\varphi: G \mapsto \bar{G}$ y $\psi: \bar{G} \mapsto \tilde{G}$ homomorfismos.

Dados $a,b \in G$,

\begin{align*}
\psi \circ \varphi(a*b) &= \psi (\varphi (a*b)) \\
&= \psi(\varphi(a)\,\bar{*}\, \varphi(b)) &\varphi\text{ es homomorfismo}\\
&= \psi(\varphi(a)) \,\tilde{*}\, \psi(\varphi(b)) & \psi\text{ es homomorfismo} \\
&= \psi\circ\varphi(a)\, \tilde{*} \,\psi\circ\varphi(b)
\end{align*}

Por lo tanto $\psi\circ\varphi$ es un homomorfismo.

$\blacksquare$

Observaciones.

  • Para todo $G$ grupo, $G\cong G$. (Es decir, $G$ es isomorfo a sí mismo).
  • Si $G, \bar{G}$ son grupos y $G \cong \bar{G}$, entonces $\bar{G}\cong G$.
  • Si $G, \bar{G}, \tilde{G}$ son grupos, $G \cong \bar{G}$ y $\bar{G} \cong \tilde{G}$, entonces $G\cong \tilde{G}.$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sea $D_{2n} = \left<a,b\right>$ el grupo diédrico formado por las simetrías de un $n$-ágono, con $a$ la rotación de $\frac{2\pi}{n}$ y $b$ la reflexión con respecto al eje $x$. Sea $\varphi: D_{2n} \to D_{2n}$ tal que $\varphi(a^ib^j) = b^j$. ¿Es $\varphi$ un homomorfismo?
  2. Sean $X$ y $Y$ dos conjuntos con la misma cardinalidad. ¿Qué relación hay entre $S_X$ y $S_Y$?
  3. Sea $V = \{e, (1\,2)(3\,4), (1\,3)(2\,4), (1\,4)(1\,3)\} \leq S_4$. Encuentra $H\leq S_4$, $H\neq V$ pero isomorfo a $V$. ¿Es $H$ normal en $S_4$?

Más adelante…

Los homomorfismos son una parte importante de las matemáticas, porque respetar las operaciones es una característica sencilla a simple vista, pero lo suficientemente compleja para que las funciones que la cumplan sean muy interesantes. Los homomorfismos nos permiten cambiar de espacios de trabajo sin mucho problema.

Por otro lado, tal vez ya sabes que las matemáticas de este curso (y de la mayoría de los cursos en este blog) están fundamentadas en la Teoría de Conjuntos. Esta teoría nos permite construir a los objetos matemáticos a partir de conjuntos. Como curiosidad, tal vez te interese saber que existe otra teoría llamada Teoría de Categorías, que generaliza lo anterior, y en la que la generalización de un homomorfismo es llamado morfismo.

Aunque estén definidos de manera diferente, los homomorfismos de esta entrada y los morfismos de la Teoría de Categorías son, en intuición, lo mismo. Esto refuerza la idea de que los homomorfismos son en realidad más importantes de lo que parecen.

Pero bueno, regresemos a nuestro curso: en la siguiente entrada continuaremos viendo el comportamiento de los homomorfismos.

Entradas relacionadas

Álgebra Lineal I: Bases duales, recetas y una matriz invertible

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior definimos el espacio dual de un espacio vectorial $V$. Así mismo, definimos las formas coordenadas, que son formas lineales asociadas a una base $B$ de $V$. Lo que hace la $i$-ésima forma coordenada en un vector $v$ es «leer» el $i$-ésimo coeficiente de $v$ expresado en la base $B$. Nos gustaría ver que estas formas coordenadas conforman bases del espacio dual.

Más concretamente, el objetivo de esta entrada es mostrar el teorema que enunciamos al final de la entrada anterior, hablar de problemas prácticos de bases duales y de mostrar un resultado interesante que relaciona bases, bases duales y la invertibilidad de una matriz.

Pequeño recordatorio

Como recordatorio, dada una base $B=\{e_1,\ldots,e_n\}$ de un espacio vectorial $V$ de dimensión finita $n$, podemos construir $n$ formas coordenadas $e_1^\ast,\ldots,e_n^\ast$ que quedan totalmente determinadas por lo que le hacen a los elementos de $B$ y esto es, por definición, lo siguiente:

$$
e_i^\ast(e_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$.}
\end{cases}
$$

Recordemos también que dado un vector $v$ en $V$ podíamos construir a la forma lineal «evaluar en $v$», que era la forma $\text{ev}_v:V^\ast \to F$ dada por $\text{ev}_v(f)=f(v)$. Como manda elementos de $V^\ast$ a $F$, entonces pertenece a $V^{\ast \ast}$. A partir de esta definición, construimos la bidualidad canónica $\iota:V\to V^{\ast \ast}$ que manda $v$ a $\text{ev}_v$.

Finalmente, recordemos que dada una forma lineal $l$ y un vector $v$, usamos la notación $\langle l,v\rangle = l(v)$, y que esta notación es lineal en cada una de sus entradas. Todo esto lo puedes revisar a detalle en la entrada anterior.

El teorema de bases duales

El resultado que enunciamos previamente y que probaremos ahora es el siguiente.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ y $B=\{e_1,\ldots,e_n\}$ una base de $V$. Entonces el conjunto de formas coordenadas $B^\ast=\{e_1^\ast, \ldots,e_n^\ast\}$ es una base de $V^\ast$. En particular, $V^\ast$ es de dimensión finita $n$. Además, la bidualidad canónica $\iota:V\to V^{\ast \ast}$ es un isomorfismo de espacios vectoriales.

Antes de comenzar, convéncete de que cada una de las $e_i^\ast$ son formas lineales, es decir, transformaciones lineales de $V$ a $F$.

Demostración. Veremos que $B^\ast=\{e_1^\ast,\ldots,e_n^\ast\}$ es un conjunto linealmente independiente y que genera a $V^\ast$. Veamos lo primero. Tomemos una combinación lineal igual a cero, $$z:=\alpha_1 e_1^\ast + \alpha_2 e_2^\ast+\ldots + \alpha_n e_n^\ast=0.$$ Para cada $i=1,2,\ldots,n$, podemos evaluar la forma lineal $z$ en $e_i$.

Por un lado, $z(e_i)=0$, pues estamos suponiendo que la combinación lineal de $e_i^\ast$’s es (la forma lineal) cero. Por otro lado, analizando término a término y usando que los $e_i^\ast$ son la base dual, tenemos que si $i\neq j$ entonces $e_j^\ast(e_i)$ es cero, y si $i=j$, es $1$.

Así que el único término que queda es $\alpha_i e_i^\ast(e_i)=\alpha_i$. Juntando ambas observaciones, $\alpha_i=z(e_i)=0$, de modo que todos los coeficientes de la combinación lineal son cero. Asi, $B^\ast$ es linealmente independiente.

Ahora veremos que $B^\ast$ genera a $V^\ast$. Tomemos una forma lineal arbitraria $l$, es decir, un elemento en $V^\ast$. Al evaluarla en $e_1,e_2,\ldots,e_n$ obtenemos escalares $$\langle l, e_1\rangle,\langle l, e_2\rangle,\ldots,\langle l, e_n\rangle. $$ Afirmamos que estos son los coeficientes que nos ayudarán a poner a $l$ como combinación lineal de elementos de $B^\ast$. En efecto, para cualquier vector $v$ tenemos que

\begin{align*}
\left(\sum_{i=1}^n\langle l, e_i \rangle e_i^\ast\right) (v)
&= \sum_{i=1}^{n} \langle l, e_i \rangle \langle e_i^\ast, v \rangle \\
&= \sum_{i=1}^{n} \langle l, \langle e_i^\ast, v \rangle e_i \rangle \\
&=\left \langle l, \sum_{i=1}^n \langle e_i^\ast, v\rangle e_i \right \rangle\\
&= \langle l, v \rangle\\
&= l(v).
\end{align*}

La primer igualdad es por la definición de suma de transformaciones lineales. En la segunda usamos la linealidad de la segunda entrada para meter el escalar $\langle e_i^\ast , v\rangle$. La siguiente es de nuevo por la linealidad de la segunda entrada. En la penúltima igualdad usamos que justo $\langle e_i^\ast , v\rangle$ es el coeficiente que acompaña a $e_i$ cuando escribimos a $v$ con la base $B$. Esto muestra que $B^\ast$ genera a $V^\ast$.

Así, $B^\ast$ es base de $V^\ast$. Como $B^\ast$ tiene $n$ elementos, entonces $V^\ast$ tiene dimensión $n$.

La última parte del teorema consiste en ver que $\iota:V\to V^{\ast \ast}$ es un isomorfismo de espacios vectoriales. Por lo que acabamos de demostrar, $$\dim V = \dim V^\ast = \dim V^{\ast \ast}.$$ Así que basta con mostrar que $\iota$ es inyectiva pues, de ser así, mandaría a una base de $V$ a un conjunto linealmente independiente de $V^{\ast \ast}$ con $n$ elementos, que sabemos que es suficiente para que sea base. Como $\iota$ es transformación lineal, basta mostrar que el único vector que se va a la forma lineal $0$ de $V^\ast$ es el $0$ de $V$.

Supongamos que $v$ es tal que $\text{ev}_v=0$. Vamos a mostrar que $v=0$. Si $\text{ev}_v=0$, en particular para las formas coordenadas $e_i^\ast$ tenemos que $ \text{ev}_v(e_i^\ast)=0$. En otras palabras, $e_i^\ast(v)=0$ para toda $i$. Es decir, todas las coordenadas de $v$ en la base $B$ son $0$. Así, $v=0$. Con esto terminamos la prueba.

$\square$

La demostración anterior muestra cómo encontrar las coordenadas de una forma lineal $l$ en términos de la base $B^\ast$: basta con evaluar $l$ en los elementos de la base $B$. Recopilamos esto y la igualdad dual como una proposición aparte, pues resulta ser útil en varios contextos.

Proposición. Sea $V$ un espacio vectorial de dimensión finita $n$, $B=\{e_1,\ldots, e_n\}$ una base de $V$ y $B^\ast=\{e_1^\ast,\ldots,e_n^\ast\}$ la base dual. Entonces, para todo vector $v$ en $V$ y para toda forma lineal $l:V\to F$, tenemos que
\begin{align*}
v&= \sum_{i=1}^n \langle e_i^\ast, v\rangle e_i \quad \text{ y }\\
l&= \sum_{i=1}^{n} \langle l, e_i \rangle e_i^\ast.
\end{align*}

La traza de una matriz en $M_n(F)$ es la suma de las entradas en su diagonal principal. Es sencillo verificar que la función $\text{tr}:M_n(F)\to F$ que manda a cada matriz a su traza es una forma lineal, es decir, un elemento de $M_n(F)^\ast$.

Ejemplo. Considera el espacio vectorial de matrices $M_3(\mathbb{R})$. Sea $B=\{E_{ij}\}$ su base canónica. Expresa a la forma lineal traza en términos de la base dual $B^\ast$.

Solución. Tenemos que $\text{tr}(E_{ii})=1$ y que si $i\neq j$, entonces $\text{tr}(E_{ij})=0$. De esta forma, usando la fórmula de la proposición anterior,
\begin{align*}
\text{tr}&=\sum_{i,j} \text{tr}(E_{ij}) E_{ij}^\ast\\
&=E_{11}^\ast + E_{22}^\ast + E_{33}^\ast.
\end{align*} Observa que, en efecto, esta igualdad es correcta. Lo que hace $E_{ii}^\ast$ por definición es obtener la entrada $a_{ii}$ de una matriz $A=[a_{ij}]$.

La igualdad que encontramos dice que «para obtener la traza hay que extraer las entradas $a_{11}$, $a_{22}$, $a_{33}$ de $A$ y sumarlas». En efecto, eso es justo lo que hace la traza.

$\triangle$

Algunos problemas prácticos de bases duales

Ya que introdujimos el concepto de espacio dual y de base dual, hay algunos problemas prácticos que puede que queramos resolver.

  • Dada una base $v_1,\ldots,v_n$ de $F^n$, ¿cómo podemos encontrar a la base dual $v_1^\ast, \ldots, v_n^\ast$ en términos de la base dual $e_1^\ast, \ldots, e_n^\ast$ de la base canónica?
  • Dada una base $L=\{l_1,\ldots, l_n\}$ de $V^\ast$, ¿es posible encontrar una base $B$ de $V$ tal que $B^\ast = L$? De ser así, ¿cómo encontramos esta base?

A continuación mencionamos cómo resolver ambos problemas. Las demostraciones se quedan como tarea moral. En la siguiente entrada veremos problemas ejemplo resueltos.

  • La receta para resolver el primer problema es poner a $v_1,\ldots, v_n$ como vectores columna de una matriz $A$. Las coordenadas de $v_1^\ast,\ldots, v_n^\ast$ en términos de la base $e_1^\ast,\ldots,e_n^\ast$ están dados por las filas de la matriz $A^{-1}$.
  • La receta para resolver el segundo problema es tomar una base $B’=\{e_1,\ldots, e_n\}$ cualquiera de $V$ y considerar la matriz $A$ con entradas $A=[l_i(e_j)]$. La matriz $A^{-1}$ tiene como columnas a los vectores de coordenadas de la base $B$ que buscamos con respecto a la base $B’$.

¿Por qué la matriz $A$ de la segunda receta es invertible? Esto lo mostramos en la siguiente sección.

Un teorema de bases, bases duales e invertibilidad de matrices

La demostración del siguiente teorema usa varias ideas que hemos estado desarrollando con anterioridad. Usamos que:

  • Si $V$ es de dimensión finita $n$ y $B$ es un conjunto de $n$ vectores de $V$, entonces basta con que $B$ sea linealmente independiente para ser base. Esto lo puedes repasar en la entrada del lema de intercambio de Steinitz.
  • Una matriz cuadrada $A$ es invertible si y sólo si el sistema de ecuaciones $AX=0$ sólo tiene la solución trivial $X=0$. Esto lo puedes repasar en la entrada de equivalencias de matrices invertibles.
  • Una matriz cuadrada $A$ es invertible si y sólo si su transpuesta lo es.
  • El hecho de que la bidualidad canónica $\iota$ es un isomorfismo entre $V$ y $V^{\ast \ast}$.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ sobre el campo $F$. Sea $B=\{v_1,\ldots, v_n\}$ un conjunto de vectores en $V$ y $L=\{l_1,\ldots, l_n\}$ un conjunto de elementos de $V^\ast$, es decir, de formas lineales en $V$. Consideremos a la matriz $A$ en $M_n(F)$ dada por $$A=[l_i(v_j)].$$ La matriz $A$ es invertible si y sólo si $B$ es una base de $V$ y $L$ es una base de $V^\ast$.

Demostración. Mostraremos primero que si $B$ no es base, entonces $A$ no es invertible. Como $B$ tiene $n$ elementos y no es base, entonces no es linealmente independiente, así que existe una combinación lineal no trivial $$\alpha_1 v_1+\ldots+\alpha_n v_n=0.$$ De esta forma, si definimos $v=(\alpha_1,\ldots, \alpha_n)$, este es un vector no cero, y además, la $i$-ésima entrada de $Av$ es $$\alpha_1 l_i(v_1)+\ldots+\alpha_n l_i(v_n) = l_i(\alpha_1 v_1 + \ldots + \alpha_n v_n) = 0.$$ De este modo, $AX=0$ tiene una no solución trivial y por lo tanto no es invertible.

De manera similar, si $L$ no es base, entonces hay una combinación lineal no trivial $$\beta_1 L_1 + \ldots + \beta_n L_n =0$$ y entonces el vector $w=(\beta_1,\ldots,\beta_n)$ es una solución no trivial a la ecuación $^t A X=0$, por lo que $^t A$ no es invertible, y por lo tanto $A$ tampoco lo es.

Ahora veremos que si $L$ y $B$ son bases, entonces $A$ es invertible. Si $A$ no fuera invertible, entonces tendríamos una solución no trivial $(\alpha_1,\ldots,\alpha_n)$ a la ecuación $AX=0$. Como vimos arriba, esto quiere decir que para cada $i$ tenemos que $$ l_i(\alpha_1 v_1 + \ldots + \alpha_n v_n) = 0.$$ Como $l_i$ es base de $V^\ast$, esto implica que $l(\alpha_1 v_1 + \ldots + \alpha_n v_n)=0$ para toda forma lineal $l$, y como la bidualidad canónica es un isomorfismo, tenemos que $$\alpha_1 v_1 + \ldots + \alpha_n v_n=0.$$ Esto es imposible, pues es una combinación lineal no trivial de los elementos de $B$, que por ser base, son linealmente independientes.

$\square$

Más adelante…

Esta entrada es un poco abstracta, pues habla de bastantes transformaciones aplicadas a transformaciones, y eso puede resultar un poco confuso. Se verán problemas para aterrizar estas ideas. La importancia de entenderlas y manejarlas correctamente es que serán de utilidad más adelante, cuando hablemos de los espacios ortogonales, de transposición de transformaciones lineales y de hiperplanos.

La teoría de dualidad también tiene amplias aplicaciones en otras áreas de las matemáticas. En cierto sentido, la dualidad que vemos aquí es también la que aparece en espacios proyectivos. Está fuertemente relacionada con la dualidad que aparece en teoremas importantes de optimización lineal, que permiten en ocasiones reformular un problema difícil en términos de uno más fácil, pero con el mismo punto óptimo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Usa la definición de linealidad para ver que las formas coordenadas $e_i^\ast$ en efecto son formas lineales.
  • Muestra que $\iota:V \to V^{\ast \ast}$, la bidualidad canónica, es una transformación lineal.
  • Justifica por qué la primer receta resuelve el primer problema práctico de bases duales.
  • Justifica por qué la segunda receta resuelve el segundo problema práctico de bases duales.
  • Sean $a_0,a_1,\ldots,a_n$ reales distintos. Considera el espacio vectorial $V=\mathbb{R}_n[x]$ de polinomios con coeficientes reales y grado a lo más $n$. Muestra que las funciones $\text{ev}_{a_i}:V\to \mathbb{R}$ tales que $\text{ev}_{a_i}(f)=f(a_i)$ son formas lineales linealmente independientes, y que por lo tanto son una base de $V^\ast$. Usa esta base, la base canónica de $V$ y el teorema de la última sección para mostrar que la matriz $$\begin{pmatrix} 1 & a_0 & a_0 ^2 & \ldots & a_0^n\\ 1 & a_1 & a_1^2 & \ldots & a_1^n\\ 1 & a_2 & a_2^2 & \ldots & a_2^n\\ & \vdots & & \ddots & \vdots \\ 1 & a_n & a_n^2 & \ldots & a_n^n\end{pmatrix}$$ es invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Forma matricial de una transformación lineal

Por Ayax Calderón

Introducción

Durante la primera unidad de este curso vimos que las transformaciones lineales $T:F^n \to F^m$ pueden ser descritas por medio de matrices $A\in M_{m,n}(F)$. Nuestro objetivo ahora es extender este resultado para describir transformaciones lineales $T:V\to W$ entre espacios vectoriales de dimensión finita $V$ y $W$. Es decir, para cada una de estas transformaciones, queremos ver cómo se ven en forma matricial.

Sin embargo, a diferencia de lo que sucedía antes, la descripción en esta forma no será única. Para construir una matriz que represente a una transformación lineal, necesitaremos fijar bases para $V$ y $W$. Distintas bases nos darán distintas matrices.

Para esta entrada todos los espacios vectoriales que usemos son de dimensión finita sobre el campo $F$. Usaremos los resultados de la entrada pasada, en la que estudiamos qué le hacen las transformaciones lineales a los conjuntos linealmente independientes, a los generadores y a las bases.

Un paréntesis técnico de isomorfismos

Quizás a estas alturas ya te hayas dado cuenta de que, en cierto sentido, los espacios vectoriales con la misma dimensión se parecen mucho entre sí. Por ejemplo, los espacios vectoriales $\mathbb{R}^4$, $M_2(\mathbb{R}) $ y $\mathbb{R}_3[x]$ pueden pensarse «como el mismo» si identificamos a cada vector $(a,b,c,d)$ con la matriz $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$, o bien con el polinomio $a+bx+cx^2+dx^3$. Esta identificación es biyectiva y «respeta las operaciones».

Con esta motivación, veamos una definición formal.

Definición. Decimos que una transformación lineal $T:V\to W$ es un isomorfismo de espacios vectoriales si es biyectiva. Lo denotamos como $V\simeq_{T} W$, que se lee «$V$ isomorfo a $W$ mediante $T$».

Problema. Sea $T:V\to W$ un isomorfismo de espacios vectoriales. Prueba que su inversa $T^{-1}:W\to V$ es un isomorfismo de espacios vectoriales.

Demostración. La transformación $T^{-1}$ es biyectiva, pues es invertible de inversa $T$, así que sólo hace falta checar que $T^{-1}$ es lineal. Tomemos $w_1$, $w_2$ en $W$, y $c$ en el campo. Como $T$ es suprayectiva, podemos tomar $v_1=T^{-1}(w_1)$ y $v_2=T^{-1}(w_2)$. Entonces $T(v_1)=w_1$ y $T(v_2)=w_2$, así
\begin{align*}
T^{-1}(w_1+cw_2)&=T^{-1}(T(v_1)+cT(v_2))\\
&=T^{-1}(T(v_1+cv_2))\\
&=v_1+cv_2
\end{align*}

En la segunda igualdad estamos usando que $T$ es lineal. De esta forma, concluimos que $T^{-1}$ es lineal también.

$\square$

Formalicemos ahora sí nuestra intuición de que «todos los espacios vectoriales de la misma dimensión finta $n$ sobre un mismo campo se comportan igual». En términos matemáticos, decimos que «es posible clasificar los espacios vectoriales de dimensión finita distintos de $\{0\}$, salvo isomorfismos». Para mostrar esto, veremos que para cada entero positivo $n$ todos los espacios vectoriales de dimensión $n$ son isomorfos a $F^n$. El siguiente resultado da el isomorfismo de manera explícita.

Teorema. Sea $n$ un entero positivo y sea $V$ un espacio vectorial de dimensión finita sobre $F$. Si $B={e_1,\dots,e_n}$ es una base de $V$, entonces la transformación $i_B:F^n\to V$ definida por $$i_B(x_1,\dots,x_n)=x_1e_1+x_2e_2+\dots+x_ne_n$$ es un isomorfismo de espacios vectoriales.

La verificación de los detalles de este teorema queda como tarea moral. Como sugerencia, recuerda que una base $B$ de $V$ te permite expresar a cada vector de $V$ (de aquí saldrá la suprayectividad) de manera única (de aquí saldrá la inyectividad) como combinación lineal de elementos de $B$.

Corolario. Si $T:V\to W$ es un isomorfismo de espacios vectoriales, entonces $\dim V=\dim W$.

Bases ordenadas

Sea $V$ un espacio vectorial de dimensión finita $n$. Una base ordenada de $V$ es simplemente una base para la cual nos importa en qué orden están sus elementos. La escribimos con notación de paréntesis en vez de llaves, es decir, en vez de poner $B=\{v_1,\ldots,v_n\}$, ponemos $B=(v_1,\ldots,v_n)$ para hacer énfasis en el orden.

Ejemplo 1. El conjunto $\{(1,2),(3,4)\}$ es una base de $\mathbb{R}^2$. De aquí, podemos obtener dos bases ordenadas, $B=((1,2),(3,4))$ y $B’=((3,4),(1,2))$. Aunque tienen a los mismos elementos, las pensamos como bases ordenadas diferentes pues sus elementos aparecen en diferente orden.

Del mismo modo, las bases $B=(1,x,x^2,x^3)$ y $B’=(x^3,x^2,x,1)$ son la misma base de $\mathbb{R}_2[x]$, pero son distintas como bases ordenadas.

$\triangle$

Por las discusión en la sección anterior, la elección de una base ordenada en un espacio vectorial $V$ de dimensión $n$ nos permite identificar $V$ con $F^{n}$. Es decir, dada una base $B$, podemos «ponerle coordenadas» a los elementos de $V$. Dependiendo de la base ordenada escogida, es posible que obtengamos diferentes coordenadas.

Ejemplo 2. Consideremos el espacio vectorial $M_2(\mathbb{R})$. Se puede verificar que cada uno de los siguientes conjuntos ordenados son una base:

\begin{align*}
B&=\left(\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}\right)\\
B’&=\left(\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}\right)\\
B»&=\left(\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}\right)
\end{align*}

Como cada uno de ellos es una base, entonces podemos escribir a la matriz $A=\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}$ como combinación lineal de elementos de cada uno de $B$, $B’$ o $B»$.

Si lo hacemos para $B$, tendríamos (en orden), a los coeficientes $1,2,3,4$, así que las coordenadas de $A$ en la base ordenada $B$ serían $(1,2,3,4)$.

Si lo hacemos para $B’$, tendríamos (en orden), a los coeficientes $1,3,2,4$, así que las coordenadas de $A$ en la base ordenada $B’$ serían $(1,3,2,4)$. Aunque $B$ y $B’$ tengan los mismos elementos, las coordenadas difieren pues como bases ordenadas $B$ y $B’$ son distintas.

Si lo hacemos para $B»$, tendríamos (en orden), a los coeficientes $1,1,1,1$, así que las coordenadas de $A$ en la base ordenada $B»$ serían $(1,1,1,1)$. Aquí obtenemos coordenadas muy distintas pues $B$ y $B»$ ni siquiera tienen a los mismos elementos.

$\triangle$

La forma matricial de una transformación lineal

Consideremos ahora espacios vectoriales $V$ y $W$ de dimensiones $n$ y $m$ respectivamente. Supongamos que tenemos una transformación lineal $T:V\to W$. Escogemos bases ordenadas $B_V=(v_1,\dots, v_n)$ y $B_W=(w_1,\dots,w_m)$ de $V$ y $W$ respectivamente. Ten cuidado, aquí $(v_1,\dots, v_n)$ no es un vector de $F^n$, sino una colección ordenada de vectores de $V$.

Por el teorema de caracterización de espacios vectoriales de dimensión finita, tenemos los isomorfismos $$i_{B_{V}}:F^n\to V,$$ $$i_{B_{W}}:F^m\to W.$$

¿Cómo podemos usar todas estas transformaciones para construir una transformación $F^n\to F^m$? La idea es usar el inverso de $i_{B_W}$ y componer todo.

Así, consideramos $\psi_T$ como la composición de las transformaciones $i_{B_{V}}, T, i_{B_{W}}^{-1}$, es decir, $$\psi_T:F^n\to F^m,$$ está dada por $$\psi_T=i_{B_W}^{-1}\circ T\circ i_{B_{V}}.$$

De esta forma, $\psi_T$ es una transformación lineal entre $F^n$ y $F^m$. ¡Este tipo de transformaciones ya las conocemos! Sabemos que $\psi_T$ se describe de manera única por medio de una matriz $A\in M_{m,n}(F).$ Esta es, por definición, la matriz asociada a $T$ con respecto a las bases $B_V$ y $B_W$ o bien la forma matricial de $T$. Dicha matriz depende fuertemente de las dos bases, así que la denotaremos como $\text{Mat}_{B_W,B_V}(T)$ . Por el momento sólo pongamos mucha atención en el orden en el que escribimos las bases en los subíndices. Es importante más adelante veremos que resulta útil escribirlo así.

Cuando $T:V\to V$ va de un espacio vectorial a sí mismo y usamos sólo una base $B$, simplificamos la notación a $\text{Mat}_B(T)$.

Evaluar $T$ usando su forma matricial

La construcción anterior parece muy complicada, pero en realidad es muy natural. Lo que está sucediendo es lo siguiente. Ya sabemos que toda transformación lineal entre $F^n$ y $F^m$ está dada por matrices. Podemos extender esto a una descripción de transformaciones lineales entre $V$ y $W$ identificando $V$ con $F^n$ y $W$ con $F^m$ vía la elección de bases en $V$ y $W$.

Notemos que si definimos $A:=\text{Mat}_{B_{W},B_{V}}(T)$, entonces tenemos que

$i_{B_{W}}(Ax)=T(i_{B_{V}}(x))$ … (1)

Esta igualdad nos va a ayudar a decir quién es $T$ en términos de las entradas de la matriz $A$. Sea $\{e_1,\dots,e_n\}$ la base canónica de $F^n$ y $\{f_1,\dots,f_m\}$ la base canónica de $F^m$. Si$ A=[a_{ij}]$, entonces por definición $Ae_i=a_{1i}f_1+\dots+a_{mi}f_{m}$, así para $x=e_i$ se tiene

$i_{B_{W}}(Ax)=i_{B_{W}}(a_{1i}f_1+\dots + a_{mi}f_m) = a_{1i}w_1+\dots + a_{mi}w_m.$

Por otro lado, $i_{B_{V}}(e_i)=v_i$, de manera que la relación (1) es equivalente a la relación

$T(v_i)=a_{1i}w_1+\dots + a_{mi}w_m$

Aquí empieza a haber mucha notación, pero no hay que perderse. Hasta ahora lo que tenemos es que «podemos saber cuánto vale la transformación $T$ en cada elemento de la base de $V$ en términos de la matriz $A$». ¡Este es un paso importante, pues en la entrada anterior vimos que basta saber qué le hace una transformación a los elementos de la base para saber qué le hace a cualquier vector! Resumimos lo obtenido hasta ahora.

Proposición. Sea $T:V\to W$ una transformación lineal y sean $B_V=\{v_1,\dots v_n\}, B_W=\{w_1,\dots,w_m\}$ bases en $V$ y $W$, respectivamente. Escribamos $\text{Mat}_{B_W,B_V}(T)=[a_{ij}]$. Entonces para toda $1\leq i\leq n$ se tiene $$T(v_i)=\displaystyle\sum_{j=1}^m a_{ji}w_j.$$

Así, si tenemos la matriz $A$ que representa a $T$ en las bases $B_V$ y $B_W$ y un vector arbitrario $v$ en $V$, para saber quién es $T(V)$ basta:

  • Usar la proposición anterior para saber quién es $T(v_i)$ para cada $v_i$ en la base $B_V$.
  • Expresar a $v$ en términos de la base $B_V$ como, digamos, $v=c_1v_1+\ldots+c_nv_n$.
  • Usar que $T$ es lineal para concluir que $T(v)=c_1T(v_1)+\ldots+c_nT(v_n)$ y usar los valores de $T(v_i)$ encontrados en el primer inciso.

Forma matricial de composiciones de transformaciones lineales

Para finalizar esta entrada queremos entender la relación entre la composición $S\circ T$ de transformaciones lineales y las matrices asociadas de $T$ y $S$. En otras palabras, sean $T:V\to W$ y $S:W\to U$ transformaciones lineales fijas y supongamos que $m=dimV$, $n=dimW$, $p=dimU$. También fijemos las bases $B_U, B_V, B_W$ en $U,V,W$, respectivamente. Para simplificar las cosas escribamos

$\mathcal{A}=\text{Mat}_{B_U,B_W}(S)$ y $\mathcal{B}=\text{Mat}_{B_W,B_V}(T)$

Con respecto a las bases $B_U,B_V,B_W$ se tienen los isomorfismos $i_{B_U}, i_{B_V}, i_{B_W}$ definidos como lo hicimos anteriormente en esta misma entrada del blog, y por definición de $\mathcal{A}, \mathcal{B}$ se tiene

$i_{B_W}(\mathcal{B}x)=T(i_{B_V}(x))$ con $x\in F^m$,

$i_{B_U}(\mathcal{A}y)=S(i_{B_W}(y))$ con $y\in F^n$.

Aplicando $S$ en la primera relación y después usando la segunda relación, se tiene para $x\in F^m$

$(S\circ T)(i_{B_V}(x))=S(i_{B_W}(\mathcal{B}x))=i_{B_U}(\mathcal{A} \mathcal{B}x)$.

Esta última relación y la definición de $\text{Mat}_{B_U,B_V}(S\circ T)$ nos muestra que

$\text{Mat}_{B_U,B_V}(S\circ T)=\mathcal{A} \cdot \mathcal{B}$.

En otras palabras, la composición de transformaciones lineales se reduce a multiplicar sus matrices asociadas o de manera más formal

Teorema. Sean $T:V\to W$ y $S:W\to U$ transformaciones lineales entre espacios vectoriales de dimensión finita y sean $B_U, B_V, B_W$ bases de $U,V,W$, respectivamente. Entonces

$\text{Mat}_{B_U,B_V}(S\circ T)=\text{Mat}_{B_U,B_W}(S)\cdot \text{Mat}_{B_W,B_V}(T).$

Cuando tenemos transformaciones lineales de un espacio vectorial $V$ a sí mismo, y usamos la misma base $B$, el resultado anterior se puede escribir de una manera más sencilla.

Corolario. Sean $T_1,T_2:V\to V$ transformaciones lineales en un espacio vectorial de dimensión finita $V$, y sea $B$ una base de $V$. Entonces

$\text{Mat}_{B}(T_1\circ T_2)=\text{Mat}_{B}(T_1)\cdot \text{Mat}_{B}(T_2)$.

Más adelante…

En esta entrada comenzamos con una transformación lineal $T:V\to W$ y bases ordenadas de de $V$ y $W$ para representar a $T$ como una matriz. Así mismo, vimos cómo tras una elección de base podemos pensar a cualquier vector en términos de sus «coordenadas», usando a los coeficientes que permiten expresarlo (de manera única) como combinación lineal de elementos de la base. Las matrices y coordenadas que así obtenemos nos ayudarán mucho. Sin embargo, será fundamental entender qué es lo que sucede con estas representaciones cuando elegimos bases diferentes, y cómo podemos cambiar de ciertas coordenadas o matrices a otras cuando hacemos un cambio de base. Esto es lo que estudiaremos en las siguientes entradas.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que la relación «son isomorfos» para espacios vectoriales es una relación de equivalencia.
  • Muestra que la transformación $i_B$ dada en el teorema de clasificación de espacios vectoriales de dimensión finita en efecto es un isomorfismo.
  • Asegúrate de entender el último corolario.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»