Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Teoría de los Conjuntos I: Axioma de elección

Por Gabriela Hernández Aguilar

Introducción

En esta entrada abordaremos un axioma relevante no sólo en teoría de conjuntos sino en muchas ramas de las matemáticas. Distintas proposiciones aparentemente sencillas no podrían demostrarse sin su ayuda y algunas de sus consecuencias son tan poderosas que cuesta trabajo aceptarlas. Es por eso que el llamado axioma de elección ha sido controversial desde su formulación a manos de Ernst Zermelo en 1904.

Funciones de elección

Comenzaremos dando una definición para después enunciar el mencionado axioma.

Definición. Sea $A$ un conjunto. Una función de elección para $A$ es una función $f:\mathcal{P}(A)\setminus\{\emptyset\}\to A$ tal que, para todo $B\in\mathcal{P}(A)\setminus\{\emptyset\}$, se tiene que $f(B)\in B$.

Ejemplo.

Sea $A=\set{0,1}$. Luego, $\mathcal{P}(A)=\{\emptyset,\{0\},\{1\},\{0,1\}\}$. Si definimos $f:\mathcal{P}(A)\setminus\set{\emptyset}\to A$ por medio $f=\set{(\set{0},0),(\set{1},1),(\set{0,1},1)}$, entonces $f$ es una función de elección.

$\square$

El siguiente resultado muestra que existe una gran cantidad de conjuntos que tienen una función de elección.

Proposición. Si $X$ es un conjunto finito no vacío, entonces $X$ tiene una función de elección.

Demostración.

Sea $X$ un conjunto finito y no vacío. Luego, por ser finito, existe un número natural $n$ y una función biyectiva $f:n\to X$ y, además, $n\not=0$ ya que $X$ es no vacío. Ahora, para cada $A\subseteq X$ no vacío consideremos su imagen inversa, $f^{-1}[A]=\set{m\in n:f(m)\in A}$. Dado que $f^{-1}[A]\not=\emptyset$, entonces existe $\min(f^{-1}[A])$. Definamos $F:\mathcal{P}(X)\setminus\set{\emptyset}\to X$ por medio de $F(A)=f(\min(f^{-1}[A]))$. Luego, $F$ es una función de elección para $X$.

$\square$

Axioma de elección y equivalencias

Aunque todos los conjuntos finitos no vacíos tengan función de elección, resultará imposible demostrar lo mismo para todos los conjuntos. Es por ello que necesitaremos agregar un axioma a nuestra teoría.

Axioma de elección. Todo conjunto no vacío tiene una función de elección.

Vamos a discutir varios de los usos de este axioma, pero para ello es conveniente poder pensarlo de muchas maneras. En esta primera entrada enunciaremos una serie de equivalencias a este teorema muy relacionadas con «elegir». En la siguiente entrada enunciaremos equivalencias relacionadas con «ordenar».

Teorema. Las siguientes proposiciones son equivalentes:

  1. El axioma de elección.
  2. Si $\mathcal{A}$ es una familia no vacía de conjuntos no vacíos y ajenos dos a dos, entonces existe un conjunto $B$ tal que para todo $A\in\mathcal{A}$, se tiene que $A\cap B$ es un conjunto unitario.
  3. Toda función suprayectiva tiene al menos una inversa derecha.
  4. Si $\set{A_\alpha}_{\alpha\in\Gamma}$ es tal que $A_\alpha\not= \emptyset$ y $A_\alpha\cap A_\beta=\emptyset$ para cualesquiera $\alpha,\beta\in\Gamma$ con $\alpha\not=\beta$, entonces existe $B\subseteq\cup_{\alpha\in\Gamma}A_\alpha$ tal que $B\cap A_\alpha$ es unitario para cada $\alpha\in\Gamma$.
  5. Si $\set{A_\alpha}_{\alpha\in \Gamma}$ es una famila indizada no vacía de conjuntos no vacíos, entonces existe una función $f:\Gamma\to\cup_{\alpha\in\Gamma}A_\alpha$ tal que para cada $\alpha\in\Gamma$, se cumple que $f(\alpha)\in A_\alpha$.
  6. Si $F:X\to \mathcal{P}(Y)\setminus\set{\emptyset}$ es una función, entonces existe una función $f:X\to Y$ tal que $f(x)\in F(x)$ para todo $x\in X$.

La diferencia entre $2$ y $4$ es que en $5$ se pide que $B$ sea subconjunto de la unión de la familia.

Demostración.

$1)\Rightarrow 2)$ Supogamos que el axioma de elección es válido. Sea $\mathcal{A}$ una familia no vacía de conjuntos no vacíos ajenos dos a dos.

Sea $C=\bigcup\mathcal{A}$. Como $C$ es no vacío, podemos fijar $f:\mathcal{P}(C)\setminus\set{\emptyset}\to C$ una función de elección. Notemos que si $A\in\mathcal{A}$, entonces $A\subseteq C$, por lo que $A\in\mathcal{P}(C)\setminus\set{\emptyset}$. Definamos $B=\set{f(A):A\in\mathcal{A}}$. Veamos ahora que $B\cap A$ es un conjunto unitario para todo $A\in\mathcal{A}$.

Sea $A\in\mathcal{A}$ un elemento arbitrario. Notemos que $f(A)\in B$ por definición de $B$, pero también $f(A)\in A$ ya que $f$ es una función de elección en $C$. Por lo tanto, $\set{f(A)}\subseteq A\cap B$. Ahora, si $x\in A\cap B$, en particular, $x\in B$, por lo que $x=f(A’)\in A’$ para algún $A’\in\mathcal{A}$ y así $x\in A\cap A’$. En consecuencia, $A=A’$ pues elementos distintos de $\mathcal{A}$ son ajenos dos a dos. Tenemos entonces que $x=f(A’)=f(A)$, lo cual es suficiente para concluir que $A\cap B=\set{f(A)}$, es decir, $A\cap B$ es un conjunto unitario.

$2)\Rightarrow 3)$

Sean $A$ y $B$ conjuntos y $f:A\to B$ una función suprayectiva. Para cada $x\in B$ definamos $A_x=\set{a\in A:f(a)=x}$. Notemos que para cada $x\in B$, se tiene que $A_x\not=\emptyset$, pues $f$ es suprayectiva. Además, si $x\not=x’$, entonces $A_x\cap A_{x’}=\emptyset$, ya que si existiera un elemento $y\in A_x\cap A_{x’}$, tendríamos que $f(y)=x$ y $f(y)=x’$ y, por consiguiente, $x=x’$ ya que $f$ es una función, pero esto contradice que $x\not=x’$. Así pues, si $x\not=x’$, entonces $A_x\cap A_{x’}=\emptyset$.

Consideremos a la familia de conjuntos $\mathcal{A}=\set{A_x:x\in B}$ la cual consta de conjuntos no vacíos y ajenos dos a dos. Por hipótesis, existe un conjunto $C$ tal que $C\cap A_x$ es un conjunto unitario para cada $A_x\in\mathcal{A}$. Para $x\in B$, denotemos por $a_x$ al único elemento del conjunto $C\cap A_x$. Definamos $g:B\to A$ por medio de $g(x)=a_x$. Expresando a $g$ como un subconjunto de $B\times A$ tenemos que $g=\set{(x,a_x):x\in B}$. Notemos que $g$ es una función, ya que si $(w,v),(w,z)\in g$, entonces $(w,v)=(x,a_x)$ y $(w,z)=(y,a_y)$ para algunos $x,y\in B$. De las iguladades anteriores se sigue que $w=x=y$ y, por tanto, $v=a_x=a_y=z$. Por tanto, $g$ es función. Finalmente, veamos que $g$ es inversa derecha de $f$, es decir, que $f\circ g:B\to B$ es la función identidad; esto es, $f\circ g=Id_B$.

Sea pues $x\in B$ un elemento arbitrario. Luego, $(f\circ g)(x)=f(g(x))=f(a_x)=x$, pues $a_x\in A_x$. Por lo tanto, $f\circ g=Id_B$, lo que muestra que $g$ es inversa derecha de $f$.

$3)\Rightarrow 4)$ Supongamos que $\mathcal{A}=\set{A_\alpha:\alpha\in\Gamma}$ es una familia no vacía de conjuntos no vacíos tales que $A_\alpha\cap A_\beta=\emptyset$ si $\alpha\not=\beta$.

Definamos $f:\bigcup_{\alpha\in\Gamma}A_\alpha\to\Gamma$ por medio de $f(x)=\alpha$ si $x\in A_\alpha$. Podemos describir a $f$ como el siguiente conjunto $f:=\set{(x,\alpha):x\in A_\alpha,\alpha\in\Gamma}\subseteq(\bigcup_{\alpha\in\Gamma}A_\alpha)\times \Gamma$. Nuevamente, lo primero que hay que hacer es verificar que $f$ sea una función. Sean $(a,b),(a,c)\in f$. Luego, $(a,b)=(x,\alpha)$ y $(a,c)=(y,\beta)$ para algunos $x,y\in\bigcup_{\alpha\in \Gamma}A_\alpha$ y $\alpha,\beta\in\Gamma$, tales que $x\in A_\alpha$ y $y\in A_\beta$. Dado que $(a,b)=(x,\alpha)$ y $(a,c)=(y,\beta)$, entonces $a=x=y$ y, en consecuencia, $x\in A_\alpha\cap A_\beta$, lo que muestra que $A_\alpha\cap A_\beta\not=\emptyset$ y, por tanto, $\alpha=\beta$, es decir, $b=\alpha=\beta=c$, lo que muestra que $f$ es una función.

Ciertamente, $f$ es una función suprayectiva, pues si $\alpha\in\Gamma$ es cualquier elemento, entonces, existe $x\in A_\alpha$ pues $A_\alpha\not=\emptyset$, tal que $f(x)=\alpha$, por definición de $f$. Esto muestra que $\alpha$ es la imagen de un elemento en $\bigcup_{\alpha\in \Gamma}A_\alpha$ bajo la función $f$ y, por tanto, $f$ es suprayectiva. Luego, por hipótesis, existe $g:\Gamma\to\bigcup_{\alpha\in\Gamma}A_\alpha$ función inversa derecha de $f$, es decir, $f\circ g=Id_\Gamma$. Sea $B:=g[\Gamma]=\set{g(\alpha):\alpha\in\Gamma}\subseteq\bigcup_{\alpha\in\Gamma}A_\alpha$.

Notemos que para cada $\alpha\in\Gamma$, se tiene que $g(\alpha)\in A_\alpha$. En efecto, si $\alpha\in\Gamma$, entonces $f(g(\alpha))=Id_\Gamma(\alpha)=\alpha$, por lo que $g(\alpha)\in A_\alpha$. Por lo tanto, $\set{g(\alpha)}\subseteq A_\alpha\cap B$ para todo $\alpha\in\Gamma$.

Ahora, si $x\in A_\alpha\cap B$, entonces $x=g(\beta)$ para algún $\beta\in\Gamma$. Luego, $f(x)=f(g(\beta))=Id_\Gamma(\beta)=\beta$. Por otro lado, como $x\in A_\alpha$, también se tiene que $f(x)=\alpha$ y, por consiguiente, $\beta=\alpha$. Así, $x=g(\alpha)$, lo que demuestra que $A_\alpha\cap B=\set{g(\alpha)}$. Por lo tanto, $B$ es subconjunto de $\bigcup_{\alpha\in\Gamma}A_\alpha$ y cumple que $B\cap A_\alpha$ es un conjunto unitario para cada $\alpha\in\Gamma$.

$4)\Rightarrow 5)$ Sea $\set{A_\alpha}_{\alpha\in\Gamma}$ una familia de conjuntos no vacíos. Para cada $\alpha\in\Gamma$ definamos $B_\alpha:=\set{\alpha}\times A_\alpha$. Luego, $\set{B_\alpha:\alpha\in\Gamma}$ es una familia no vacía de conjuntos no vacíos tales que $B_\alpha\cap B_\beta=\emptyset$ si $\alpha\not=\beta$.

Luego, por hipótesis, existe $B\subseteq\bigcup_{\alpha\in\Gamma}B_\alpha$ tal que $B\cap B_{\alpha}$ es un conjunto unitario para cada $\alpha\in \Gamma$. Ahora bien, el único elemento de $B\cap B_\alpha$ es de la forma $(\alpha,a)$ con $a\in A_\alpha$, pues pertenece, en particular, al conjunto $B_\alpha=\set{\alpha}\times A_\alpha=\set{(\alpha,a):a\in A_\alpha}$. Denotemos por $a_\alpha$ al único elemento de $A_\alpha$ tal que $B\cap B_\alpha=\set{(\alpha,a_\alpha)}$. Definamos $f:\Gamma\to\bigcup_{\alpha\in \Gamma}A_\alpha$ por medio de $f(\alpha)=a_\alpha$. Notemos que $f$ puede ser descrita como el conjunto $\set{(\alpha,a_\alpha):\alpha\in\Gamma}$. Luego, para comprobar que $f$ es una función tomemos $(a,b),(a,c)\in f$. Entonces, $(a,b)=(\alpha,a_\alpha)$ y $(a,c)=(\beta,a_\beta)$ para algunos $\alpha,\beta\in\Gamma$ y $a_\alpha\in A_\alpha$ y $a_\beta\in A_\beta$ tales que $(\alpha,a_\alpha)$ y $(\beta,a_\beta)$ son los únicos elementos de $B\cap B_\alpha$ y $B\cap B_\beta$, respectivamente. A partir de las igualdades $(a,b)=(\alpha,a_\alpha)$ y $(a,c)=(\beta,a_\beta)$ se sigue que $a=\alpha=\beta$ y, por tanto, $b=a_\alpha=a_\beta=c$. Esto que muestra $f$ es una función. Finalmente, para cada $\alpha\in\Gamma$, se tiene que $f(\alpha)\in A_\alpha$.

$5)\Rightarrow 6)$ Sea $F:X\to\mathcal{P}(Y)\setminus\set{\emptyset}$ una función.

Consideremos a la familia de conjuntos no vacíos $\mathcal{F}=\set{F(x):x\in X}$. Luego, por hipótesis, existe una función $f:X\to\bigcup\mathcal{F}$ tal que $f(x)\in F(x)$ para cada $x\in X$. Notemos ahora que $\bigcup\mathcal{F}=\bigcup_{x\in X}F(x)\subseteq Y$. Así, $f$ es una función con dominio $X$ y codominio $Y$. Por lo tanto, existe $f:X\to Y$ tal que $f(x)\in F(x)$ para cada $x\in X$.

$6)\Rightarrow 1)$ Sea $X\not=\emptyset$ un conjunto. Definamos $F:\mathcal{P}(X)\setminus\set{\emptyset}\to\mathcal{P}(X)\setminus\set{\emptyset}$ por medio de $F(B)=B$. Luego, por hipótesis, existe una función $f:\mathcal{P}(X)\setminus\set{\emptyset}\to X$ tal que $f(B)\in F(B)=B$ para todo $B\in\mathcal{P}(X)\setminus\set{\emptyset}$. Por lo tanto, $X$ tiene una función de elección.

$\square$

Una aplicación del axioma de elección a cardinales numerables

Para finalizar esta entrada, enunciaremos y demostraremos algunos resultados relacionados a conjuntos numerables que puede deducirse con el uso del axioma de elección.

Teorema. Sea $\set{A_n:n\in\mathbb{N}}$ una familia de conjuntos ajenos dos a dos tal que $A_n$ es numerable para todo $n\in\mathbb{N}$. Entonces, $\bigcup_{n\in\mathbb{N}}A_n$ es numerable.

Demostración.

Para cada $n\in\mathbb{N}$ sea $B_n:=\set{f:\mathbb{N}\to A_n:f \ \text{es función biyectiva}}$. Dado que cada $A_n$ es numerable, entonces, por definición, existe una función $f_n:\mathbb{N}\to A_n$ biyectiva para todo $n\in\mathbb{N}$. Así pues, $B_n\not=\emptyset$ para cada $n\in\mathbb{N}$.

Consideremos la colección de conjuntos no vacíos $\set{B_n:n\in\mathbb{N}}$. Por el teorema anterior, el axioma de elección implica que existe una función $F:\mathbb{N}\to\bigcup_{n\in\mathbb{N}}B_n$ tal que $F(n)\in B_n$ para cada $n\in\mathbb{N}$. Definamos $g_n:=F(n)$ para cada $n\in\mathbb{N}$.

Definamos ahora $G:\mathbb{N}\times\mathbb{N}\to\bigcup_{n\in\mathbb{N}}A_n$ por medio de $G(r,s)=g_s(r)$. Veamos que $G$ es una función biyectiva. Sean $(r,s),(x,y)\in\mathbb{N}\times\mathbb{N}$ tales que $G(r,s)=G(x,y)$. Entonces, $g_s(r)=g_y(x)$. Como $g_s\in B_s$ y $g_y\in B_y$, entonces $g_s(r)\in A_s$ mientras que $g_y(x)\in A_y$ y, consecuentemente, $A_s\cap A_y\not=\emptyset$, lo cual puede ocurrir si y sólo si $A_s=A_y$, es decir, $s=y$. Dado que $g_s(r)=g_s(x)$ y $g_s$ es biyectiva, entonces $r=x$. Esto muestra que $(r,s)=(x,y)$ y, por lo tanto, $G$ es inyectiva.

Finalmente veamos que $G$ es suprayectiva. Sea $a\in\bigcup_{n\in\mathbb{N}}A_n$. Luego, $a\in A_m$ para algún $m\in\mathbb{N}$ y, por consiguiente, existe $b\in\mathbb{N}$ tal que $g_m(b)=a$, ya que $g_m$ es biyectiva. De modo que tomando al elemento $(b,m)\in\mathbb{N}\times\mathbb{N}$ se sigue que $G(b,m)=g_m(b)=a$, lo que muestra que $G$ es suprayectiva.

Por lo tanto, $G$ es una biyección y, en consecuencia, $\mathbb{N}\times\mathbb{N}$ es equipotente a $\bigcup_{n\in\mathbb{N}}A_n$. Luego, como $\mathbb{N}\times\mathbb{N}$ es equipotente a $\mathbb{N}$, se sigue que $\bigcup_{n\in\mathbb{N}}A_n$ es equipotente a $\mathbb{N}$, es decir, $\bigcup_{n\in\mathbb{N}}A_n$ es numerable.

$\square$

Otra aplicación relevante del axioma de elección relacionada a conjuntos numerables es la siguiente.

Teorema. Si $X$ es un conjunto infinito, entonces $X$ contiene un conjunto numerable.

Demostración.

Sea $X$ un conjunto infinito. Definamos $g:S=\cup_{n\in\mathbb{N}}X^n\to \mathcal{P}(X)$ por medio de $g(h)=X\setminus im(h)$ para cada $h\in\cup_{n\in\mathbb{N}}X^n$, donde $X^n$ denota al conjunto de funciones de $n$ en $X$. Observemos que $g(h)\not=\emptyset$ para cada $h\in \cup_{n\in\mathbb{N}}X^n$, pues $X$ es infinito. Sea $e:\mathcal{P}(X)\setminus\{\emptyset\}\to X$ una función de elección. En la entrada Teoría de los Conjuntos I: Teorema de recursión, se dejó como un ejercicio probar que dado un conjunto $A$ y una función $h:\cup_{n\in\mathbb{N}}A^n\to A$, existe una única función $f:\mathbb{N}\to A$ tal que $f(n)=h(f\upharpoonright_n)$ para cada $n\in\mathbb{N}$. De este modo, para la función $e\circ g:S\to X$ existe una única función $f:\mathbb{N}\to X$ tal que $f(n)=(e\circ g)(f\upharpoonright_n)$ para cada $n\in\mathbb{N}$.

Afirmación. $f$ es una función inyectiva.
En efecto, sea $n\in\mathbb{N}$. Luego, $f(n)=(e\circ g)(f\upharpoonright_{n})=e(g(f\upharpoonright_{n}))=e(X\setminus im(f\upharpoonright_{n}))\in X\setminus im(f\upharpoonright_{n})$. Así pues, $f(n)\notin im(f\upharpoonright_{n})$, es decir, $f(n)\not=f(m)$ para cada $m<n$. Lo anterior nos permite concluir que $f$ es inyectiva. Por lo tanto, $f[\mathbb{N}]\subseteq X$ es un subconjunto numerable.

$\square$

Este último resultado nos permite responder a una pregunta que aparece en la entrada Teoría de los Conjuntos I: Conjuntos infinitos no numerables., la cual busca determinar si cualquier conjunto infinito es un conjunto infinito según Dedekind. La respuesta es afirmativa. Si $X$ es un conjunto infinito, por el resultado previo, $X$ contiene un conjunto numerable; luego, cualquier conjunto que contenga un conjunto numerable es infinito segun Dedekind.

Tarea moral

La siguiente lista de ejercicios te permitirá reforzar el contenido visto en esta entrada:

  1. Demuestra que la unión numerable de conjuntos finitos es un conjunto numerable.
  2. Otro de los pendientes que teníamos en entradas anteriores es la existencia de conjuntos de representantes para relaciones de equivalencia. Ahora lo podemos demostrar. Prueba que si $X$ es un conjunto y $R$ es una relación de equivalencia en $X$, entonces existe un conjunto completo de representantes de la relación $R$.
  3. Demuestra que el axioma de elección es equivalente a la siguiente proposición: para toda relación $R$ existe una función $f$ tal que $dom\ f$ es igual al dominio activo de $R$ y $f\subseteq R$.

Más adelante…

En la siguiente entrada veremos otras equivalencias del axioma de elección, ahora relacionadas con órdenes parciales. Posteriormente usaremos eso para mostrar que todo conjunto puede ser bien ordenado.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Moderna I: Núcleo e Imagen de un Homomorfismo

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Estamos trabajando con homomorfismos, que son funciones entre dos grupos que respetan sus operaciones. Entre las propiedades que vimos, está que el neutro del dominio siempre va al neutro del codominio. Es decir, al menos hay un elemento que, bajo el homomorfismo, cae en el neutro del codominio.

Para esta entrada consideraremos a la colección de todos los elementos del dominio que van al neutro del codominio. A este subconjunto, lo llamamos el núcleo de $\varphi$. Por otro lado, podemos tomar todos los elementos del dominio, aplicarles $\varphi$ y tomar el subconjunto que resulta en el codominio, a esto le llamamos la imagen de $\varphi$. Estos dos subconjuntos van a ser importantes en el estudio de los homomorfismos.

La imagen muestra que para $\varphi: G\to \bar{G}$ un homomorfismo, el núcleo $\text{Núc }\varphi \subseteq G$ y la imagen $\text{Im }\varphi \subseteq \bar{G}$.

El núcleo y la imagen de un homomorfismo

Comencemos definiendo formalmente los subconjuntos.

Definición. Sean $G, \bar{G}$ grupos, $\varphi: G \to \bar{G}$ un homomorfismo. Definimos al núcleo de $\varphi$ como
\begin{align*}
\text{Núc } \varphi = \{g\in G | \varphi(g) = e_{\bar{G}}\}.
\end{align*}

Es decir, es el conjunto de todos los elementos de $G$ que, bajo $\varphi$ van a dar al neutro de $\bar{G}$.

Notación. Es común, por el nombre en alemán, denotar al $\text{Núc } \varphi$ como $\text{Ker }\varphi$, es llamado el Kernel de $\varphi$.

Definición. La imagen de $\varphi$ es
\begin{align*}
\text{Im } \varphi = \{\varphi(g) | g \in G\}.
\end{align*}

Notemos que $\text{Núc }\varphi \subseteq G$ y $\text{Im }\varphi \subseteq \bar{G}$.

Ejemplos.

Ejemplo 1. Tomemos el homomorfismo $\varphi: S_n \to \{+1,-1\}$ con $\varphi(\alpha) = sgn\, \alpha$ para toda $\alpha\in S_n$. Veamos quién es el núcleo de $\varphi$:
\begin{align*}
\text{Núc }\varphi &= \{\alpha\in S_n | \varphi(\alpha) = +1\} \\
&= \{\alpha\in S_n | sgn\in\alpha = +1\} = A_n.
\end{align*}
Si tomamos el caso no trivial, con $n>1$,
\begin{align*}
\text{Im }\varphi = \{+1,-1\}.
\end{align*}
Ya que $\varphi((1)) = 1$ y $\varphi((1\,2)) = -1$.

Ejemplo 2. Sea $n \in \z^+$. Consideremos el homomorfismo $\varphi: \z \to \mathbb{C}^*$ con
\begin{align*}
\varphi(m) = \left(e^{\frac{2\pi i}{n}}\right)^m \quad \forall m\in \z.
\end{align*}
Buscamos describir su núcleo y su imagen.
\begin{align*}
\text{Núc }\varphi &= \{m\in \z| \varphi(m) =1\}\\
&= \{m\in\z | \left(e^{\frac{2\pi i}{n}}\right)^m = 1\} = n\z.
\end{align*}
La última igualdad se da porque ya sabemos que $e^{2\pi i} = 1$, más aún $e^{\theta i} = 1$ si y sólo si $\theta$ es un múltiplo de $2\pi$, entonces $ \left(e^{\frac{2\pi i}{n}}\right)^m = 1$ si y sólo si $m$ es un múltiplo de $n$.

Ahora la imagen:
\begin{align*}
\text{Im }\varphi &= \{\varphi(m)| m \in \z\} \\
&= \{\left(e^{\frac{2\pi i}{n}}\right)^m | m\in \z\} = \left< e^{\frac{2\pi i}{n}}\right>.
\end{align*}

El núcleo y la imagen son subgrupos

Ahora, probaremos que el núcleo y la imagen de un homomorfismo no son sólo subconjuntos del dominio y codominio respectivamente, si no que son subgrupos.

Teorema. Sean $G, \bar{G}$ grupos, $\varphi:G\to\bar{G}$ un homomorfismo.

  1. $\text{Núc }\varphi \unlhd G$.
  2. $\text{Im }\varphi \leq \bar{G}$.
  3. $\varphi$ es un monomorfismo si y sólo si $\text{Núc }\varphi = \{e_G\}$.

Demostración.
Sean $G,\bar{G}$ grupos, $\varphi: G \to \bar{G}$ un homomorfismo.

  1. P.D. $\text{Núc }\varphi \unlhd G$.
    Primero probaremos que $\text{Núc }\varphi \leq G$.

    Como $\varphi$ es un homomorfismo, $\varphi(e_G) = e_{\bar{G}}$. Entonces $e_G \in \text{Núc }\varphi$.

    Si $a,b\in\text{Núc }\varphi$.
    \begin{align*}
    \varphi(ab^{-1}) &= \varphi(a) \varphi(b^{-1}) &\varphi \text{ es un homomorfismo}\\
    &=\varphi(a)(\varphi(b))^{-1} & \text{Proposición de homomorfismo} \\
    &= e_{\bar{G}}e_{\bar{G}}^{-1} = e_{\bar{G}} & a,b \in \text{Núc }\varphi
    \end{align*}
    Entonces $ab^{-1} \in \text{Núc }\varphi$. Por lo tanto $\text{Núc }\varphi \leq G$.

    Además, si $a\in G$ y $n\in\text{Núc }\varphi$:
    \begin{align*}
    \varphi(ana^{-1}) &= \varphi(a)\varphi(n)\varphi(a^{-1}) &\varphi\text{ es un homomorfismo}\\
    &= \varphi(a)\varphi(n)(\varphi(a))^{-1} &\text{Proposición}\\
    & = \varphi(a) e_{\bar{G}}(\varphi(a))^{-1} &n \in \text{Núc }\varphi \\
    &= \varphi(a) (\varphi(a))^{-1} = e_{\bar{G}}
    \end{align*}
    Así, $ana^{-1}\in \text{Núc }\varphi$. Esto nos dice que el núcleo de $\varphi$ es cerrado bajo conjugación. Por lo tanto $\text{Núc } \varphi \unlhd G$.
    $\newline$
  2. P.D. $\text{Im }\varphi \leq \bar{G}$.
    Primero veamos que el neutro de $\bar{G}$ está en $\text{Im }\varphi$. Esto pasa porque
    $$e_{\bar{G}} = \varphi(e_{G}) \in \text{Im }\varphi.$$

    Ahora, si $c,d\in \text{Im }\varphi$, entonces $c = \varphi(a), d = \varphi(b)$ para algunos $a,b\in G$.
    \begin{align*}
    ad^{-1} = \varphi(a)(\varphi(b))^{-1} &= \varphi(a)\varphi(b^{–1}) &\text{Proposición}\\
    &= \varphi(ab^{-1}) \in \text{Im }\varphi &\varphi\text{ es un homomorfismo}
    \end{align*}
    Por lo tanto $\text{Im }\varphi \leq \bar{G}$.
    $\newline$
  3. P.D. $\varphi$ es un monomorfismo si y sólo si $\text{Núc }\varphi = \{e_G\}$.

    $|\Rightarrow]$ Supongamos que $\varphi$ es un monomorfismo (un homomorfismo inyectivo).
    Como $\text{Núc }\varphi \leq G$, entonces $\{e_G\}\subseteq \text{Núc }\varphi$.
    Ahora, si $g\in \text{Núc }\varphi$, por la proposición anterior,
    \begin{align*}
    \varphi(g) = e_{\bar{G}} = \varphi(e_G).
    \end{align*}
    Y como $\varphi$ es inyectiva, $g = e_G$. Por lo tanto, $\text{Núc }\varphi = \{e_G\}$.

    $[\Leftarrow|$ Supongamos que $\text{Núc }\varphi =\{e_G\} $.
    Sean $a,b\in G$ tales que $\varphi(a) = \varphi(b)$. Entonces
    \begin{align*}
    e_{\bar{G}} &= \varphi(b)(\varphi(a))^{-1} \\
    &= \varphi(b)\varphi(a^{-1}) &\text{Proposición}\\
    &= \varphi(ba^{-1}) &\varphi\text{ es un homomorfismo}
    \end{align*}
    Entonces $ba^{-1} \in \text{Núc }\varphi = \{e_G\}$, así $ba^{-1} = e_G$, esto implica que $b = a$.
    Por lo tanto $\varphi$ es un monomorfismo.

$\blacksquare$

Observemos que el inciso 3 del teorema nos da una herramienta para determinar si un homomorfismo es inyectivo o no usando el núcleo.

Proyección Canónica

Ahora, tomando un grupo y un subgrupo normal, definiremos un epimorfismo de un grupo al grupo cociente.

Proposición. Sea $G$ un grupo, $N$ un subgrupo normal de $G$. La función $\pi_:G\to G/N$ con $\pi(a) = aN$ para toda $a\in G$, es un epimorfismo tal que $\text{Núc }\pi = N$.

Esta función se conoce como la proyección canónica.

Demostración.
Sea $G$ un grupo, $N\unlhd G$, $\pi: G\to G/N$ con $\pi(a) = aN$ para cualquier $a\in G$.

Veamos que $\pi$ es un homomorfismo
Sean $a,b \in G$, entonces
\begin{align*}
\pi(ab) = abN = (aN)(bN) = \pi(a)\pi(b).
\end{align*}

Ahora veamos que es suprayectivo. Esto es debido a que dado $aN\in G/N$, $$aN = \pi(a).$$

Por lo tanto $\pi$ es un epimorfismo.

Finalmente,
\begin{align*}
\text{Núc }\pi = \{a\in G| \pi(a) = e_{G/N}\} = \{a\in G| aN = N\} = N.
\end{align*}

$\blacksquare$

Ahora veamos un corolario que se desprende directamente de lo que acabamos de ver.

Corolario. Todo subgrupo normal es el núcleo de un homomorfismo. De hecho, es el núcleo de un epimorfismo.

Ejemplos

Para terminar veamos unos ejemplos

Ejemplo 1. Tomemos $\varphi:(\r,+) \to (\mathbb{C}^*, \cdot)$ con $\varphi(x) = e^{xi}$ para toda $x\in\r$. Toma 2 min para pensar porqué es un homomorfismo.

Veamos el núcleo y la imágen de $\varphi$:
\begin{align*}
\text{Núc }\varphi &= \{x\in\r | \varphi(x) = 1\} \\
&= \{x\in\r | e^{xi} = 1\} \\
&= \{2\pi n | n \in \z\} = \left< 2\pi\right>.\\\\
\text{Im }\varphi &= \{\varphi(x) | x \in \r\} \\
& =\{e^{xi} | x\in\r\} \\
&= \{z\in \mathbb{C} | |z| = 1\} = \s^1.
\end{align*}
¿Cómo es $\r/\left<2\pi\right>$?
Tomemos $a,b\in \r$.
\begin{align*}
a + \left< 2\pi\right> = b + \left< 2\pi\right> &\Leftrightarrow a-b \in \left< 2\pi\right> \\
&\Leftrightarrow a-b= 2\pi n,\, n\in \z.
\end{align*}
Si lo anterior nos dice que dos números $a,b$ están en la misma clase si y sólo si difieren por un múltiplo de $2\pi$. Si lo pensamos en la recta numérica, nos dice que el $0$ y $2\pi$ quedan indentificados en la misma clase. Intuitivamente podríamos pensar que estamos doblando la recta numérica para obtener una circunferencia donde $0$ y $2\pi$ están en el mismo punto.

Así, $\r/\left< 2\pi\right> = \{a+\left< 2\pi\right> | a\in [0,2\pi)\}$.

Representación gráfica del ejemplo 1.

Ejemplo 2. Consideremos $\varphi: (\r^*,\cdot)\to (\r^*,\cdot)$ con $\varphi(x) = |x|$ para toda $x \in \r^*$ (recuerda que $\r^*=\r\setminus \{0\}$).
\begin{align*}
\text{Núc }\varphi &= \{x\in\r^* | \varphi(x) = 1\} \\
&= \{x\in\r^*| |x| = 1\} = \{+1,-1\}.\\\\
\text{Im }\varphi &= \{\varphi(x) | x \in \r^*\} \\
& =\{|x| | x\in\r^*\} = \r^+. \\
\end{align*}
¿Cómo es $\r^*/\{+1,-1\}$?
Tomemos $a,b\in \r^*$.
\begin{align*}
a\{+1,-1\}= b\{+1,-1\} &\Leftrightarrow a^{-1}b \in \{+1,-1\} \\
&\Leftrightarrow a^{–1}b=\pm 1 \Leftrightarrow b = \pm a.
\end{align*}
Entonces, dos clases laterales van a ser iguales si y sólo si sus representantes difieren a lo más sólo por el signo.

Lo que hicimos fue tomar a los reales sin el cero y estamos identificando a cada número real $a$ con su inverso aditivo. Entonces la imagen de $\varphi$ en realidad es como si dobláramos la recta por el 0 e identificamos a los reales negativos con su correspondiente positivo.

Así, $\r^*/ \{+1,-1\} = \{a \{+1,-1\} | a\in \r^+\}$.

Representación gráfica del ejemplo 2.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sea $\varphi:GL(2,\r) \to \r^*$ el homomorfismo tal que $\varphi(A) = \text{det }A$. Encuentra el núcleo y la imagen de $\varphi$.
  2. Sean $G,\bar{G}$ grupos y $\varphi: G\to\bar{G}$ un homomorfismo. ¿Es $ \text{Im }\varphi$ normal en $\bar{G}$? Prueba o da un contraejemplo.
  3. Sean $G,\bar{G}$ grupos y $\varphi: G\to \bar{G}$ un homomorfismo. Sean también, $H\leq G, \bar{H}\leq \bar{G}$.
    • ¿Qué puedes decir de $\varphi[H] = \{\varphi(h) | h \in H\}$?¿Y si $H\unlhd G$?
    • ¿Qué puedes decir de $\varphi^{-1}[\bar{H}] = \{g\in G| \varphi(g) \in \bar{H}\}$? ¿Y si $\bar{H}\unlhd\bar{G}$?
  4. En cada inciso calcula $\text{Núc } \varphi, \text{Im }\varphi, G/\text{Núc}$ y analiza cómo se relacionan:
    • $G$ grupo, $\varphi: G \to G$, con $\varphi =\text{id}_G $.
    • $G$ grupo, $\varphi: G \to G$, con $\varphi(g) = e_G$ para toda $g\in G$.
    • $\varphi: (\mathbb{C}^*, \cdot) \to (\r^*, \cdot)$, con $\varphi(z) = |z|$ para toda $z\in\mathbb{C}^*$.
    • $\varphi: \z \times \z \to \z\times\z$, con $\varphi(x,y) = (x,0)$ para toda $(x,y)\in \z\times\z$.

Más adelante…

Ahora que ya tenemos muy claras las definiciones de núcleo e imagen de un homomorfismo, comenzaremos a ver teoremas que relacionan lo que vimos aquí con isomorfismos y grupo cociente.

Entradas relacionadas

Álgebra Moderna I: Propiedades de los Homomorfismos

Por Cecilia del Carmen Villatoro Ramos

Introducción

En la entrada anterior vimos una introducción a los homomorfismos y algunas propiedades. Ahora sabemos que un homomorfismo es una función $\varphi :G\rightarrow \bar{G}$ entre dos grupos $(G,*)$ y $(\bar{G},\bar{*})$, que respeta las operaciones, es decir, que para todas $a,b\in G$, $\varphi(a*b) = \varphi(a)\bar{*}\varphi(b)$. A partir de ahora simplificaremos la notación y escribiremos simplemente la condición anterior como: para todas $a,b\in G$, $\varphi(ab) = \varphi(a)\varphi(b)$ (a menos que haya ambigüedad respecto a qué operación se está usando en cada caso).

En esta entrada, continuaremos dando algunas propiedades de los homomorfismos, en particular veremos cómo se comportan con las potencias de elementos del grupo y, en seguida, cómo se comparan el orden de un elemento y el orden de su imagen bajo un homomorfismo.

Homomorfismos y la potencia

Dado que el homomorfismo respeta el producto, se va a comportar bien con las potencias.

Proposición. Sean $G, \bar{G}$ grupos, $\varphi: G\rightarrow \bar{G}$ un homomorfismo. Entonces,

  1. $\varphi(e_G) = e_{\bar{G}}$.
  2. $\varphi(a^{-1}) = \left( \varphi(a)\right)^{-1}$ para toda $a \in G$.
  3. $\varphi(a^n) = \left( \varphi(a)\right)^n$ para toda $a \in G$ y para toda $n \in \z$.

Demostración.

Sean $G, \bar{G}$ grupos y $\varphi: G \rightarrow \bar{G}$ un homomorfismo.

P.D. $\varphi(e_G) = \varphi e_{\bar{G}}$.

Por un lado tenemos que $\varphi(e_g) e_{\bar{G}} = \varphi(e_G)$ porque $e_{\bar{G}}$ es el neutro de $\bar{G}$. Por otro lado tenemos que $\varphi(e_G) = \varphi(e_G e_G)$ porque $e_{G}$ es el neutro de $G$, y $ \varphi(e_G e_G) = \varphi(e_G) \varphi(e_G)$ porque $\varphi$ es un homomorfismo.

Entonces tenemos

\begin{align*}
&\varphi(e_g) e_{\bar{G}} = \varphi(e_G) = \varphi(e_G) \varphi(e_G). \\
\end{align*}

Cancelamos $\varphi(e_G)$, y obtenemos
\begin{align*}
e_{\bar{G}} = \varphi(e_G).
\end{align*}

Sea $a \in G$.
P.D. $\varphi(a^{-1}) = \left( \varphi(a)\right)^{-1}$.

Por un lado tenemos que $\varphi(a) \left(\varphi(a) \right)^{-1} = e_{\bar{G}}$.

Por el inciso anterior, tenemos que $e_{\bar{G}} = \varphi(e_G) = \varphi(a a^{-1})$ y como $\varphi$ es un homomorfismo, tenemos que $\varphi(a a^{-1}) = \varphi(a)\varphi( a^{-1})$.

Entonces tenemos que $\varphi(a) \left(\varphi(a) \right)^{-1} = \varphi(a)\varphi( a^{-1})$, donde podemos cancelar $\varphi(a)$:

\begin{align*}
&\varphi(a) \left(\varphi(a) \right)^{-1} = \varphi(a)\varphi( a^{-1}) \\
&\Rightarrow \left(\varphi(a) \right)^{-1} = \varphi( a^{-1}).
\end{align*}

Sea $a\in G$.
P.D. $\varphi(a^n) = \left( \varphi(a)\right)^n$ para toda $a \in G$ y $n \in \z$.
Demostraremos primero el resultado para $n\in\n$ por inducción sobre $n$.

Sea $n=0$.

Entonces, por el inciso 1,
\begin{align*}
\varphi(a^0) = \varphi(e_G) = e_{\bar{G}} = (\varphi(a))^0.
\end{align*}

Sea $n\geq 0$.
Para nuestra hipótesis de inducción, supongamos que $\varphi(a^n) = (\varphi(a))^n$.

Por la definición de potencia,
\begin{align*}
\varphi(a^{n+1}) = \varphi(a^n a).
\end{align*}

Luego, como $\varphi$ es un homomorfismo,
\begin{align*}
\varphi(a^n a) &= \varphi(a^n) \varphi(a) \\
&= (\varphi(a))^n \varphi(a) & \text{Por H.I.}\\
&= (\varphi(a))^{n+1} &\text{Por la definición de potencia}
\end{align*}

Por lo tanto $\varphi(a^n) = (\varphi(a))^n$ para toda $n\in \n$.

Finalmente, si $n \in \z^+$.
\begin{align*}
\varphi(a^{-n}) &= \varphi((a^n)^{-1}) \\
&= \varphi((a^n))^{-1} &\text{Por el inciso 2}\\
&= ((\varphi(a))^n)^{-1} &\text{Por lo probado anteriormente}\\
&= (\varphi(a))^{-n}
\end{align*}

Por lo tanto $\varphi(a^m) = (\varphi(a))^m$, para toda $m \in \z$.

$\blacksquare$

Homomorfismos y el orden

Corolario. Sean $G, \bar{G}$ grupos, sea $\varphi: G\to \bar{G}$ un homomorfismo.
Si $a\in G$ es de orden finito, $\varphi(a)$ también lo es y $o(\varphi(a)) \big| o(a)$. Es decir, el orden de $\varphi(a)$ divide al orden de $a$.
Más aún, si $\varphi$ es un isomorfismo, entonces $o(\varphi(a)) = o(a)$.

Demostración.
Sean $G, \bar{G}$ grupos, $\varphi: G \to \bar{G}$ un homomorfismo y sea $a\in G$ de orden finito.

Ahora, usamos las propiedades de $\varphi$ para obtener las siguientes igualdades.

\begin{align*}
\varphi(a)^{o(a)} = \varphi(a^{o(a)}) = \varphi(e_G) = e_{\bar{G}}.
\end{align*}

Esto nos dice que $\varphi(a)$ es de orden finito. Esto no significa que $o(a)$ es el orden de $\varphi(a)$, pero sí se sigue, por las propiedades del orden de un elemento, que $o(\varphi(a))\big| o(a)$.

Ahora, si $\varphi$ es un isomorfismo, $\varphi^{-1}$ también, así que por lo antes probado $o(\varphi^{-1}(b))\big| o(b)$ para todo $b\in\bar{G}$; en particular, para $b=\varphi(a)$ se tiene que $o(\varphi^{–1}(\varphi(a))) \big| o(\varphi(a))$. Entonces,
\begin{align*}
o(a) = o(\varphi^{–1}(\varphi(a))) \big| o(\varphi(a))
\end{align*}

Por lo tanto $o(\varphi(a)) = o(a)$.

$\blacksquare$

Ejemplo.

Por último, veamos un ejemplo para ilustrar las propiedades que acabamos de ver.

Sea $G$ un grupo, $a \in G$ de orden finito.

Dado $g\in G$ sabemos que
\begin{align*}
\gamma_g : G \to G \quad \text{con} \quad \gamma_g(x) = gxg^{-1} \; \forall x\in G
\end{align*}

es un isomorfismo.

Así, $\gamma_g(a)$ es de orden finito y $o(\gamma_g(a)) = o(a)$. Entonces, $gag^{-1}$ es de orden finito y $o(gag^{-1}) = o(a)$.

Así, elementos conjugados tienen el mismo orden.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sean $G$ y $\bar{G}$ grupos y $X\subseteq G$ tal que $G = \left< X\right>.$ Sea $\varphi: X \to \bar{G} $ una función. ¿Qué se requiere para poder extender $\varphi$ a un homomorfismo $\psi: G \to \bar{G}$? En ese caso ¿de cuántas formas se pueden extender?
  2. Describe, si es que existen, todos los homomorfismos:
    • de $\z$ en $\z$
    • de $\z_{12}$ en $\z_5$
    • de $\z$ en $\z_8$
    • de $\z_{12}$ en $\z_{14}$
  3. Determina si los siguientes grupos son isomorfos
    • $Q$ y $D_{2(4)}$
    • $(SO(2,\r), \cdot\,)$ y $(S^1, \cdot\,)$
    • $(\z[x], +)$ y $(\mathbb{Q}^+, \cdot\,)$

Más adelante…

Los resutados mostrados en esta entrada no son más que consecuencias lógicas a lo que establecimos en la entrada anterior. Es importante recalcarlos, pero es claro que si un homomorfismo se comporta bien con el producto, se va a comportar bien con la potencia y por ende, con el orden de un elemento.

En la siguiente entrada, definiremos nuevos conceptos relacionados con los homomorfismos, como el núcleo de un homomorfismo y la proyección canónica.

Entradas relacionadas

Álgebra Moderna I: Homomorfismo, Monomorfismo, Epimorfismo, Isomorfismo y Automorfismo

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Lo sé, el título parece un trabalenguas. Pero ten paciencia, en realidad no es tan complicado.

A lo largo de este curso hemos estado trabajando con grupos, ahora vamos a pensar en funciones que respetan de alguna manera la estructura de los grupos.

Tomemos por ejemplo el grupo de Klein, $V = \{(0,0), (1,0), (0,1),(1,1)\}$, es un grupo que tiene un neutro $(0,0)$ y los otros tres elementos comparten que: tienen orden 2, si se suman consigo mismos obtenemos el neutro y si sumamos dos, obtenemos el tercero:

\begin{align*}
(1,0) + (1,0) &= (0,0)\\
(0,1) + (0,1) &= (0,0)\\
(1,1) + (1,1) &= (0,0).
\end{align*}

\begin{align*}
(1,0) + (0,1) &= (1,1)\\
(0,1) + (1,1) &= (1,0)\\
(1,1) + (1,0) &= (0,1).
\end{align*}

Por otro lado, podemos tomar el conjunto $P = \{(1), (1\, 2)(3\,4), (1\,3)(2\,4), (1\,4)(2\,3)\}$. $P$ es un grupo que tiene un neutro $(1)$ y los otros tres elementos comparten que: tienen orden 2, si se componen consigo mismos obtenemos el neutro y si componemos dos, obtenemos el tercero:

\begin{align*}
(1\, 2)(3\,4)(1\,2)(3\,4) &= (1)\\
(1\,3)(2\,4)(1\,3)(2\,4) &= (1)\\
(1\,4)(2\,3)(1\,4)(2\,3) &= (1).
\end{align*}

\begin{align*}
(1\, 2)(3\,4)(1\,3)(2\,4) &= (1\,4)(2\,3)\\
(1\,3)(2\,4)(1\,4)(2\,3) &= (1\, 2)(3\,4)\\
(1\,4)(2\,3)(1\, 2)(3\,4) &= (1\,3)(2\,4).
\end{align*}

¿Suena familiar? Bueno, esto es porque a pesar de que son grupos distintos, con elementos y operaciones muy diferentes, estructuralmente son iguales.

Para formalizar esta idea, nos gustaría observar que existe una correspondencia entre los dos grupos. Esta correspondencia es biyectiva y además tiene que respetar la estructura de las operaciones. Entonces sería algo así:

\begin{align*}
(0,0) &\longrightarrow (1)\\
(1,0) &\longrightarrow (1\, 2)(3\,4)\\
(0,1) &\longrightarrow (1\,3)(2\,4)\\
(1,1) &\longrightarrow (1\,4)(2\,3).
\end{align*}

En este caso decimos que $V$ y $P$ son isomorfos. Lo definiremos formalmente más adelante, por ahora es importante que observes que esta correspondencia mantiene la estructura de las operaciones de los grupos. Así, este es el objetivo de la entrada, definir y trabajar con funciones (no necesariamente biyectivas) que mantengan las operaciones de dos grupos. Estas funciones son llamadas homomorfismos.

¿Qué son todos estos homomorfismos?

Primero, comencemos definiendo lo más general. Una función que mantenga las operaciones entre grupos.

Definición. Sean $(G,*), (\bar{G}, \bar{*})$ grupos. Decimos que la función $\varphi:G \mapsto \bar{G}$ (ó $\varphi: (G,*)\mapsto (\bar{G},\bar{*})$) es un homomorfismo de grupos si
$$\varphi(a*b) = \varphi(a) \bar{*} \varphi(b) \quad \forall a,b\in G.$$

Se puede decir que $\varphi$ «abre» a la operación.

Definiciones varias.

Ahora, le agregaremos condiciones a $\varphi$. Dependiendo de qué condición extra cumpla, el homorfismo tomará otro nombre.

  • Si el homomorfismo $\varphi$ es inyectivo se llama monomorfismo.
  • Si el homomorfismo $\varphi$ es suprayectivo se llama epimorfismo.
  • Si el homomorfismo $\varphi$ es biyectivo se llama isomorfismo.
  • Un isomorfismo de un grupo en sí mismo se llama automorfismo.

Notación. Si $\varphi$ es un isomorfismo decimos que $G$ es isomorfo a $\bar{G}$ y lo denotamos como $G \cong \bar{G}$.

Puede parecer mucho vocabulario nuevo, así que guarda esta entrada para recordar qué es cada uno.

Ejemplos.

Ejemplo 1.Tomemos $\varphi: (\z , +) \mapsto (\z_n,+)$ con $\varphi(a) = \bar{a}$ para toda $a\in \z$. Es decir, $\varphi$ manda a cada entero a su clase módulo $n$.

Veamos qué sucede con la suma :
$\varphi(a+b) = \overline{a+b} = \bar{a} + \bar{b} = \varphi(a) + \varphi(b)$ para toda $a,b \in \z$.

Además, dado $\bar{a} \in \z_n, \bar{a} = \varphi(a)$. Entonces $\varphi$ es suprayectiva.
Por lo tanto $\varphi$ es un epimorfismo.

Ejemplo 2. Sea $n \in \n^+$.
Tomamos $\varphi: (S_n, \circ) \mapsto (S_{n+1}, \circ)$ donde para cada $\alpha \in S_n$ se define $\varphi(\alpha) \in S_{n+1}$ tal que
\begin{align*}
\varphi(\alpha)(i) =
\begin{cases}
\alpha(i) & \text{si } i \in \{1,…,n\} \\
n+1 & \text{si } i = n+1
\end{cases}
\end{align*}

Es decir, se mantienen las permutaciones de $S_n$ pero se consideran como elementos de $S_{n+1}$ pensando que dejan fijo a $ n+1$.

Ahora veamos qué sucede con el producto, sean $\alpha, \beta \in S_n$:
\begin{align*}
\varphi(\alpha)\varphi(\beta) (i) &= \varphi(\alpha)(\varphi(\beta)(i)) \\
& = \begin{cases} \alpha(\beta(i)) & \text{si } i \in \{1, … , n\} \\
n+1 & \text{si } i = n+1
\end{cases} \\
&= \varphi(\alpha\beta)(i)
\end{align*}

Además, si $\varphi(\alpha) = (1)$ entonces $\alpha(i) = i$ para todo $i \in \{1, …, n\}$. Así $\alpha = (1).$ Por lo que $\varphi$ es inyectiva.
En conclusión, $\varphi$ es un monomorfismo.

Ejemplo 3. Sea $\varphi: (\r, +) \mapsto (\r^+, \cdot)$ con $\varphi(x) = e^x$ para todo $x\in\r$.
Entonces, para la suma de dos elementos en el dominio $x,y \in \r$ tendríamos,
$$\varphi(x+y) = e^{x+y} = e^x e^y = \varphi(x) \varphi(y).$$
Sabemos que $\psi: \r^+ \mapsto \r$ con $\psi(y) = \ln(y)$ para toda $y \in \r^+$ es la inversa de $\varphi$, así $\varphi$ es biyectiva.
Por lo tanto $\varphi$ es un isomorfismo.

Ejemplo 4. Veamos un ejemplo más abstracto. Sea $G$ un grupo y $g\in G$. Y, dadas $x,y \in G$, definimos
$\gamma_g(xy) = g(xy) g^{-1} = (gxg^{-1}) (gyg^{-1}) = \gamma_g (x) \gamma_g(y).$
Además, para toda $x \in G$,
\begin{align*}
\gamma_g \circ \gamma_{g^{-1}} (x) = \gamma_g (g^{-1}x g ) = g(g^{-1} x g) g^{-1} = x \\
\gamma_{g^{-1}} \circ \gamma_{g} (x) = \gamma_{g^{-1}} (g x g^{-1} ) = g^{-1}(g x g^{-1}) g = x .
\end{align*}
Donde, $g^{-1}$ existe porque $G$ es un grupo. Así, lo anterior nos indica que $\gamma_g$ es un homomorfismo invertible, que además tiene como dominio y codominio a $G$.

Por lo tanto $\gamma_g$ es un automorfismo.

Propiedades de los homomorfismos

Proposición. El inverso de un isomorfismo es un isomorfismo.

Demostración.

Sean $(G, *), (\bar{G}, \bar{*})$ grupos, $\varphi:G\mapsto \bar{G}$ es un isomorfismo.
Tomemos $c,d \in\bar{G}$.

Como $\varphi$ es suprayectiva, existen $a,b \in G$ tales que $\varphi(a) = c$ y $\varphi(b) = d$.

\begin{align*}
\varphi^{-1} (c \bar{*}d) &= \varphi^{-1} \left( \varphi(a) \bar{*} \varphi(b) \right) \\
&= \varphi^{-1}\left( \varphi(a * b)\right) & \varphi \text{ es un homomorfismo}\\
& = \varphi^{-1} \circ \varphi (a*b)\\
& = a * b & \text{Composición de inversas}\\
& = \varphi^{-1}(c) * \varphi^{-1}(d) & \text{Pues }\varphi(a) = c,\, \varphi(b) = d
\end{align*}

Así, $\varphi^{-1}$ es un homomorfismo y como es biyectivo por ser invertible, entonces $\varphi^{-1}$ es un isomorfismo.

$\blacksquare$

Proposición. La composición de homomorfismos es un homomorfismo.

Demostración.

Sean $(G,*), (\bar{G}, \bar{*}), (\tilde{G}, \tilde{*})$ grupos. También, sean $\varphi: G \mapsto \bar{G}$ y $\psi: \bar{G} \mapsto \tilde{G}$ homomorfismos.

Dados $a,b \in G$,

\begin{align*}
\psi \circ \varphi(a*b) &= \psi (\varphi (a*b)) \\
&= \psi(\varphi(a)\,\bar{*}\, \varphi(b)) &\varphi\text{ es homomorfismo}\\
&= \psi(\varphi(a)) \,\tilde{*}\, \psi(\varphi(b)) & \psi\text{ es homomorfismo} \\
&= \psi\circ\varphi(a)\, \tilde{*} \,\psi\circ\varphi(b)
\end{align*}

Por lo tanto $\psi\circ\varphi$ es un homomorfismo.

$\blacksquare$

Observaciones.

  • Para todo $G$ grupo, $G\cong G$. (Es decir, $G$ es isomorfo a sí mismo).
  • Si $G, \bar{G}$ son grupos y $G \cong \bar{G}$, entonces $\bar{G}\cong G$.
  • Si $G, \bar{G}, \tilde{G}$ son grupos, $G \cong \bar{G}$ y $\bar{G} \cong \tilde{G}$, entonces $G\cong \tilde{G}.$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sea $D_{2n} = \left<a,b\right>$ el grupo diédrico formado por las simetrías de un $n$-ágono, con $a$ la rotación de $\displaystyle\frac{2\pi}{n}$ y $b$ la reflexión con respecto al eje $x$. Sea $\varphi: D_{2n} \to D_{2n}$ tal que $\varphi(a^ib^j) = b^j$. ¿Es $\varphi$ un homomorfismo?
  2. Sean $X$ y $Y$ dos conjuntos con la misma cardinalidad. ¿Qué relación hay entre $S_X$ y $S_Y$?
  3. Sea $V = \{e, (1\,2)(3\,4), (1\,3)(2\,4), (1\,4)(1\,3)\} \leq S_4$. Encuentra $H\leq S_4$, $H\neq V$ pero isomorfo a $V$. ¿Es $H$ normal en $S_4$?

Más adelante…

Los homomorfismos son una parte importante de las matemáticas, porque respetar las operaciones es una característica sencilla a simple vista, pero lo suficientemente compleja para que las funciones que la cumplan sean muy interesantes. Los homomorfismos nos permiten cambiar de espacios de trabajo sin mucho problema.

Por otro lado, tal vez ya sabes que las matemáticas de este curso (y de la mayoría de los cursos en este blog) están fundamentadas en la Teoría de Conjuntos. Esta teoría nos permite construir a los objetos matemáticos a partir de conjuntos. Como curiosidad, tal vez te interese saber que existe otra teoría llamada Teoría de Categorías, que generaliza lo anterior, y en la que la generalización de un homomorfismo es llamado morfismo.

Aunque estén definidos de manera diferente, los homomorfismos de esta entrada y los morfismos de la Teoría de Categorías son, en intuición, lo mismo. Esto refuerza la idea de que los homomorfismos son en realidad más importantes de lo que parecen.

Pero bueno, regresemos a nuestro curso: en la siguiente entrada continuaremos viendo el comportamiento de los homomorfismos.

Entradas relacionadas

Cálculo Diferencial e Integral III: Determinantes

Por Alejandro Antonio Estrada Franco

Introducción

El determinante de una matriz cuadrada es un número asociado a esta. Como veremos, los determinantes nos proporcionarán información de interés para varios problemas que se pueden poner en términos de matrices.

Recuerda que los temas de esta unidad son tratados a manera de repaso, por lo cual no nos detenemos en detallar las demostraciones, ni en extender las exposiciones de las definiciones. Para mayor detalle, te remitimos al curso de Álgebra Lineal I, específicamente comenzando con la entrada Transformaciones multilineales. Aún así, es recomendable que revises estas notas en el curso de Cálculo Diferencial e Integral III, pues sintetizamos los temas de tal manera que recuperamos los conceptos relevantes para el cálculo de varias variables. Así mismo, en ocasiones, abordamos las definiciones y resultados de manera un poco distinta, y es muy instructivo seguir los mismos conceptos abordados con un sabor ligeramente distinto.

Permutaciones

Recordemos que en la entrada anterior definimos para cada $n\in \mathbb{N}$ el conjunto $[n]=\{1, 2,\ldots, n\}$.

Definición. Una permutación del conjunto $[n]$ es una función biyectiva $\sigma :[n]\rightarrow [n]$. Una forma de escribir a $\sigma$ de manera más explícita es la siguiente:
\[ \sigma = \begin{pmatrix} 1 & 2 & \dots & n \\
\sigma(1) & \sigma(2) & \dots & \sigma(n) \end{pmatrix} \]

Podemos pensar también a una permutación como un reacomodo de los números $1, 2, …, n$. Pensado de esta manera, escribimos $\sigma =\sigma(1) \sigma(2)\dots \sigma(n)$.

El conjunto de todas las permutaciones del conjunto $[n]$ se denota como $S_n$. Una observación interesante es que $S_{n}$ tiene $n!$ elementos.

Definición. Para $\sigma \in S_{n}$, una inversión en $\sigma$ consiste en un par $(i,k)\in [n]\times [n]$ tal que $i>k$ pero $i$ precede a $k$ en $\sigma$ cuando se considera $\sigma$ como una lista. Diremos que $\sigma$ es permutación par o impar según tenga un número par o impar de inversiones.

Ejemplo. Consideremos $\sigma=12354$ permutación en $[5]$. Tenemos que $(5,4)$ es una inversión en $\sigma$ pues $5>4$ pero en la permutación $5$ precede a $4$. Al tener $\sigma$ una sola inversión, es una permutación impar.

$\triangle$

Definición. El signo de $\sigma$, denotado $\text{sign}(\sigma)$ se define como:
\[
\text{sign}(\sigma )= \begin{cases} 1 & \text{si $\sigma$ es par} \\
-1 & \text{si $\sigma$ es impar.}\end{cases}
\]

Sea $A\in M_{n}(\mathbb{R})$. Pensemos en un producto de $n$ entradas de $A$ tomadas de tal manera que se eligió una y sólo una de cada fila y columna. Podemos reordenar los números para poner en orden la fila de la que tomamos cada uno, y escribir el producto como
\begin{equation}
a_{1j_{1}} a_{2j_{2}}\dots a_{nj_{n}}.
\label{eq:producto}
\end{equation}

Así, $a_{kj_{k}}$ nos dice que en la fila $k$ tomamos la entrada de la columna $j$. Como se eligió una y sólo una entrada por columna, tenemos que $j_1,\ldots,j_n$ es una permutación de $[n]$. Y viceversa, cada permutación $\sigma =j_{1}\dots j_{n} \in S_{n}$ determina un producto como en \eqref{eq:producto}. Por ello la matriz $A$ nos entrega $n!$ productos con esta característica.

Determinantes en términos de permutaciones

A partir de las permutaciones podemos definir a los determinantes.

Definición. El determinante de la matriz $A$, denotado por $\det(A)$, se define como:
\[
\det(A)=\sum_{\sigma \in S_{n}} \left(\text{sign}(\sigma)\prod_{i=1}^{n} a_{i\sigma (i)}\right)
\]
donde
\[
\sigma = \begin{pmatrix} 1 & 2 & \dots & n \\
\sigma (1) & \sigma (2) & \dots & \sigma (n)
\end{pmatrix}
\]

Ejemplo. Para la matriz \[ A= \begin{pmatrix} 0 & 2 & 1 \\ 1 & 2 & 0 \\ 3 & 0 & 1 \end{pmatrix} \] tomemos en cuenta las permutaciones del conjunto $[3]$ las cuales son: \[ \begin{pmatrix} 1 & 2 & 3 \\ 1 & 2 & 3 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 1 & 3 & 2 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 2 & 1 & 3 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 2 & 3 & 1 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 3 & 1 & 2 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 3 & 2 & 1 \end{pmatrix} \]

De acuerdo con la definición de determinante, tenemos:

\begin{align*}
\det(A)=&(1)a_{11}a_{22}a_{33}+(-1)a_{11}a_{23}a_{32}+(-1)a_{12}a_{21}a_{33}+\\
&(1)a_{12}a_{23}a_{31}+(1)a_{13}a_{22}a_{31}+(-1)a_{13}a_{21}a_{32}\\
=&0\cdot 2\cdot 1+(-1)0\cdot 0\cdot 0+(-1)2\cdot 1\cdot 1+\\
&(1)2\cdot 0\cdot 3+(1)1\cdot 2\cdot 3+(-1)1\cdot 1\cdot 0\\
=&4.
\end{align*}

$\triangle$

Propiedades de los determinantes

Veamos algunas de las propiedades que tienen los determinantes. Aprovecharemos para introducir algunas matrices especiales.

Definición. La matriz identidad $I\in M_{n}(\mathbb{R})$ es aquella que cumple que en las entradas de la forma $(i,i)$ son iguales a 1 y el resto de las entradas son iguales a 0.

Definición. Diremos que una matriz $A\in M_n(\mathbb{R})$ es una matriz triangular superior si cumple $a_{ij}=0$ para $i>j$. La llamaremos triangular inferior si cumple $a_{ij}=0$ para $i<j$. Finalmente, diremos que es diagonal si cumple $a_{ij}=0$ para $i\neq j$ (en otras palabras, si simultáneamente es triangular superior e inferior).

Definición. Sea $A\in M_{m,n}(\mathbb{R})$. La transpuesta de la matriz $A$, denotada por $A^t$, es la matriz en $M_{n,m}(\mathbb{R})$ cuyas entradas están definidas como $(a^{t})_{ij} =a_{ji}$.

El siguiente resultado enuncia algunas propiedades que cumplen los determinantes de la matriz identidad, de matrices transpuestas, y de matrices triangulares superiores, triangulares inferiores y diagonales.

Proposición. Sea $A\in M_{n}(\mathbb{R})$. Se cumple todo lo siguiente.

  1. $\det(A)=\det(A^{t})$.
  2. Si $A$ tiene dos filas iguales $\det(A)=0$.
  3. Si $A$ tiene dos columnas iguales $\det(A)=0$.
  4. Si $A$ es triangular superior, triangular inferior, o diagonal, $\det(A)=\prod_{i=1}^{n} a_{ii}$.
  5. $\det(I_n)=1$.

Demostración.

  1. Notemos que (tarea moral) $\text{sign}( \sigma )= \text{sign}( \sigma ^{-1})$, así tenemos que
    \begin{align*}
    \det(A^{t})&=\sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{\sigma (1) 1}\dots a_{\sigma (n) n}\\
    &=\sum_{\sigma \in S_{n}} \text{sign}(\sigma ^{-1})a_{1\sigma (1)}\dots a_{n\sigma (n)}\\
    &= \sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{1\sigma (1)}\dots a_{n\sigma (n)}\\&= \det(A).
    \end{align*}
  2. Si tenemos dos filas iguales, en cada producto $a_{1\sigma (1)}\cdots a_{n\sigma (n)}$ tenemos dos factores de la misma fila, por tanto para cada producto tenemos otro igual en la suma solo que con signo contrario (signo de la permutación correspondiente); al hacer la suma estos sumandos se anularán por pares resultando en cero.
  3. Mismo argumento que en el inciso anterior.
  4. Si tenemos una matriz triangular, ya sea superior, o inferior $\prod_{i=1}^{n} a_{i\sigma (i)}\neq 0$ sólo cuando $\sigma(i)=i$ ya que en otro caso este producto siempre tendrá algún factor cero.
  5. Es un corolario de la propiedad anterior, pues la matriz identidad es una matriz diagonal con unos en la diagonal.

$\square$

Otra propiedad muy importante del determinante es que es multiplicativo. A continuación enunciamos el resultado, y referimos al lector a la entrada Propiedades de determinantes para una demostración.

Teorema. Sean $A$ y $B$ matrices en $M_n(\mathbb{R})$. Se tiene que $$\det(AB)=\det(A)\det(B).$$

Mas adelante

En la siguiente entrada revisaremos la teoría de sistemas de ecuaciones lineales. Comenzaremos definiéndolos, y entendiéndolos a partir de las operaciones elementales que definimos en la entrada anterior. Hablaremos un poco de cómo saber cuántas soluciones tiene un sistema de ecuaciones. Así mismo veremos que en ciertos sistemas de ecuaciones lineales, podemos asociar una matriz cuyo determinante proporciona información relevante para su solución.

Un poco más adelante también hablaremos de diagonalizar matrices. A grandes rasgos, esto consiste en encontrar representaciones más sencillas para una matriz, pero que sigan compartiendo muchas propiedades con la matriz original. El determinante jugará de nuevo un papel muy importante en esta tarea.

Tarea moral

  1. Sea $\sigma \in S_{n}$. Muestra que su inversa, $\sigma ^{ -1}$ también es una permutación. Después, muestra que
    \[\text{sign}(\sigma)= \text{sign}(\sigma ^{-1}).\]
    Sugerencia: no es difícil hacerlo por inducción sobre el número de inversiones.
  2. Encuentra explícitamente cuántas inversiones tiene la permutación $\sigma$ en $S_n$ dada por $S(j)=n-j+1$.
  3. Escribe con más detalle la demostración de que una matriz y su transpuesta tienen el mismo determinante. Puedes pensarlo como sigue. Toma \[ \det(A)=\sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{1\sigma(1)}\cdot \dots \cdot a_{n\sigma (n)}.\] Supón que las filas $s$ y $t$ son iguales; para cada factor argumenta por qué \[ a_{1\sigma (1)}\cdots a_{s\sigma (s)} \cdots a_{t\sigma (t)}\cdots a_{n\sigma (n)} \] el factor \[ a_{1\sigma (1)}\cdots a_{t\sigma (t)}\cdots a_{s\sigma (s)} \cdots a_{n\sigma (n)} \] donde permutamos el $t$-ésimo factor con el $s$-ésimo también está en la suma, y por qué ambos son de signos contrarios.
  4. Demuestra que el producto de una matriz triangular superior con otra matriz triangular superior también es una matriz triangular superior. Enuncia y demuestra lo análogo para matrices triangulares inferiores, y para matrices diagonales.
  5. Argumenta con más detalle por qué el determinante de una matriz triangular superior es el produto de las entradas en su diagonal. Específicamente, detalla el argumento de las notas que dice que «en otro caso, este producto siempre tendrá algún factor cero».

Entradas relacionadas