Archivo de la etiqueta: álgebra

Álgebra Lineal II: Ejemplos de formas canónicas de Jordan

Introducción

En las notas anteriores desarrollamos teoría interesante acerca de las formas canónicas de Jordan, ahora vamos a ver algunos ejemplos de todo eso.

Ejemplo 1

Considera la matriz $$A = \begin{pmatrix}1 & 0 & 0 & 0 & 2 \\ 0 & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 \\ -1 & 0 & 0 & 0 & -2 \end{pmatrix}$$

Calculamos $\chi_{A}(X)$ expandiendo $det(XI_{5} – A)$ con respecto a la tercera fila y obtenemos (usando de nuevo la expansión respecto a la segunda fila en el nuevo determinante) \begin{align*} \chi_{A}(X) &= X \begin{vmatrix} X-1 & 0 & 0 & -2 \\ 0 & X & 0 & 0 \\ 0 & -1 & X & 0 \\ 1 & 0 & 0 & X+2 \end{vmatrix} \\ &= X^{2} \begin{vmatrix} X-1 & 0 & 2 \\ 0 & X & 0 \\ 1 & 0 & X+2 \end{vmatrix} \\ &= X^{3} \begin{vmatrix} X-1 & -2 \\ 1 & X+2 \end{vmatrix} \\ &= X^{4} (X+1) \end{align*}

El eigenvalor $-1$ tiene multiplicidad algebraica 1, por lo que hay un solo bloque de Jordan asociado con este eigenvalor, de tamaño 1. Ahora, veamos qué pasa con el eigenvalor 0 que tiene multiplicidad algebraica 4. Sea $N_{m}$ el número de bloques de Jordan de tamaño $m$ asociados con ese eigenvalor. Por el Teorema visto en la nota anterior tenemos que $$N_{1} = rango(A^{2}) – 2rango(A) + 5,$$ $$N_{2} = rango(A^{3}) – 2rango(A^{2}) + rango(A)$$ etcétera. Puedes checar fácilmente que $A$ tiene rango 3.

Luego, calculemos $A^{2} = \begin{pmatrix} -1 & 0 & 0 & 0 & -2 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 & 0 \\ 1 & 0 & 0 & 0 & 2 \end{pmatrix}$, $A^{3} = \begin{pmatrix} 1 & 0 & 0 & 0 & 2 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \\ -1 & 0 & 0 & 0 & -2 \end{pmatrix}$.

Nota que $A^{2}$ tiene rango 2 (pues una base del generado por sus filas está dada por la primera y cuarta fila) y $A^{3}$ tiene rango 1. De donde, $$N_{1} = 2-2 \cdot 3 + 5 = 1,$$ por lo que hay un bloque de Jordan de tamaño 1 y $$N_{2} = 1-2 \cdot 2 + 3 = 0,$$ entonces no hay un bloque de Jordan de tamaño 2. Dado que la suma de los tamaños de los bloques de Jordan asociados con el eigenvalor 0 es 4, y como ya sabemos que hay un bloque de tamaño 1 y no hay de tamaño 2, deducimos que hay un bloque de tamaño 3 y que la forma canónica de Jordan de $A$ es $$\begin{pmatrix} -1 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1& 0 \\ 0 & 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 & 0\end{pmatrix}.$$

Ejemplo 2

Tarea moral

  1. Usa el Teorema de Jordan para probar que cualquier matriz $A \in M_{n}(\mathbb{C})$ es similar a su transpuesta.
  2. Prueba que si $A \in M_{n}(\mathbb{C})$ es similar a $2A$, entonces $A$ es nilpotente.
  3. Usa el teorema de Jordan para probar que si $A \in M_{n}(\mathbb{C})$ es nilpotente, entonces $A$ es similar a $2A$.

Más adelante…

Con esto finalizamos el curso de Álgebra Lineal II, lo que sigue es el maravilloso mundo del Álgebra Moderna.

Entradas relacionadas

  • Ir a Álgebra Lineal II
  • Entrada anterior del curso: Clasificación de matrices por similaridad

Álgebra Lineal II: Clasificación de matrices por similaridad

Introducción

En las notas anteriores hemos desarrollado el Teorema de Jordan, y ahora veremos cómo podemos clasificar matrices por similaridad.

Sección

Supongamos que $A$ es una matriz similar a $$\begin{pmatrix} J_{k_{1}}(\lambda_{1}) & 0 & \cdots & 0 \\ 0 & J_{k_{2}}(\lambda_{2}) & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}}(\lambda_{d}) \end{pmatrix}$$

Entonces el polinomio característico de $A$ es $$\chi_{A}(X) = \prod_{i=1}^{d}\chi_{J_{k_{i}}} (\lambda_{i})(X).$$

Ahora, dado que $J_{n}$ es nilpotente tenemos $\chi_{J_{k_{i}}}(X) = X^{n}$ y así $$\chi_{J_{n}(\lambda)}(X) = (X – \lambda)^{n}.$$

Se sigue que $$\chi_{A}(X) = \prod_{i=1}^{d} (X – \lambda_{i})^{k_{i}}$$ y así necesariamente $\lambda_{1}, \ldots, \lambda_{d}$ son todos eigenvalores de $A$. Nota que no asumimos que $\lambda_{1}, \ldots, \lambda_{d}$ sean distintos a pares, por lo que no podemos concluir de la igualdad anterior que $k_{1}, \ldots, k_{d}$ sean las multiplicidades algebráicas de los eigenvalores de $A$. Esto no es verdad en general: varios bloques de Jordan correspondientes a un dado eigenvalor pueden aparecer. El problema de la unicidad se resuelve completamente por el siguiente:

Teorema: Supongamos que una matriz $A \in M_{n}(F)$ es similar a $$\begin{pmatrix} J_{k_{1}}(\lambda_{1}) & 0 & \cdots & 0 \\ 0 & J_{k_{2}}(\lambda_{2}) & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}}(\lambda_{d}) \end{pmatrix}$$ para algunos enteros positivos $k_{1}, \ldots, k_{d}$ que suman $n$ y algunas $\lambda_{1}, \ldots, \lambda_{d} \in F$. Entonces

  1. Cada $\lambda_{i}$ es un eigenvalor de $A$.
  2. Para cada eigenvalor $\lambda$ de $A$ y cada entero positivo $m$, el número de bloques de Jordan $J_{m}(\lambda)$ entre $J_{k_{1}}(\lambda_{1}), \ldots, J_{k_{d}}(\lambda_{d})$ is $$N_{m}(\lambda) = rango(A – \lambda I_{n})^{m+1} – 2 rango(A – \lambda I_{n})^{m} + rango(A – \lambda I_{n})^{m-1}$$ y depende sólo en la clase de similaridad de $A$.

Demostración. Ya vimos el inciso 1. La prueba del inciso 2 es muy similar a la solución del Problema __. Más precisamente, sea $B = A – \lambda I_{n}$ y observa que $B^{m}$ es similar a $\begin{pmatrix} (J_{k_{1}}(\lambda_{1}) – \lambda I_{k_{1}})^{m} & 0 & \cdots & 0 \\ 0 & (J_{k_{2}}(\lambda_{2}) – \lambda I_{k_{2}})^{m} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & (J_{k_{d}}(\lambda_{d}) – \lambda I_{k_{d}})^{m}\end{pmatrix}$, por lo que $\displaystyle rango(B^{m}) = \sum_{i=1}^{d} rango(J_{k_{i}} (\lambda_{i}) – \lambda I_{k_{i}})^{m}$.

Ahora, el rango de $(J_{n}(\lambda) – \mu I_{n})^{m}$ es

  • $n$ si $\lambda \neq \mu$, como en este caso $$J_{n}(\lambda) – \mu I_{n} = J_{n} + (\lambda – \mu) I_{n}$$ es invertible,
  • $n-m$ para $\lambda = \mu$ y $m \leq n$, como se sigue del Problema __.
  • 0 para $\lambda = \mu$ y $m > n$, dado que $J^{n}_{n} = O_{n}$.

De ahí, si $N_{m}(\lambda)$ es el número de bloques de Jordan $J_{m}(\lambda)$ entre $J_{k_{1}}(\lambda_{1}), \ldots, J_{k_{d}}(\lambda_{d})$, entonces $$rango(B^{m}) = \sum_{\substack{\lambda_{i} = \lambda \\ k_{i} \geq m}} (k_{i} – m) + \sum_{\lambda_{i} \neq \lambda} k_{i},$$ luego sustrayendo esas igualdades para $m-1$ y $m$ se tiene que $$rango(B^{m-1}) – rango(B^{m}) = \sum_{\substack{\lambda_{i} = \lambda \\ k_{i} \geq m}} 1$$ y finalmente \begin{align*} rango(B^{m-1}) – 2rango(B^{m}) + rango(B^{m+1}) = \\ (rango(B^{m-1}) – rango(B^{m})) – (rango(B^{m}) – rango(B^{m+1})) = \\ \sum_{\substack{\lambda_{i} = \lambda \\ k_{i} = m}} 1 = N_{m}(\lambda) \end{align*} como queríamos.

$\square$

Tarea moral

  1. ¿Cuáles son las posibles formas canónicas de Jordan de una matriz cuyo polinomio característico es $(X-1)(X-2)^{2}$?
  2. Considera una matriz $A \in M_{6}(\mathbb{C}) de rango 4 cuyo polinomio mínimo es $X(X-1)(X-2)^{2}$.
    1. ¿Cuáles son los eigenvalores de $A$?
    2. ¿$A$ es diagonalizable?
    3. ¿Cuáles son las posibles formas canónicas de Jordan de $A$?

Más adelante…

En la siguiente nota veremos algunos ejemplos de cómo funciona todo esto.

Entradas relacionadas

  • Ir a Álgebra Lineal II
  • Entrada anterior del curso: Teorema de formas canónicas de Jordan
  • Siguiente entrada del curso: Ejemplos de formas canónicas de Jordan

Álgebra Lineal II: Jordan para matrices nilpotentes

Introducción

En la nota anterior resolvimos varios problemas para introducir los bloques de Jordan. Comenzaremos resolviendo el siguiente problema:

Problema 1: Sea $T \colon V \to V$ una transformación lineal nilpotente con índice $k$ en un espacio vectorial, sea $v \in V$ y sea $$W = \langle(v,T(v), \ldots, T^{k-1}(v))\rangle$$

  1. Prueba que $W$ es invariante bajo $T$.
  2. Prueba que si $T^{k-1}(v) \neq 0$, entonces $T^{k-1}(v), T^{k-2}(v), \ldots , T(v), v$ forman una base de $W$ (por lo que $\dim(W) = k$) y la matriz de la transformación lineal $T \colon W \to W$ con respecto a esta base es $$J_{k} = \begin{pmatrix}0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & 1 \\ 0 & 0 & 0 & \cdots & 0 \end{pmatrix}$$

Esta matriz se llama un bloque de Jordan de tamaño $k$ (nota que $J_{1} = O_{1}$, la matriz de $1 \times 1$ con una entrada igual a 0).

Solución.

  1. Cualquier elemento de $W$ es de la forma $$w = a_{0}v + a_{1}T(v) + \cdots + a_{k-1}T^{k-1}(v)$$ Dado que $T^{k}(v) = 0$, tenemos $$T(w) = a_{0}T(v) + \cdots + a_{k-2}T^{k-1}(v) \in W,$$ por lo que $W$ es invariante bajo $T$.
  2. Si $T^{k-1}(v) \neq 0$, la parte 1 del problema 2 en (hipervínculo nota introducción) nos muestra que $T^{k-1}(v), \ldots , T(v), v$ es una familia linealmente independiente y como también genera $W$, es una base de $W$. Más aún, como $T^{k}(v) = 0$ y $T(T^{i}(v)) = T^{i+1}(v)$ para $k-2 \geq i \geq 0$, es claro que la matriz de $T \colon W \to W$ respecto a esta base es $J_{k}$.

El principal teorema que concierne a transformaciones lineales nilpotentes en espacios vectoriales de dimensión finita es el siguiente:

Teorema de Jordan

Teorema de Jordan (1): Sea $V$ un espacio vectorial de dimensión finita sobre un campo $F$ y sea $T \colon V \to V$ una transformación lineal nilpotente. Entonces hay una base de $V$ respecto a la cual la matriz de $T$ es de la forma $$A = \begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$$ para alguna sucesión de enteros positivos $k_{1} \geq k_{2} \geq \cdots \geq k_{d}$ con $k_{1} + \cdots + k_{d} = n$. Más aún, la sucesión $(k_{1}, \ldots , k_{d})$ está determinada de forma única.

Podemos escribir el teorema anterior en términos de matrices:

Teorema de Jordan (2): Cualquier matriz nilpotente $A \in M_{n}(F)$ es similar a una matriz diagonal por bloque $\begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$ para una sucesión única de enteros positivos $(k_{1}, \ldots , k_{d})$ con $k_{1} \geq k_{2} \geq \cdots \geq k_{d}$ y $k_{1} + \cdots + k_{d} = n$.

La matriz $\begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$ se llama la forma canónica de Jordan de $A$ o $T$.

Los siguientes problemas están dedicados a la demostración de este teorema. Empezaremos con la unicidad de la sucesión $(k_{1}, \ldots , k_{d})$. La prueba que daremos en los siguientes tres problemas, también muestra cómo calcular explícitamente estos enteros y por lo tanto, cómo encontrar en la práctica la forma de Jordan de matrices nilpotentes.

Problemas para probar Jordan (unicidad)

Problema 2: Sea $T$ la transformación lineal en $F^{n}$ asociada con el bloque de Jordan $J_{n}$. Prueba que para toda $1 \leq k \leq n – 1$ tenemos $$rango\left(T^{k}\right) = n – k$$ y deduce que $$rango\left(J_{n}^{k}\right) = n – k$$ para $1 \leq k \leq n – 1$.

Solución. Si $e_{1}, \ldots, e_{n}$ es la base canónica de $F^{n}$, entonces $T(e_{1}) = 0$, $T(e_{2}) = e_{1}$, $T(e_{3}) = e_{2}$, …, $T(e_{n}) = e_{n-1}$.

En otras palabras, se tiene que $T(e_{i}) = e_{i-1}$ para $1 \leq i \leq n$ con $e_{0} = 0$. Deducimos que $T^{2}(e_{i}) = T(e_{i-1}) = e_{i-2}$ para $1 \leq i \leq n$, con $e_{- 1} = 0$.

Una inducción nos lleva a que $T^{j}(e_{i}) = e_{i-j}$ para $1 \leq j \leq n-1$ y $1 \leq i \leq n$, con $e_{r} \leq 0$. De donde $$Im(T^{j}) = \langle (e_{1}, e_{2}, \ldots, e_{n-j}) \rangle$$ y este espacio es de dimensión $n-j$, lo cual implica que $$rango(T^{k}) = n-k$$ para $1 \leq k \leq n-1$.

La segunda parte es consecuencia inmediata de la primera (¿Por qué?).

$\square$

Problema 3: Supóngase que $A \in M_{n}(F)$ es similar a $\begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$.

Sea $N_{j}$ el número de términos iguales a $j$ en la secuencia $(k_{1}, \ldots , k_{d})$. Prueba que para toda $1 \leq j \leq n$, $$rango(A^{j}) = N_{j+1} + 2N_{j+2} + \cdots + (n-j)N_{n}.$$

Solución. Si $A_{1}, \ldots, A_{d}$ son matrices cuadradas, entonces $$rango\left(\begin{pmatrix}A_{1} & 0 & \cdots & 0 \\ 0 & A_{2} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & A_{d} \end{pmatrix}\right) = rango(A_{1}) + \cdots + rango(A_{d}).$$

Puedes probarlo usando el hecho de que el rango de una matriz es la dimensión del generado por su conjunto de columnas/filas (o el número de columnas/filas linealmente independientes). Dado que matrices similares tienen el mismo rango, deducimos que para toda $j \geq 1$ tenemos $$rango(A^{j}) = rango \left( \begin{pmatrix}J^{j}_{k_{1}} & 0 & \cdots & 0 \\ 0 & J^{j}_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J^{j}_{k_{d}} \end{pmatrix}\right) = \sum_{i=1}^{d} rango(J^{j}_{k_{i}}).$$

Por el problema anterior, $rango(J^{j}_{k_{i}}) = k_{i} – j$ si $j \leq k_{i}$ y 0 si pasa otra cosa. De donde, como $N_{t}$ es el número de índices $i$ para los cuales $k_{i} = t$, tenemos $$\sum_{i=1}^{d} rango(J^{j}_{k_{i}}) = \sum_{t \geq j} \sum_{k_{i} = t} rango(J^{j}_{t})$$ $$= \sum_{t \geq j} N_{t} \cdot (t – j) = N_{j+1} + 2N_{j+2} + \cdots + (n-j)N_{n}$$

$\square$

Problema 4: Prueba que si $k_{1} \geq \cdots \geq k_{d}$ y $k’_{1} \geq \cdots \geq k’_{d}$, son sucesiones de enteros positivos que suman $n$ y tales que $A = \begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$ es similar a $B = \begin{pmatrix}J_{k’_{1}} & 0 & \cdots & 0 \\ 0 & J_{k’_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k’_{d}} \end{pmatrix}$, entonces las sucesiones son iguales. Esta es la unicidad del teorema de Jordan.

Solución. Sea $N_{j}$ el número de términos iguales a $j$ en la sucesión $k_{1}, \ldots, k_{d})$, y definamos de una manera similar a $N’_{j}$ para la sucesión $k’_{1}, \ldots, k’_{d})$. Tenemos que probar que $N_{j} = N’_{j}$ para $1 \leq j \leq n$.

Dado que $A$ y $B$ son similares, $A^{j}$ y $B^{j}$ son similares para toda $j \geq 1$, por lo que tienen los mismos rangos. Usando el problema 3, deducimos que $$N_{j+1} + 2N_{j+2} + \cdots + (n-j)N_{n} = N’_{j+1} + 2N’_{j+2} + \cdots + (n-j)N’_{n}$$ para $j \geq 1$. Fijar $j = n – 1$ nos da que $N_{n} = N’_{n}$, luego si fijamos $j = n – 2$ y usamos que $N_{n} = N’_{n}$ tenemos que $N_{n-1} = N’_{n-1}$. Si continuamos así, tendremos que $N_{j} = N’_{j}$ para $2 \leq j \leq n$.

Todavía nos falta probar que $N_{1} = N’_{1}$, pero esto se sigue de $$N_{1} + 2N_{2} + \cdots + nN_{n} = N’_{1} + 2N’_{2} + \cdots + nN’_{n} = n,$$ ya que $$k_{1} + \cdots + k_{d} = k’_{1} + \cdots + k’_{d} = n.$$

Observación. Los dos problemas anteriores muestran como calcular la sucesión $(k_{1}, \ldots , k_{d})$ en práctica. Concretamente, lo redujimos a calcular $N_{1}, \ldots, N_{n}$. Para esto, usamos la igualdad $$rango(A^{j}) = N_{j+1} + 2N_{j+2} + \cdots + (n-j)N_{n}$$ para $1 \leq j \leq n$ (basta tomar a $j \leq k$ si $A$ tiene índice $k$, nota que en la igualdad anterior para $j = k$ ya tenemos que $N_{k+1} = \cdots = N_{n} = 0$). Esto determina completamente a $N_{2}, \ldots, N_{n}$. Para encontrar a $N_{1}$, usaremos la siguiente igualdad: $$N_{1} + 2N_{2} + \cdots + nN_{n}.$$

Ejemplo. Para un ejemplo específico, considera la matriz $$A = \begin{pmatrix} 1 & -1 & 1 & 2 \\ 1 & -1 & 1 & 2 \\ 0 & 0 & -2 & 4 \\ 0 & 0 & -1 & 2 \end{pmatrix}$$

Puedes checar fácilmente que la matriz es nilpotente pues $$A^{2} = \begin{pmatrix} 0 & 0 & -4 & 8 \\ 0 & 0 & -4 & 8 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{pmatrix}$$ y $A^{3} = O_{3}$. Es decir, $A$ tiene índice $k = 3$. De ahí, se tiene que $N_{4} = 0$ y $$N_{1} + 2N_{2} + 3N_{3} = 4.$$

Ahora, fíjate que el rango de $A$ es 2, ya que la primera y la segunda filas son idénticas, la última fila es la mitad de la tercera, y la primera y la tercera son linealmente independientes. Por lo que $$2 = rango(A) = N_{2} + 2N_{3} + 3N_{4} = N_{2} + 2N_{3}$$

Ahora, como el rango de $A^2$ es 1 (porque sólo hay una fila linealmente independiente) tenemos que $1 = rango(A^{2}) = N_{3} + 2N_{4} = N_{3}.$

Por lo que $N_{1} = 1$, $N_{2} = 0$, $N_{3} = 1$, $N_{4} = 0$ y así, la forma normal de Jordan de $A$ es $$\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{pmatrix}$$

Existencia

Ya probamos la unicidad del teorema de Jordan, falta probar la existencia, lo cual es mucho más difícil. La idea básica no es muy impactante: Trabajamos con inducción fuerte sobre la dimensión de $V$, el caso en que $\dim(V) = 1$ es claro (Pues entonces T = 0). Supongamos que el resultado es cierto para $\dim(V) < n$ y consideremos el caso en el que $\dim(V) = n$. Supongamos que $T \neq 0$ ya que si así fuera, ya habríamos terminado. Sean $k_{1} = k$ el índice de $T$ y $v \in V$ tal que $T^{k-1}(v) \neq 0$. Por el problema 1, el subespacio $$W = \langle(v, T(v), \ldots, T^{k-1}(v)) \rangle$$ es T-invariante, lo cual actúa sobre él como la matriz $J_{k}$ sobre $F^{k}$. Más aún, $\dim(W) = k$. Si $k = n$, entonces hemos terminado. Si no, buscamos un subespacio complementario $W’$ de $W$ que sea invariante bajo $T$. Si pudiéramos encontrar dicho espacio $W’$, entonces podríamos aplicar la hipótesis de inducción a $T \colon W’ \to W$ (nota que su índice no excede $k_{1}$) y encontrar una base de $W’$ en la cual la matriz de $T$ tiene la forma deseada. Conectar la base $T^{k-1}(v), \ldots, T(v), v$ y esta base de $W’$ nos llevaría a la base deseada de $V$ y terminaríamos la inducción. La dificultad clave es probar la existencia de $W’$. Haremos esto con los siguientes dos problemas:

Problema 5:

  1. Prueba que si $A \in M_{n}(F)$ es nilpotente, entonces $^{t}A$ es nilpotente y tiene el mismo índice que $A$.
  2. Supongamos que $V$ es un espacio vectorial de dimensión finita sobre $F$. Prueba que si $T \colon V \to V$ es nilpotente, entonces $^{t}T \colon V^{*} \to V^{*}$ también es nilpotente y tiene el mismo índice que $T$.

Solución.

  1. Para toda $k \geq 1$ tenemos $$(^{t}A)^{k} = ^{t}(A^{k})$$ así $(^{t}A)^{k} = O_{n}$ si y sólo si $A^{k} = O_{n}$. Y así se sigue el resultado que queríamos.
  2. Sea $\beta$ una base de $V$ y sea \beta^{*} la base dual respecto a $\beta$. Si $A$ es la matriz de $T$ con respecto a $\beta$, entonces la matriz de $^{t}T$ con respecto a $\beta^{*}$ es $^{t}A$, por el siguiente teorema (que se vio en _____): Sea $T \colon V \to W$ una transformación lineal entre espacios vectoriales de dimensión finita y sean $\beta$ y $\beta^{*}$ dos bases de $V$ y $W$ respectivamente. Si $A$ es la matriz de $T$ con respecto a $\beta$ y $\beta’$, entonces la matriz de $^{t}T \colon W^{*} \to V^{*}$ con respecto a las bases duales de $\beta’$ y $\beta$ es $^{t}A$. Luego, por la primera parte de este problema. Podríamos haberlo probado de forma directa como sigue: Si $k \geq 1$, entonces $(^{t}T)^{k} = 0$ si y sólo si $(^{t}T)^{k}(l) = 0$ para toda $l \in V^{*}$, de forma equivalente $l \circ T^{k} = 0$ para toda $l \in V^{*}$. Esto puede escribirse como: Para toda $v \in V$ y toda $l \in V^{*}$ tenemos que $l(T^{k}(v)) = 0$. Ahora, la afirmación de que $l(T^{k}(v)) = 0$ para toda $l \in V^{*}$ es equivalente a $T^{k}(v) = 0$, por inyectividad de la función bidual $V \to V^{**}$. De ahí, $(^{t}T)^{k} = 0$ si y sólo si $T^{k} = 0$, y esto pasa aún cuando $V$ es de dimensión infinita. En otras palabras, la segunda parte de este problema es cierto en general (pero la prueba requería la inyectividad de la función $V \to V^{**}$, lo cual es difícil y no estaba dado para espacios vectoriales de dimensión infinita).

$\square$

Problema 6: Sean $T \colon V \to V$ una transformación nilpotente de índice $k$ en un espacio vectorial de dimensión finita $V$ y $v \in V$ tal que $T^{k-1}(v) \neq 0$. Denotamos por simplicidad $S = ^{t}T \colon V^{*} \to V^{*}$ y recordemos que $S$ es nilpotente de índice $k$ por el problema anterior.

  1. Explica por qué podemos encontrar una forma lineal $l \in V^{*}$ tal que $l(T^{k-1}(v)) \neq 0$.
  2. Prueba que el ortogonal de $W’$ de $Z = \langle l, S(l), \ldots, S^{k-1}(l) \rangle \subset V^{*}$ es invariante bajo $T$.
  3. Prueba que $\dim(W’) + \dim(W) = \dim(V)$.
  4. Deduce que $W’ \oplus W = V$, de donde $W’$ es un subespacio complementario de $W$, estable bajo $T$. ¡Esto termina la prueba del Teorema de Jordan!

Solución.

  1. Esta es una consecuencia directa de la inyectividad (en realidad de la biyectividad porque nuestro espacio es de dimensión finita) de la función bidual $V \to V^{**}$.
  2. Intentemos entender concretamente al espacio $Z^{\perp}$. Un vector $x$ está en $Z^{\perp}$ si y sólo si $S^{j}(l)(x) = 0$ para $0 \leq j \leq k-1$. Dado $S = T^{*}$, tenemos $$S^{j}(l)(x) = (l \circ T^{j})(x) = l(T^{j}(x)),$$ así $$Z^{\perp} = \{x \in V : l(T^{j}(x)) = 0 \text{ para toda } 0 \leq j \leq k-1\}.$$ Ahora, sea $x \in Z^{\perp}$ y probemos que $T(x) \in Z^{\perp}$, es decir, que $$l(T^{j}(T(x))) = 0$$ para $0 \leq j \leq k-1$, o de forma equivalente $l(T^{j}(x)) = 0$ para $1 \leq j \leq k$. Esto es claro para $1 \leq j \leq k-1$, dado que $x \in Z^{\perp}$, y es verdadero para $j = k$ por la suposición de que $T^{k} = 0$.
  3. Por el Teorema 6.22 en el Titu tenemos que $$\dim(W’) = \dim(Z^{\perp}) = \dim(V^{*}) – \dim(Z) = \dim(V) – \dim(Z).$$ Por lo tanto, basta probar que $\dim(Z) = \dim(W)$. Ahora $\dim(W) = k$ por el Problema 1, y $\dim(Z) = k$ por el mismo problema aplicado a $V^{*}$, $S$ (quien es nilpotente de índice $k$) y $l$ (nota que $S^{k-1}(l) = l \circ T^{k-1} \neq 0$ dado que $l(T^{k-1}(v)) \neq 0$). Por lo que $\dim(W’) + \dim(W) = \dim(V)$.
  4. Por la parte 3. basta probar que $W’ \cap W = \{0\}$. Sea $w \in W$ y escribamos $$w = a_{0}v + a_{1}T(v) + \cdots + a_{k-1}T^{k-1}(v)$$ para algunos escalares $a_{0}, \ldots, a_{k-1}$. Supongamos que $w \in W’$, así $w \in Z^{\perp}$, lo cual significa que $l(T^{j}(w)) = 0$ para $0 \leq j \leq k-1$. Tomando $j = k-1$ y usando el hecho de que $T^{m} = 0$ para $m \geq k$ se obtiene que $$a_{0}l(T^{k-1}(v)) = 0.$$ Dado que $l(T^{k-1}(v)) \neq 0$, debemos tener que $a_{0} = 0$. Tomando $j = k-2$ obtenemos de forma similar que $a_{1}l(T^{k-1}(v)) = 0$ y por lo tanto $a_{1} = 0$. Procediendo inductivamente obtendremos que $a_{0} = \cdots = a_{k-1} = 0$ y así $w = 0$. Con esto hemos terminado de resolver el problema.

$\square$

Tarea moral

  1. Sean $T \colon V \to V$ transformaciones lineales en un espacio vectorial de dimensión finita tal que para todo $v \in V$ existe un entero positivo $k$ tal que $T^{k}(v) = 0$. Prueba que $T$ es nilpotente.
  2. Describe las posibles formas canónica de Jordan para una matriz nilpotente $A \in M_{4}(F)$.
  3. Encuentra, por similaridad, todas las matrices nilpotentes de $3 \times 3$ con entradas en los reales.

Más adelante…

Hasta ahora hemos visto cómo funciona Jordan para matrices nilpotentes pero nos gustaría conocer qué más puede pasar, si podemos llevar este tema a un terreno más general y eso es lo que haremos en las siguientes notas.

Entradas relacionadas

  • Ir a Álgebra Lineal II
  • Entrada anterior del curso: Introducción a la forma canónica de Jordan
  • Siguiente entrada del curso: Teorema de formas canónicas de Jordan

Álgebra Lineal II: Introducción a forma canónica de Jordan

Introducción

En esta sección usaremos resultados probados anteriormente para demostrar un resultado hermoso e importante: El teorema de Jordan. Después lo usaremos para clasificar matrices en $M_{n}(\mathbb{C})$ según a qué sean similares.

Trabajaremos sobre cualquier campo $F$ pero tú puedes asumir que $F = \mathbb{R}$ o $\mathbb{C}$ si quieres.

Hemos estudiado varias clases importantes de matrices: diagonales, triangulares superiores, simétricas, ortogonales, etc. Es momento de aprender sobre otro tipo fundamental de matrices y de transformaciones lineales:

Matrices nilpotentes

Definición:

  1. Sea $V$ un espacio vectorial sobre un espacio $F$ y sea $T \colon V \to V$ una transformación lineal. Decimos que $T$ es nilpotente si $T^{k} = 0$ para alguna $k \geq 1$, donde $T^{k} = T \circ T \circ \cdots \circ T$ ($k$ veces). El entero positivo más pequeño $k$ que cumple eso se llama el índice de $T$. Entonces, si $k$ es el índice de $T$, entonces $T^{k} = 0$ pero $T^{k-1} \neq 0$.
  2. Una matriz $A \in M_{n}(F)$ se llama nilpotente si $A^{k} = O_{n}$ para alguna $k \geq 1$. El entero positivo más pequeño $k$ que cumple eso se llama el índice de $A$.

Si $V$ es un espacio vectorial de dimensión finita sobre $F$, $\beta$ es una base de $V$ y $T \colon V \to V$ es una transformación lineal cuya matriz respecto a $\beta$ es $A \in M_{n}(F)$, entonces la matriz de $T^{k}$ con respecto a $\beta$ es $A^{k}$. Se sigue que $T$ es nilpotente si y sólo si $A$ es nilpotente, y en este caso el índice de $T$ es igual al índice de $A$.

En particular, cualquier matriz similar a una matriz nilpotente es nilpotente y tiene el mismo índice. Esto puede probarse rápidamente de la siguiente manera: si $A$ es nilpotente, $P$ es invertible y $B = PAP^{-1}$, procediendo inductivamente podemos ver que

$$B^{k} = PA^{k}P^{-1}$$

para todo $k \geq 1$, así, $B^{k} = O_{n}$ si y sólo si $A^{k} = O_{n}$, estableciendo el enunciado anterior.

Problemas

Problema 1: Sean $T_{1}$, $T_{2}$ dos transformaciones en un espacio vectorial $V$ y supongamos que $T_{1} \circ T_{2} = T_{2} \circ T_{2}$. Si $T_{1}$, $T_{2}$ son nilpotentes, entonces también lo son $T_{1} \circ T_{2}$ y $T_{1} + T_{2}$.

Solución. Supóngase sin pérdida de generalidad que $T^{k_{1}}_{1} = 0$ y $T^{k_{2}}_{2} = 0$ para algunos $k_1$, $k_2 \geq 1$. Entonces, si $k = k_{1} + k_{2}$ se tiene que $T^{k}_{1} = T^{k}_{2} = 0$. Dado que $T_1$ y $T_2$ conmutan, obtenemos que

$$(T_1 \circ T_2)^{k} = T^{k}_{1} \circ T^{k}_{2} = 0$$

y

$$(T_{1} + T_{2})^{2k} = \sum_{i = 0}^{2k} \begin{pmatrix}
2k \\
k
\end{pmatrix} T^{2k-i}_{1} T^{i}_{2}$$

Para cada $0 \leq i \leq k$ tenemos que $T^{2k-i}_{1} = 0$ y para cada $i \in [k + 1, 2k]$ tenemos $T^{i}_{2} = 0$. De donde $T^{2k-i}_{1}T^{i}_{2} = 0$ para todo $0 \leq i \leq 2k$ y así $(T_{1} + T_{2})^{2k} = 0$, es decir, $T_{1} + T_{2}$ es nilpotente.

$\square$

Observación:

  1. Análogamente (en realidad, en consecuencia del problema anterior), la suma o el producto de dos matrices nilpotentes que conmutan es una matriz nilpotente.
  2. El resultado del problema anterior deja de ser cierto si no asumimos que $T_{1}$ y $T_{2}$ conmutan: las matrices $\begin{pmatrix}0 & 1 \\ 0 & 0 \end{pmatrix}$ y $\begin{pmatrix}0 & 0 \\ 1 & 0 \end{pmatrix}$ son nilpotentes, pero su suma no es nilpotente; también las matrices $\begin{pmatrix}0 & 1 \\ 0 & 0 \end{pmatrix}$ y $\begin{pmatrix}1 & -1 \\ 1 & -1 \end{pmatrix}$ son nilpotentes, pero su producto no lo es.
  3. Se sigue del punto anterior que las matrices nilpotentes en $M_{n}(F)$ no forman un subespacio vectorial de $M_{n}(F)$. Un ejercicio desafiante para ti sería probar que el subespacio vectorial de $M_{n}(F)$ generado por las matrices nilpotentes es precisamente el conjunto de las matrices con traza 0.

El resultado que se establece en el siguiente problema es muy importante:

Problema 2:

  1. Sea $T \colon V \to V$ una transformación nilpotente de índice $k$ y sea $v \in V$ un vector tal que $T^{k-1}(v) \neq 0$. Prueba que la familia $(v , T(v), \ldots, T^{k-1}(v))$ es linealmente independiente en $V$.
  2. Deduce que si $V$ es de dimensión finita entonces el índice de cualquier transformación nilpotente en $V$ no excede a $\dim(V)$.
  3. Prueba que si $A \in M_{n}(F)$ es nilpotente, entonces su índice no excede $n$.

Solución.

  1. Supongamos que \begin{equation} \label{eq1} a_{0}v + a_{1}T(v) + \cdots + a_{k-1}T^{k-1}(v) = 0\end{equation} para algunos escalares $a_{0}, \ldots , a_{k-1}$. Aplicando $T^{k-1}$ a esta igualdad y considerando que $T^{j} = 0$ para $j \geq k$ se tiene que \begin{equation} \label{eq2} a_{0}T^{k-1}(v) + 0 + \cdots + 0 = 0\end{equation} y dado que $T^{k-1}(v) \neq 0$, obtenemos que $a_{0} = 0$. Aplicando ahora $T^{k-2}$ a la igualdad \eqref{eq1} se obtiene que $a_{1}T^{k-1}(v) = 0 y así $a_{1} = 0$. Procediendo inductivamente (se te invita cordialmente a hacer la inducción) se tiene que $a_{0} = \cdots = a_{k-1} = 0$.
  2. Supongamos que $T$ es nilpotente en $V$, y que tiene índice $k$. Parte del inciso anterior nos muestra que $V$ contiene una familia linealmente independiente con $k$ elementos, por lo que $\dim(V) \geq k$ y hemos terminado.
  3. Esto se sigue del inciso anterior aplicado a $V = F^{n}$ y la transformación lineal $T \colon V \to V$ tal que $X \mapsto AX$ (usando la Observación precedente al problema, la cual muestra que $A$ y $T$ tienen el mísmo índice).

Tarea moral

  1. Prueba que la única matriz nilpotente diagonalizable es la matriz nula.
  2. Prueba que todos los valores propios de una matriz nilpotente son cero.

Más adelante…

Usando los problemas anteriores, estamos listos para estudiar un tipo fundamental de matriz nilpotente: Bloques de Jordan.

Entradas relacionadas

Álgebra Superior II: Introducción a estructuras algebraicas

Introducción

Finalmente terminamos de construir a los números naturales, sus operaciones y su orden. El siguiente conjunto que nos interesa construir es $\mathbb{Z}$, el conjunto de los números enteros. Haremos esto en breve. Sin embargo, primero haremos un paréntesis para hablar de estructuras algebraicas.

Quizás hayas escuchado hablar de varias de ellas. En cálculo y geometría analítica se habla de los números reales y se comenta que es muy importante que sea un campo. En geometría moderna se habla de transformaciones geométricas y cómo algunas de ellas forman un grupo. También es común escuchar de los anillos de enteros o de polinomios (que estudiaremos más adelante). Y por supuesto, también están los espacios vectoriales, que están fuertemente conectados con resolver sistemas de ecuaciones lineales y hacer cálculo y geometría en altas dimensiones.

Todos estos conceptos (campos, grupos, anillos, espacios vectoriales, etc.) son ejemplos de estructuras algebraicas. Cada tipo de estructura algebraica es muy especial por sí misma y sus propiedades se estudian por separado en distintas materias, notablemente aquellas relacionadas con el álgebra moderna. La idea de esta entrada es dar una muy breve introducción al tema, para que te vayas acostumbrando al uso del lenguaje. Esto te servirá más adelante en tu formación matemática.

Intuición de estructuras algebraicas

De manera intuitiva, una estructura algebraica consiste de tomar un conjunto, algunas operaciones en ese conjunto, y ciertas propiedades que tienen que cumplir las operaciones. Eso suena mucho a lo que hemos trabajado con $\mathbb{N}$: es un conjunto, con las operaciones de suma y producto. Y ya demostramos que estas operaciones tienen propiedades especiales como la conmutatividad, la distributividad y la existencia de neutros.

En realidad podríamos tomar cualquier conjunto y cualquier operación y eso nos daría una cierta estructura.

Ejemplo. Consideremos el conjunto $\mathbb{N}$ con la operación binaria $\star$ tal que $$a\star b=ab+a+b.$$ Tendríamos entonces que $$3\star 1=3\cdot 1+3+1= 7,$$ y que $$10\star 10=10\cdot 10 + 10 + 10 = 120.$$

Es posible que la operación $\star$ tenga ciertas propiedades especiales, y entonces algunas proposiciones matemáticas interesantes consistirían en enunciar las propiedades de $\star$.

$\square$

Aunque tenemos mucha libertad en decidir cuál es el conjunto, cuáles son las operaciones que le ponemos y qué propiedades vamos a pedir, hay algunos ejemplos que se aparecen muy frecuentemente en las matemáticas. Aparecen de manera tan frecuente, que ameritan nombres especiales. Comencemos a formalizar esto.

Operaciones binarias y magmas

Dado un conjunto $S$, una operación binaria toma parejas de elementos de $S$ y los lleva a otro elemento de $S$. En símbolos, es una función $\star: S\times S\to S$. Cuando usamos la notación de función, tendríamos que escribir todo el tiempo $\times(a,b)$ para referirnos a lo que esta operación le hace a cada pareja de elementos $a$ y $b$ en $S$. Sin embargo, esto resulta poco práctico, y es por esta razón que se usa mucho más la notación $a\times b:=\times (a,b)$.

Ejemplo. En $\mathbb{N}$ ya definimos la operación binaria $+$, que toma dos enteros $a$ y $b$ y los manda a $s_a(b)$, donde $s_a:\mathbb{N}\to \mathbb{N}$ es la función que construimos usando el teorema de recursión estableciendo que $s_a(0)=a$ y $s_a(\sigma(n))=\sigma(s_a(n))$.

$\square$

Aquí lo único que nos importa es establecer una operación binaria. No nos importa si tiene otras propiedades adicionales.

Definición. Un magma consiste de un conjunto $S$ con una operación binaria $\ast$.

Otros ejemplos de magma son $\mathbb{N}$ con la operación que dimos en la parte de intuición, o bien $\mathbb{N}$ con el producto que ya definimos. También podemos tener magmas en conjuntos que no sea el de los enteros. Por ejemplo, si $P$ es el conjunto de subconjuntos de $\{0,1,2,3,4\}$, y le damos la operación que manda $A$ y $B$ a $A\cup B\cup \{0\}$, entonces también obtenemos un magma.

Conmutatividad

Cuando tenemos un conjunto $S$ y una operación binaria $\star$ en $S$, puede suceder que de lo mismo hacer $a\star b$ que $b\star a$. Esto ya es una propiedad especial que pueden cumplir las operaciones binarias, y tiene un nombre.

Definición. Decimos que una operación binaria $\star$ en un conjunto $S$ es conmutativa si para cualesquiera dos elementos $a$ y $b$ de $S$ se cumple que $a\star b=b\star a$.

Observa que la igualdad debe suceder para cualesquiera dos elementos. Basta con que falle para una pareja para que la operación ya no sea conmutativa.

Ejemplo. Una de las propiedades que demostramos de la operación de suma en $\mathbb{N}$ es que $s_a(b)=s_b(a)$, es decir, que $a+b=b+a$. En otras palabras, la operación binaria $+$ en $\mathbb{N}$ es conmutativa. Así mismo, vimos que el producto era conmutativo, es decir, que $p_a(b)=p_b(a)$, que en términos de la operación binaria $\cdot$ quiere decir que $a\cdot b=b\cdot a$.

$\square$

Más adelante veremos que otras funciones de suma y producto también son conmutativas, por ejemplo, las de los enteros, racionales, reales y complejos. Sin embargo, hay algunas operaciones binarias muy importantes en matemáticas que no son conmutativas. Un ejemplo de ello es el producto de matrices. Otro ejemplo es la diferencia de conjuntos.

Ejemplo. Si $P$ es el conjunto de subconjuntos de $\{0,1,2,3,4\}$ y le damos la operación binaria $\setminus$ tal que dados $A$ y $B$ en $P$ los manda a $A\setminus B$, entonces obtenemos un magma. Sin embargo, la operación $\setminus$ no es conmutativa pues, por ejemplo, $$\{1,2,3\}\setminus\{2,3,4\}=\{1\},$$ pero $$\{2,3,4\}\setminus\{1,2,3\}=\{4\}.$$

$\square$

En $\mathbb{N}$ no tenemos una operación de resta, como discutiremos en breve. Pero en el conjunto de los enteros sí, y ese sería otro ejemplo de una operación que no es conmutativa.

Asociatividad y semigrupos

Otra de las propiedades importantes que demostramos de la suma y producto de naturales es que son operaciones asociativas. En general, podemos definir la asociatividad para una operación binaria como sigue.

Definición. Sea $\star$ una operación binaria en un conjunto $S$. Decimos que $\star$ es asociativa si $a\star (b\star c)=(a\star b)\star c$ para cualesquiera tres elementos $a,b,c$ de $S$.

Tanto la suma como el producto de naturales dan una operación asociativa pues ya demostramos que si $a,b,c$ son naturales, entonces $a+(b+c)=(a+b)+c$ y $a(bc)=(ab)c$. Esta propiedad también la tendremos para la suma y producto de enteros, racionales, reales, complejos, polinomios, etc.

A partir de la asociatividad podemos definir la primer estructura algebraica que requiere un poco más de propiedades.

Definición. Un semigrupo es un conjunto $S$ con una operación asociativa $\star$.

Si además $\star$ es una operación conmutativa, entonces decimos que es un semigrupo conmutativo. En realidad, en cualquiera de las definiciones que daremos a continuación podemos agregar el adjetivo «conmutativo» y esto querrá decir que además de las propiedades requeridas, también se cumple que la operación es conmutativa.

En los semigrupos (y demás estructuras con asociatividad) tenemos la ventaja de que podemos «olvidarnos de los paréntesis» sin la preocupación de que haya ambigüedad. Por ejemplo, en los naturales la expresión $3+((2+4)+8)$ se puede escribir simplemente como $3+2+4+8$, pues cualquier otra forma de poner paréntesis, como $(3+2)+(4+8)$, debe dar exactamente el mismo resultado por asociatividad.

Ejemplo. Una operación que no es asociativa es la resta en los enteros. Aunque no hemos definido formalmente esta operación, es intuitivamente claro que $3-(2-1)$ no es lo mismo que $(3-2)-1$.

$\square$

Unidades y magmas unitales

A veces sucede que algunos elementos de un conjunto «no afectan a nadie» bajo una cierta operación binaria dada. Por ejemplo, en los naturales «sumar cero» no cambia a ningún entero.

Definición. Sea $\star$ una operación binaria en un conjunto $S$. Una unidad o neutro para $\star$ es un elemento $e$ en $S$ para el cual se cumple que para cualquier elemento $a$ de $S$ se tenga $a\star e = a$ y $e\star a = a$.

Observa que es muy importante pedir las dos igualdades de la definición. Si una se cumple, no necesariamente tiene que pasar la otra, pues no necesariamente la operación es conmutativa. Por supuesto, si ya se sabe que la operación es conmutativa, entonces basta con ver una de ellas.

En $\mathbb{Z}$ tenemos las operaciones de suma y producto. Para no confundir a sus neutros, a $0$ le llamamos el neutro aditivo para hacer énfasis que es el neutro de la suma. Y a $1$ le llamamos el neutro multiplicativo para hacer énfasis que es el neutro del producto. Entre las propiedades que probamos, en efecto vimos que $a+0=a=0+a$ y que $a\cdot 1 = a = 1\cdot a$ para cualquier entero $a$.

Definición. Un magma unital es un conjunto $S$ con una operación $\star$ que tiene un neutro.

El conjunto de naturales con la operación $\star$ que dimos en la sección de intuición también es un magma unital. ¿Puedes decir quién es su neutro?

Monoides

Se puede pedir más de una propiedad a una operación binaria y entonces obtenemos estructuras algebraicas más especiales.

Definición. Un monoide es un conjunto $S$ con una operación $\star$ que es asociativa y que tiene un neutro.

En otras palabras, un monoide es un magma unital con operación asociativa. O bien, un semigrupo cuya operación tiene unidad. Por supuesto, si la operación además es conmutativa entonces decimos que es un monoide conmutativo.

Ejemplo. Por todo lo que hemos visto en esta entrada, tenemos que $\mathbb{N}$ con la suma es un monoide conmutativo. Así mismo, $\mathbb{N}$ con el producto es un monoide conmutativo.

$\square$

Semianillos

La última idea importante para discutir en esta entrada es que una estructura algebraica puede tener más de una operación binaria, y además de pedir propiedades para cada operación, también se pueden pedir propiedades que satisfagan ambas operaciones en igualdades que las involucran a las dos.

Definición. Un seminanillo es un conjunto $S$ con dos operaciones binarias $\square$ y $\star$ que satisfacen las siguientes propiedades:

  • $\square$ es un monoide conmutativo
  • $\star$ es un monoide
  • Se cumple distributividad, es decir, que para cualesquiera tres elementos $a,b,c$ de $S$ se tiene $a\star(b\square c) = (a\star b)\square(a\star c)$ y $(a\square b)\star c = (a\star c)\square(b\star c)$
  • El neutro $e$ de $\square$ aniquila a los elementos bajo $\star$, es decir, para cualquier elemento $a$ de $S$ se tiene que $a\star 0=0$ y $0\star a = 0$

Un semianillo conmutativo es un semianillo en donde la operación $\star$ también es conmutativa. Las propiedades que hemos de los números naturales nos permiten enunciar el siguiente resultado.

Teorema. El conjunto $\mathbb{N}$ con las operaciones binarias de suma y producto es un semianillo conmutativo.

Tarea moral

  1. Encuentra el neutro de la operación $\star$ dada en la sección de intuición. Verifica que en efecto es un neutro.
  2. Demuestra que el conjunto de los naturales pares $\{0,2,4,6,\ldots\}$ sí tiene un neutro para la operación de suma, pero no para la operación de producto.
  3. Considera el conjunto $P(S)$ de subconjuntos de un conjunto $S$. Considera las operaciones binarias de unión e intersección de elementos de $P(S)$. Muestra que $P(S)$ con estas operaciones es un semianillo conmutativo.
  4. Da un ejemplo de un magma que no sea un magma unital. Da un ejemplo de un magma unital que no sea un monoide.
  5. Da o busca un ejemplo de un semianillo que no sea un semianillo conmutativo.

Más adelante…

Este sólo fue un pequeño paréntesis para comenzar a hablar de operaciones binarias y de estructuras algebraicas. Ahora regresaremos a seguir construyendo de manera formal los sistemas numéricos con los que se trabaja usualmente: los enteros, los racionales, los reales y los complejos.

Un poco más adelante haremos otro paréntesis de estructuras algebraicas, en el que hablaremos de otras propiedades más que puede tener una operación binaria. Una muy importante es la existencia de inversos para la operación binaria. Esto llevará a las definiciones de otras estructuras algebraicas como los grupos, los anillos, los semigrupos con inversos, los quasigrupos y los campos.

Entradas relacionadas