Archivo de la etiqueta: algebra

Álgebra Lineal II: Unicidad de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan y demostramos la existencia de dicha forma bajo ciertas hipótesis. Como corolario, quedó pensar cuál es la versión para matrices. En esta entrada enunciamos la versión para matrices (totalmente equivalente a la de transformaciones lineales) y nos enfocamos en mostrar la unicidad de la forma canónica de Jordan.

Unicidad de la forma canónica de Jordan

El siguiente teorema es totalmente análogo al enunciado en la entrada anterior. Recuerda que $\leq$ es un orden total fijo de $F$ (en $\mathbb{R}$, es el orden usual).

Teorema. Sea $A$ una matriz $M_n(F)$ cuyo polinomio característico $\chi_A(X)$ se divide en $F$. Entonces, existen únicos valores $\lambda_1\leq \ldots \leq \lambda_n$ en $F$ y únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} para los cuales $A$ es similar a la siguiente matriz de bloques de Jordan:

$$\begin{pmatrix} J_{\lambda_1,k_1} & 0 & \cdots & 0 \\ 0 & J_{\lambda_2,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{\lambda_d,k_d}\end{pmatrix}.$$

Usaremos esta versión para demostrar la unicidad, lo cual también implicará la unicidad para la versión de transformaciones lineales.

Mediante la demostración de existencia de la entrada anterior, llegamos a que si el polinomio característico de $A$ es

$$\chi_A(X)=(X-\lambda_1)^{m_1}(X-\lambda_2)^{m_2}\cdots(X-\lambda_r)^{m_r},$$

entonces $A$ es similar a una matriz conformada por matrices de bloques de Jordan $J_1,J_2,\ldots,J_r$, en donde cada $J_i$ es de tamaño $m_i$ y de bloques de Jordan de eigenvalor $\lambda_i$.

Si $A$ fuera similar a otra matriz $K$ de bloques de Jordan, podríamos agrupar por eigenvalores de los bloques $\kappa_1< \ldots < \kappa_s$ en matrices de bloques de Jordan tamaños $o_1,\ldots,o_s$, digamos $K_1,\ldots,K_s$. El polinomio característico de $K$ sería entonces

$$\chi_{K}(X)=(X-\kappa_1)^{o_1}(X-\kappa_2)^{o_2}\cdots(X-\kappa_s)^{o_s}.$$

Pero $K$ es similar a $A$, y entonces deben tener el mismo polinomio característico, así que conciden en raíces y multiplicidad. Esto demuestra que $r=s$ y como los $\lambda_i$ y los $\kappa_i$ están ordenados, también demuestra las igualdades $\lambda_i=\kappa_i$ y $m_i=o_i$ para todo $i\in\{1,\ldots,r\}.$

Sólo nos queda argumentar la igualdad entre cada $J_i$ y $K_i$ para $i\in\{1,\ldots,r\}$. Pero ambas una forma canónica de Jordan para la transformación nilpotente que se obtiene de restringir $T_{A-\lambda_i I}$ a $\ker(T_{A-\lambda_i I}^{m_i})$. Por la unicidad que demostramos para la forma canónica de Jordan para transformaciones nilpotentes, concluimos que $J_i=K_i$. Esto termina la demostración de la unicidad de la forma canónica de Jordan.

$\square$

Una receta para encontrar la forma canónica de Jordan

Ya con el teorema demostrado, ¿cómo juntamos todas las ideas para encontrar la forma canónica de Jordan de una matriz $A$ en $M_n(F)$ cuyo polinomio característico se divida en $F$? Podemos proceder como sigue.

  1. Encontramos el polinomio característico $\chi_A(X)$ y su factorización, digamos $$\chi_A(X)=(X-\lambda_1)^{m_1}(X-\lambda_2)^{m_2}\cdots(X-\lambda_r)^{m_r}.$$
  2. Nos enfocamos en encontrar las matrices de bloque de Jordan $J_i$ para cada eigenvalor $\lambda_i$. Sabemos que la matriz $J_i$ será de tamaño $m_i$.
  3. Para saber exactamente cuál matriz de bloques de Jordan es $J_i$, pensaremos en que tiene $b_1,b_2,\ldots,b_{m_i}$ bloques de Jordan de eigenvalor $\lambda_i$ de tamaños $1,2, \ldots,m_i$. Consideramos la matriz $A_i=A-\lambda_i I$. Los $b_1,\ldots,b_{m_i}$ son la solución al siguiente sistema de ecuaciones en las variables $x_1,\ldots,x_{m_i}$.
    \begin{align*}
    m_i&= 1\cdot x_1 + 2\cdot x_2 + 3 \cdot x_3 + \ldots + m_i \cdot x_{m_i}\\
    m_i-n+\text{rango}(A_i-\lambda_i I)&=0\cdot x_1 + 1\cdot x_2 + 2 \cdot x_3 + \ldots + (m_i-1) \cdot x_{m_i}\\
    m_i-n+\text{rango}({A_i-\lambda_i I}^2)&= 0 \cdot x_1 + 0 \cdot x_2 + 1 \cdot x_3 + \ldots + (m_i-2)\cdot x_{m_i}\\
    m_i-n+\text{rango}({A_i-\lambda_i I}^3)&= 0 \cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + (m_i-3)\cdot x_{m_i}\\
    &\vdots\\
    m_i-n+\text{rango}({A_i-\lambda_i I}^{m_i-1})&= 0\cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + 1 \cdot x_{m_i}.
    \end{align*}
  4. Juntamos todos los $J_i$ en una misma matriz y los ordenamos apropiadamente.

El paso número $3$ está motivado por lo que sabemos de las matrices nilpotentes, y es bueno que pienses por qué se estudia específicamente ese sistema de ecuaciones para cada eigenvalor $\lambda_i$ y multiplicidad $m_i$.

Ejemplo de obtener la forma canónica de Jordan

Veamos un ejemplo del procedimiento descrito en la sección anterior.

Ejemplo. Encontraremos la forma canónica de Jordan de la siguiente matriz: $$A=\begin{pmatrix}-226 & -10 & -246 & 39 & 246\\234 & 23 & 236 & -46 & -236\\-198 & -20 & -192 & 41 & 195\\-93 & 10 & -122 & 10 & 122\\-385 & -30 & -393 & 74 & 396\end{pmatrix}.$$

Con herramientas computacionales, podemos darnos cuenta de que el polinomio característico de esta matriz es $$\chi_A(X)=X^{5} – 11 X^{4} + 46 X^{3} – 90 X^{2} + 81 X- 27.$$

Este polinomio se puede factorizar como $$(X-1)^2(X-3)^3.$$ Así, la submatriz de bloques de Jordan $J_1$ de eigenvalor $1$ tendrá tamaño $2$ y la $J_3$ de eigenvalor $3$ tendrá tamaño $3$. Pero, ¿de qué tamaño son cada uno de los bloques de Jordan en cada una de estas matrices?

Para respondernos esto para $J_1$, notamos que sus bloques son de tamaño $1$ y $2$ solamente. Si hay $b_1$ bloques de tamaño $1$ y $b_2$ bloques de tamaño $2$, por la teoría desarrollada arriba tendremos:

\begin{align*}
b_1+2b_2&=2\\
b_2&=2-5+\text{rango}(A-I)=2-5+4=1.
\end{align*}

El rango de $A-I$ lo obtuvimos computacionalmente, pero recuerda que también puede ser obtenido con reducción gaussiana. Resolviendo el sistema, $b_2=1$ y entonces $b_1=0$. Concluimos que en $J_1$ hay un bloque de Jordan de tamaño $2$.

Para $J_3$, reciclemos las variables $b_i$ (para no introducir nuevas). Los bloques pueden ser de tamaño $1,2,3$. Supongamos que de estos tamaños respectivamente hay $b_1,b_2,b_3$ bloques. Los $b_i$ cumplen:

\begin{align*}
b_1+2b_2+3b_3&=3\\
b_2+2b_3&=3-5+\text{rango}(A-3I)=3-5+3=1\\
b_3&=3-5+\text{rango}((A-3I)^2)=3-5+2=0.
\end{align*}

Así, $b_3=0$, y en consecuencia $b_2=1$ y entonces $b_1=1$. Concluimos que $J_3$ tiene un bloque de tamaño $1$ y uno de tamaño $3$. Por lo tanto, la forma canónica de Jordan de $A$ es:

$$\begin{pmatrix} J_1 & 0 \\ 0 & J_3 \end{pmatrix} = \begin{pmatrix} J_{1,2} & 0 & 0 \\ 0 & J_{3,1} & 0 \\ 0 & 0 & J_{3,2} \end{pmatrix} = \begin{pmatrix}1 & 1 & 0 & 0 & 0\\0 & 1 & 0 & 0 & 0\\0 & 0 & 3 & 0 & 0\\0 & 0 & 0 & 3 & 1\\0 & 0 & 0 & 0 & 3\end{pmatrix}$$

$\triangle$

Otro problema sobre forma canónica de Jordan

La receta anterior funciona en general y da la forma canónica de Jordan. Esto es algo que probablemente en la práctica en aplicaciones no tendrás que hacer manualmente nunca, pues hay herramientas computacionales que te pueden ayudar. Sin embargo, es importante entender con profundidad el teorema y la receta de manera teórica, pues hay problemas conceptuales en los que no podrás usar herramientas computacionales. A continuación veremos un ejemplo.

Problema. Sea $A$ una matriz en $M_6(\mathbb{R})$ con polinomio característico $$\chi_A(X)=X^6-2X^4+X^2.$$

  • ¿Cuántas posibilidades hay para la forma canónica de Jordan de $A$?
  • Demuestra que si el rango de $A$ es $5$, entonces $A$ no es diagonalizable.

Solución. Podemos factorizar el polinomio característico de $A$ como sigue:

$$\chi_A(X)=X^2(X+1)^2(X-1)^2.$$

Así, la forma canónica de Jordan está conformada por una matriz de bloques de Jordan $J_0$ de eigenvalor $0$ y tamaño $2$; una $J_1$ de eigenvalor $1$ y tamaño $2$; y una $J_{-1}$ de eigenvalor $-1$ y tamaño $2$.

Cada $J_i$ tiene dos chances: o es un bloque de Jordan de tamaño $2$, o son dos bloques de Jordan de tamaño $1$. Así, en total tenemos $2\cdot 2 \cdot 2=8$ posibilidades.

Si $A$ es de rango $5$, entonces tendríamos en las cuentas de cantidad de bloques $b_1$ y $b_2$ para eigenvalor $0$ que

\begin{align*}
b_1+2b_2&=2\\
b_2&=2-6+\text{rango}(A)=2-6+5=1,
\end{align*}

de donde en $J_0$ tendría $1$ bloque de tamaño $2$ y ninguno de tamaño $1$. Si $A$ fuera diagonalizable, su diagonalización sería una forma canónica de Jordan donde para eigenvalor $0$ se tendrían $2$ bloques de tamaño $1$ y ninguno de tamaño $2$. Así, $A$ tendría dos formas canónicas de Jordan distintas, lo cual es imposible.

$\square$

Más adelante…

Con esta entrada terminamos de demostrar el teorema de la forma canónica de Jordan, uno de los teoremas más bonitos de álgebra lineal. ¿Te das cuenta de todo lo que utilizamos en su demostración? Forma matricial de transformaciones lineales, el teorema de Cayley-Hamilton, polinomio característico, subespacios estables, teoría de dualidad, sistemas de ecuaciones lineales, resultados auxiliares de polinomios, etc. Es un resultado verdaderamente integrador.

En la siguiente entrada, la última del curso, hablaremos de algunas de las consecuencias del teorema de la forma canónica de Jordan. Discutiremos cómo lo podemos utilizar para clasificar a las matrices por similaridad. Veremos una aplicación con respecto a una matriz y su transpuesta. También, esbozaremos un poco de por qué en cierto sentido el resultado no sólo vale para las matrices cuyo polinomio se divide sobre el campo, sino que para cualquier matriz. Con ello terminaremos el curso.

Tarea moral

  1. Calcula la forma canónica de Jordan $J$ de la matriz $$A=\begin{pmatrix} 1 & 0 & -3 \\ 1 & -1 & -6 \\ -1 & 2 & 5 \end{pmatrix}.$$ Además de encontrar $J$, encuentra de manera explícita una matriz invertible $P$ tal que $A=P^{-1}JP$.
  2. Calcula la forma canónica de Jordan de la matriz $$\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 2 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 2 \end{pmatrix}$$
  3. Explica y demuestra cómo obtener lo siguiente para una matriz de bloques de Jordan:
    • Su polinomio característico.
    • Su polinomio mínimo.
    • Su determinante.
    • Su traza.
    • Sus eigenespacios.
  4. Justifica con más detalle por qué la receta que se propone para calcular la forma canónica de Jordan en efecto funciona. Necesitarás varios de los argumentos que dimos en la entrada anterior.
  5. Demuestra que una matriz $A\in M_n(F)$ para la cual su polinomio característico se divide en $F$ es diagonalizable si y sólo si cada bloque de cada matriz de bloques de la forma canónica de Jordan tiene tamaño $1$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

1.3. ESPACIOS VECTORIALES: propiedades

Por Jennyfer Paulina Bennetts Castillo

Nota: Para simplificar notación (sobre todo en las demostraciones): $0_K$ será $0$; $\theta_V$ será $\theta$ y dependiendo de los elementos que se operen, serán las operaciones del campo o del espacio vectorial. Y en las justificaciones de pasos, tendremos que un número $m$ seguido $K$, hará referencia a la propiedad $m$ de la definición de campo y análogamente si el número $m$ es seguido por $V$ será la propiedad $m$ de la definición de espacio vectorial.

Recordemos que, por ahora, dado $u$ en un espacio vectorial, tenemos que $\tilde u$ denota a su inverso aditivo.

Proposición (1): Sean $K$ un campo y $V$ un $K$ – espacio vectorial.
1. $0_K \cdot_V u = \theta_V$ $\forall u \in V$
2. $\lambda \cdot_V \theta_V = \theta_V$ $\forall \lambda\in K$

Demostración: Sean $u \in V$, $\lambda\in K$.

1. Tenemos por distributividad en $V$ que $(0+0)u=0u+0u$.
Y además, por ser $0$ el neutro de $K$ y $\theta$ el neutro de $V$, $(0+0)u=0u=\theta+0u$.
Así, $0u+0u=\theta+0u$.
De donde, $\widetilde{0u}+(0u+0u)=(\theta+0u)+\widetilde{0u}$

$\begin{align*}
\Rightarrow &(\widetilde{0u}+0u)+0u=\theta+(0u+\widetilde{0u})\tag{asociat. $+_V$}\\
\Rightarrow &\theta+0u=\theta+\theta\tag{inv. ad. $V$}\\
\Rightarrow &0u=\theta\tag{neu. ad. $V$}\\
\end{align*}$

2. Tenemos por distributividad en $V$ que $\lambda(\theta+\theta)= \lambda\theta+\lambda\theta$.
Y además, por ser $\theta$ el neutro de $V$, $\lambda(\theta+\theta)=\lambda\theta$.
Así, $\lambda\theta+\lambda\theta=\lambda\theta$.
De donde, $\widetilde{\lambda\theta}+(\lambda\theta+\lambda\theta)=\lambda\theta\widetilde{\lambda\theta}$

$\begin{align*}
\Rightarrow &(\widetilde{\lambda\theta}+\lambda\theta)+\lambda\theta=\lambda\theta_V+\widetilde{\lambda\theta}\tag{asociat. $+_V$}\\
\Rightarrow &\theta+\lambda\theta=\theta\tag{inv. ad. $V$}\\
\Rightarrow &\lambda\theta=\theta\tag{neu. ad. $V$}\\
\end{align*}$

Proposición (2): Sean $K$ un campo y $V$ un $K$ – espacio vectorial.
Para todo $u \in V$, $(-1_K)\cdot_V u$ es el inverso aditivo de $u$.

Demostración: Sea $u\in V$.
Veamos que $u+(-1_K)u=\theta$

$\begin{align*}
u+(-1_K)u&=1_Ku+(-1_K)u\tag{propiedad 5. campo}\\
&=(1_K+(-1_K))u\tag{distrib. 7.1 $V$}\\
&=0u\tag{inv. ad. $K$}\\
&=\theta\tag{Prop. (1)}\\
\therefore u+(-1_K)u=\theta
\end{align*}$

Nota: Dada $u \in V$ denotaremos por $-u$ a su inverso aditivo.

Obs.* Existen resultados análogos para las dos proposiciones anteriores pero en el caso de los campos, y sus pruebas son también análogas.

Corolario: Sean $K$ un campo y $V$ un $K$ – espacio vectorial.
$(-\lambda)u=-(\lambda u)=\lambda(-u)$ $\forall \lambda \in K$ , $\forall u \in V$

Demostración: Sean $\lambda\in K, u\in V$.
Por un lado,
\begin{align*}
\lambda(-u)&=\lambda((-1_K)u)\tag{Prop. (2)}\\
&=(\lambda(-1_K))u\tag{propiedad 6. campo}\\
&=(-\lambda)u\tag{Obs.*}\\
\therefore\lambda(-u)=(-\lambda)u
\end{align*}
Por otro lado,
\begin{align*}
(-\lambda)u&=((-1_K)\lambda)u\tag{Obs.*}\\
&=(-1_K)(\lambda u)\tag{propiedad 6. campo}\\
&=-(\lambda u)\tag{Prop. (2)}\\
\therefore (-\lambda)u=-(\lambda u)
\end{align*}

Proposición (3): Sea $K$ un campo y $V$ un $K$ – espacio vectorial.
Si $\lambda\cdot_V u = \theta_V$, entonces se cumple al menos uno de los siguientes casos:
1. $\lambda = 0_K$
2. $u = \theta_V$

Demostración: Sup. que $\lambda u=\theta$.
Tenemos dos posibilidades:
i) $\lambda=0$
ii) $\lambda\not=0$

Si se cumple i), entonces ya tenemos el caso 1.

Sup. que se cumple ii). Veamos que $u=\theta$.
Como nuestra hipótesis es que $\lambda\not=0$ y $\lambda\in K$, con $K$ un campo, entonces $\exists(\lambda^{-1})\in K$ inverso multiplicativo de $\lambda$. Así,

$\begin{align*}
\lambda u=\theta\Rightarrow &(\lambda^{-1})(\lambda u)=(\lambda^{-1})\theta\\
\Rightarrow &((\lambda^{-1})\lambda)u=(\lambda^{-1})\theta\tag{propiedad 6. esp. vect.}\\
\Rightarrow &((\lambda^{-1})\lambda)u=\theta\tag{Prop. (1)}\\
\Rightarrow &1_Ku=\theta\tag{inv. mult. $K$}\\
\Rightarrow &u=\theta\tag{propiedad 5. campo}\\
\end{align*}$

Nota: En adelante, $K$ denotará un campo.

TAREA MORAL

Sea $K$ un campo. Sea $V$ un $K$ – espacio vectorial. Demuestra que para cualesquiera $u,v,w \in V$ se cumplen las siguientes propiedades de cancelación:

  1. Si $u+v=w+v$, entonces $u=w$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Primero sup. que $u+v=w+v$ y justifiquemos por qué tiene que suceder que $u=w$.
    • Podemos sumar a la derecha de cada lado de la igualdad el inverso de $v$.
    • Una vez hecho eso, utiliza la asociatividad de la suma en $V$, luego la definición del inverso de $v$ y por último la definición del neutro aditivo en $V$.
  1. Si $v+u=v+w$, entonces $u=w$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Primero sup. que $u+v=w+v$ y justifiquemos por qué tiene que suceder que $u=w$.
    • Piensa en qué propiedad de la $+$ en $V$ te permite tener una ecuación de la forma que se presenta en el $1$. Una vez teniendo esa forma, por lo que ya probaste, obtienes lo que se necesitaba.
      • Observa que haciendo un proceso totalmente análogo a este inciso, se obtiene que también se cumple la cancelación si es de la forma $u+v=v+w$, o bien, de la forma $v+u=w+v$.

MÁS ADELANTE…

Ahora vamos a usar el concepto de espacio vectorial para obtener otro concepto: subespacio.

Entradas relacionadas

1.2. ESPACIOS VECTORIALES: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

A partir del interés de establecer métodos para resolver ecuaciones de tercer grado por medio de radicales, los matemáticos se encuentran con las raíces negativas e imaginarias. El concepto de número imaginario logra superponerse al paradigma y encuentra su lugar a través de su representación geométrica.

El físico William Rowan Hamilton se interesó por establecer propiedades de las operaciones entre números complejos y sostuvo que el álgebra tenía una relación muy estrecha con la física. Motivado con esta idea, establece conjuntos de números dotados de una estructura algebraica con una representación espacial muy útil para los trabajos en física. Sus propiedades resultan similares a las que actualmente se tienen para el producto escalar y vectorial.

Los cuaterniones de Hamilton son números de la forma: $P=a+bi+cj+dk$.
Donde $a,b,c,d\in\mathbb{R}$ y $k=ij=-ji$ es una unidad imaginaria.

En el álgebra lineal el concepto de «vector» adquiere su significado más general.

ESPACIO VECTORIAL

Definición: Sean $V$ un conjunto y sea $K$ un campo (con las operaciones $+_K$ y $\cdot_K$). Sean $+_V: V \times V \longrightarrow V$ y $\cdot_V: K \times V \longrightarrow V$ operaciones. Decimos que $V,+_V,\cdot_V$ es un espacio vectorial sobre el campo $K$, o bien un $K$ – espacio vectorial (y a los elementos de $K$ les llamamos vectores), si $+_V$ y $\cdot_V$ cumplen lo siguiente:

  1. $+_V$ es asociativa
    $\forall u,v,w \in V:$
    $(\,u+_V(v+_V w)=(u+_V v)+_V w\,)$
  2. $+_V$ es conmutativa
    $\forall u,v \in V:$
    $(\,u+_V v=v+_V u\,)$
  3. Existe neutro aditivo
    $\exists \theta_V \in V:$
    $\forall u \in V (\,\theta_V +_V u = u +_V \theta_V = u\,)$
  4. Todo elemento $u \in V$ tiene inverso aditivo
    $\forall u \in V:$
    $\exists \tilde {u} \in V (\,u+_V \tilde {u} = \tilde {u} +_V u = \theta_V\,)$
  1. $\forall u \in V:$
    $1_K \cdot_V u = u$
  2. $\forall \lambda,\mu \in K \forall u \in V:$
    $\lambda\cdot_K(\mu\cdot_K u)=(\lambda\cdot_K\mu)\cdot_V u$
  3. $\cdot_V$ es distributiva
    7.1 $\forall \lambda,\mu \in K \forall u \in V:$
    $(\lambda+_K\mu)\cdot_V u = (\lambda\cdot_V u)+(\mu\cdot_V u)$
    7.2 $\forall \lambda \in K \forall u,v \in K:$
    $\lambda\cdot_V(u+v)=\lambda\cdot_V u+\lambda\cdot_V v$

Nota: Es común encontrar la expresión «$V$ es un $K$ – espacio vectorial con las operaciones $+, \cdot$» en lugar de «$V,+,\cdot$ es un $K$ – espacio vectorial», al igual que «$V$ es un $K$ – espacio vectorial» sin la referencia a las operaciones cuando se trata de las usuales (se suponen por obviedad).

Nota: Para evitar confusiones, en caso de ser necesario, denotaremos por $u+_V v$ a la suma de los vectores $u$ y $v$, y por $\lambda\cdot_V v$ al producto del escalar $\lambda$ por el vector $v$, pero una vez que nos habituemos a ellas las denotaremos simplemente por $u+v$ y $\lambda v$.

Ejemplos:

  • $\mathbb{R}^n$ es un $\mathbb{R}$ – espacio vectorial con la suma y el producto por escalar usuales.
  • $<(1,1,1)> = \{\lambda(1,1,1):\lambda \in \mathbb{R} \}$ es un $\mathbb{R}^n$ – espacio vectorial.
  • Sea $K$ campo. $\mathcal{M}_{m\times n}(K)$ (las matrices con $m$ renglones y $n$ columnas, con entradas en $K$) es un $K$ – espacio vectorial con las operaciones usuales de suma y producto por escalar.
  • Sea $K$ campo. $K[x]$ (los polinomios en $x$ con coeficientes en $K$) es un $K$ – espacio vectorial con la suma y el producto por escalar usuales.
  • Sea $K$ campo. $K^{n} = \{(x_{1}, x_{2},…,x_{n}) : x_{1},x_{2},…,x_{n} \in K \}$ es un $K$ – espacio vectorial con la suma entrada a entrada y el producto definido como sigue:
    Sean $(x_{1},x_{2},…,x_{n}) \in K^{n}$, $\lambda \in K$. $\lambda \cdot (x_{1},x_{2},…,x_{n})=(\lambda x_{1}, \lambda x_{2},…,\lambda x_{n})$
  • Sea $K$ campo. $K^{\infty} = \{(x_{1}, x_{2},…) : x_{1},x_{2},… \in K \}$ es un $K$ – espacio vectorial con la suma entrada a entrada y el producto definido como sigue:
    Sean $(x_{1},x_{2},…) \in K^{n}$, $\lambda \in K$. $\lambda \cdot (x_{1},x_{2},…)=(\lambda x_{1}, \lambda x_{2},…)$

EJEMPLO FUNCIONES

Sea $K$ campo. $V=\{f|f:K \longrightarrow K\}$ es un $K$ – espacio vectorial con las operaciones $+_V$ y $\cdot_V$ definidas como sigue:

Sean $f,g \in V$, $\lambda \in K$.
$f +_V g : K \longrightarrow K$
$(f +_V g )(x) = f(x) +_K g(x)$ para todo $x\in K$ donde $+_K$ es la suma en $K$.

Sean $f \in V$, $\lambda \in K$.
$\lambda \cdot_V f : K \longrightarrow K$
$(\lambda \cdot_V f )(x) =\lambda \cdot_K f(x)$ para todo $x\in K$
donde $\cdot_K$ es el producto en $K$.

DEMOSTRACIÓN

Vamos a ver que las operaciones $+_V$, $\cdot_V$ cumplen las ocho condiciones suficientes y necesarias (por definición) para que $V$ sea espacio vectorial:

Sean $f,g,h \in V$, $\lambda, \mu \in K$.
Sea $x \in K$ arbitrario.

  1. P.D. $+_V$ es asociativa
    $i. e.$ $(f +_V g) +_V h = f +_V (g +_V h)$

Obs. 1 Tenemos que $f +_V g, g +_V h \in V$. Así, $(f +_V g) +_V h, f +_V (g +_V h) \in V$. Así que sólo falta ver que $(f +_V g) +_V h$ y $f +_V (g +_V h)$ tienen la misma regla de correspondencia.

$\begin{align*}
((f +_V g) +_V h)(x) &= (f +_V g)(x) +_K h(x)\tag{def. $+_V$}\\
&= (f(x) +_K g(x)) +_K h(x)\tag{def. $+_V$}\\
&= f(x) +_K (g(x) +_K h(x))\tag{asociat. $+_K$}\\
&= f(x) +_K (g +_V h)(x)\tag{def. $+_V$}\\
&= (f +_V (g +_V h))(x)\tag{def. $+_V$}\\
\therefore (f +_V g) +_V h &= f +_V (g +_V h)
\end{align*}$

  1. P.D. $+_V$ es conmutativa
    $i.e.$ $f +_V g = g +_V f$

Obs. 2 Tenemos que $f +_V g, g +_V f \in V$. Así que sólo falta ver que $f +_V g$ y $g +_V f$ tienen la misma regla de correspondencia.

$\begin{align*}
(f +_V g)(x) &= f(x) +_K g(x)\tag{def. $+_V$}\\
&= g(x) +_K f(x)\tag{conmutat. $+_K$}\\
&= (g +_V f)(x)\tag{def. $+_V$}\\
\therefore f +_V g &= g +_V f
\end{align*}$

  1. P.D. Existe neutro aditivo
    $i.e.$ $\exists \theta_V \in V:$
    $\theta_V +_V f = f +_V \theta_V = f$

Proponemos:
$\theta_V : K \longrightarrow K$ con
$\theta_V(x) = 0_K$ para todo $x\in K$
donde $0_K$ es neutro aditivo de $K$.

Obs. 3 Por construcción $\theta_V \in V$. Así, $f +_V \theta_V, \theta_V +_V f \in V$. Además, por $2$, se cumple que $\forall f \in V (\theta_V +_V f = f +_V \theta_V)$. Entonces sólo falta ver que $f +_V \theta_V$ y $f$ tienen la misma regla de correspondencia.

$\begin{align*}
(f +_V \theta_V)(x) &= f(x) +_K \theta_V(x)\tag{def. $+_V$}\\
&= f(x) +_K 0_K\tag{def. $\theta_V$}\\
&= f(x)\tag{neutro ad.}\\
\therefore \theta_V +_V f = f +_V \theta_V
\end{align*}$

  1. P.D. Todo elemento $f \in V$ tiene inverso aditivo
    $i.e.$ $\exists \tilde{f} \in V:$
    $f+ \tilde{f} = \tilde{f} + f = \theta_V$

Proponemos:
$\tilde{f} : K \longrightarrow K$ con
$\tilde{f}(x)=(-f(x))$ para todo $x\in K$
donde $(-f(x))$ es el inverso aditivo de $f(x) \in K$.

Obs. 4 Por construcción $\tilde{f} \in V$. Así, $f +_V \tilde{f}, \tilde{f} +_V f \in V$. Además, por $2$, se cumple que $\forall f \in V (f +_V \tilde{f} = \tilde{f} +_V f \in V)$. Entonces sólo falta ver que $f +_V \tilde{f}$ y $\theta_V$ tienen la misma regla de correspondencia.

$\begin{align*}
(f +_V \tilde{f})(x) &= f(x) +_K \tilde{f}(x)\tag{def. $+_V$}\\
&= f(x) +_K (-f(x)) \tag{def. $\tilde{f}$}\\
&= 0_K\tag{inv. ad.}\\
&= \theta_V (x)\tag{def. $\theta_V$}\\
\therefore f +_V \tilde{f} = \tilde{f} +_V f = \theta_V
\end{align*}$

  1. P.D. $1_K \cdot_V f = f$

Sea $1_K$ el neutro multiplicativo en $K$.

Obs. 5 Por construcción $1_K \in K$. Así, $1_K \cdot_V f \in V$. Así que sólo falta ver que $1_K \cdot_V f$ y $f$ tienen la misma regla de correspondencia.

$\begin{align*}
(1_K \cdot_V f)(x) &= 1_K \cdot_K f(x)\tag{def. $\cdot_V$}\\
&= f(x)\tag{neut. mult.}\\
\therefore 1_V \cdot_V f = f
\end{align*}$

  1. P.D. $\lambda\cdot_V(\mu\cdot_V f)=(\lambda\cdot_K\mu)\cdot_V f$

Obs. 6 Por construcción $\mu\cdot_V f \in V$. Así, $\lambda\cdot_V(\mu\cdot_V f) \in V$. También tenemos que $\lambda\cdot_K\mu\in K,$ por lo cual $(\lambda\cdot_K\mu)\cdot_V f\in V$ Entonces sólo falta ver que $\lambda\cdot_V(\mu\cdot_V f)$ y $(\lambda\cdot_K\mu)\cdot_V f$ tienen la misma regla de correspondencia.

$\begin{align*}
(\lambda\cdot_V(\mu\cdot_V f))(x) &= \lambda \cdot_K (\mu\cdot_V f)(x)\tag{def. $\cdot_V$}\\
&= \lambda\cdot_K(\mu\cdot_K f(x))\tag{def. $\cdot_V$}\\
&= (\lambda\cdot_K\mu)\cdot_K f(x)\tag{asociat. $\cdot_K$}\\
&= ((\lambda\cdot_K\mu)\cdot_V f)(x)\tag{def. $\cdot_V$}\\
\therefore \lambda\cdot_V(\mu\cdot_V f)=(\lambda\cdot_K\mu)\cdot_V f
\end{align*}$

  1. P.D. Se cumple la distributividad (7.1)
    $i.e.$ $(\lambda +_K \mu)\cdot_V f=(\lambda\cdot_V f) +_V (\mu\cdot_V f)$

Obs. 7 Tenemos que $\lambda,\mu,\lambda +_K \mu \in K$. Así, $(\lambda +_K \mu)\cdot_V f, (\lambda\cdot_V f) +_V (\mu\cdot_V f) \in V$. Así que solo falta ver que $(\lambda +_K \mu)\cdot_V f$ y $(\lambda\cdot_V f) +_V (\mu\cdot_V f)$ tienen la misma regla de correspondencia.

$\begin{align*}
((\lambda +_K \mu)\cdot_V f)(x) &= (\lambda +_K \mu)\cdot_K f(x)\tag{def. $+_V$}\\
&= (\lambda\cdot_K f(x)) +_K (\mu\cdot_K f(x))\tag{distrib.}\\
&= ((\lambda\cdot_V f)(x)) +_K ((\mu\cdot_V f)(x))\tag{def. $\cdot_V$}\\
&= ((\lambda\cdot_V f) +_V (\mu\cdot_V f))(x))\tag{def. $\cdot_V$}\\
\therefore (\lambda +_K \mu)\cdot_V f=(\lambda\cdot_V f) +_V (\mu\cdot_V f)
\end{align*}$

  1. P.D. Se cumple la distributividad (7.2)
    $i.e.$ $\lambda \cdot_V (f +_V g)= (\lambda \cdot_V f) +_V(\lambda \cdot_V g)$

Obs. 8 Tenemos que $\lambda \cdot_V (f +_V g), \lambda \cdot_V f, \lambda \cdot_V g \in V$. Así, $(\lambda \cdot_V f) +_V(\lambda \cdot_V g) \in V$. Entonces sólo falta ver que $\lambda \cdot_V (f +_V g)$ y $(\lambda \cdot_V f) +_V(\lambda \cdot_V g)$ tienen la misma regla de correspondencia.

$\begin{align*}
(\lambda \cdot_V (f +_V g))(x) &= \lambda \cdot_K (f +_V g)(x)\tag{def. $\cdot_V$}\\
&= \lambda \cdot_K (f(x) +_K g(x))\tag{def. $+_V$}\\
&= (\lambda \cdot_K f(x)) +_K (\lambda \cdot_K g(x))\tag{distrib.}\\
&= ((\lambda \cdot_V f)(x)) +_K ((\lambda \cdot_V g)(x))\tag{def. $\cdot_V$}\\
&= ((\lambda \cdot_V f) +_V (\lambda \cdot_V g))(x)\tag{def. $+_V$}\\
\therefore \lambda \cdot_V (f +_V g)= (\lambda \cdot_V f) +_V(\lambda \cdot_V g)
\end{align*}$

Por lo tanto $V=\{f|f:K \longrightarrow K\}$ es un $K$ – espacio vectorial con las operaciones $+_V$ y $\cdot_V$ trabajadas.

TAREA MORAL

  1. Encuentra un $K$ campo dentro de los ejemplos de la entrada anterior con el cual $\mathcal{M}_{m\times n}(K)$ sea un $K$ – espacio vectorial con una cantidad finita de elementos. Si $K$ no es concreto, exhibe un caso particular de ese campo y una vez que lo hagas, muestra todos los elementos del espacio vectorial obtenido.
  1. Demuestra que el neutro aditivo de $V$, un $K$ – espacio vectorial, es único.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sabemos por la definición de espacio vectorial, que existe $\theta_V$ neutro.
    • Primero sup. que existe ${\theta_V}’ \in V$ que también lo es. Con el objetivo de demostrar que $\theta_V = {\theta_V}’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $\theta_V = \theta_V +_V {\theta_V}’ = {\theta_V}’$
  1. Demuestra que los inversos aditivos en $V$ son únicos.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sea $u \in V$. Sabemos por la definición de campo, que existe $\tilde{u} \in V$ inverso aditivo de $u$.
    • Primero sup. que existe $\tilde{u}’ \in V$ que también lo es. Con el objetivo de demostrar que $\tilde{u} = \tilde{u}’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $\tilde{u} = \tilde{u} +_V \theta_V = \tilde{u} + (u + \tilde{u}’) = (\tilde{u} + u) + \tilde{u}’$
    • Completa la demostración con las igualdades necesarias y justifícalas.

MÁS ADELANTE…

Ahora analizaremos algunas propiedades de los espacios vectoriales, una de ellas nos dice quién es el elemento neutro dado el espacio vectorial. Además de dos identidades del elemento neutro.

Entradas relacionadas

1.1. CAMPO Y SUBCAMPO: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

El ser humano ha hecho un fascinante trabajo construyendo modelos para facilitar la resolución de problemas concretos. Muchos de estos problemas tienen un carácter lineal, es decir, pueden plantearse mediante ecuaciones lineales con coeficientes en algún «conjunto especial» de números y con unas cuantas variables.

El Papiro Rhind considera ecuaciones de primer grado y es el documento matemático más antiguo hallado.

Así es, nos facilitamos la vida reduciendo casi todo a «talachita»: operaciones. Y como buena rama de las matemáticas, esto de «operar» vamos a abstraerlo. Ya no sólo se tratará de números, si no de conjuntos (de «lo que sea») y operaciones («las que sean») que cumplan ciertas condiciones.

CAMPO

Definición: Sea $K$ un conjunto con dos operaciones binarias $+: K \times K \longrightarrow K$ y $\cdot: K \times K \longrightarrow K$. Decimos que $K$ es un campo (y a sus elementos los llamamos escalares) si se cumplen las siguientes propiedades:

  • $+$ es asociativa
    $\forall \alpha ,\beta ,\gamma \in K:$
    $\alpha+(\beta+\gamma)=(\alpha+\beta)+\gamma$
  • $+$ es conmutativa
    $\forall \alpha,\beta \in K:$
    $\alpha+\beta=\beta+\alpha$
  • Existe un neutro aditivo
    $\exists 0_K \in K:$
    $\forall \alpha \in K (0_K + \alpha = \alpha + 0_K = \alpha)$
  • Todo elemento $\alpha \in K$ tiene un inverso aditivo
    $\forall \alpha \in K:$
    $\exists (-\alpha) \in K (\alpha+ (-\alpha) = (-\alpha)+\alpha = 0_K)$
  • $\cdot$ distribuye a $+$
    $\forall \alpha,\beta,\gamma \in K:$
    $\alpha\cdot(\beta + \gamma)=\alpha\cdot\beta + \alpha\cdot\gamma$
  • $\cdot$ es asociativa
    $\forall \alpha,\beta,\gamma \in K:$
    $\alpha\cdot(\beta\cdot\gamma)=(\alpha\cdot\beta)\cdot\gamma$
  • $\cdot$ es conmutativa
    $\forall \alpha,\beta \in K:$
    $\alpha\cdot\beta=\beta\cdot\alpha$
  • Existe un neutro multiplicativo
    $\exists 1_K \not= 0_K \in K:$
    $\forall \alpha \in K (1_K \cdot \alpha = \alpha \cdot 1_K = \alpha)$
  • Todo elemento $\alpha \not= 0_K \in K$ tiene un inverso multiplicativo
    $\forall \alpha \not= 0_K \in K:$
    $\exists \alpha^{-1} \in K (\alpha \cdot \alpha^{-1} = \alpha^{-1} \cdot \alpha = 1_K)$

Nota: En un campo vectorial: los neutros (aditivo y multiplicativo) y los inversos (aditivos y multiplicativos) son únicos. Por ello, desde la definición se han denotado de esa manera. Como parte de la tarea moral al final de esta entrada encontrarás ideas para realizar las demostraciones de estas unicidades.

Nota: Para simplificar notación, el producto $\alpha\cdot\beta$ se suele denotar como $\alpha\beta$.

Nota: Si es necesario aclarar que las operaciones con las que se está trabajando están definidas en el campo $K$, se suelen denotar como $+_K$ y $\cdot_K$.

Ejemplos:

  • $\mathbb{R} , \mathbb{Q} , \mathbb{C}$
    con la suma y producto usual respectivamente
  • $\{y+y\sqrt{2} : x,y \in \mathbb{Q}\}$
    con la suma y el producto usual
  • $\mathbb{Z}_p = \{\overline {0},\overline {1},…,\overline {p-1}\}$
    donde $p$ es primo y $\forall \overline {x}, \overline {y} \in \mathbb{Z}_p$ las operaciones son
    $\overline {x} + \overline {y} = \overline {x+y}$
    $\overline {x} \cdot \overline{y} = \overline {x \cdot y}$
    con $x+y$ la suma usual en $\mathbb{Z}$, $x \cdot y$ el producto usual en $\mathbb{Z}$

¿Cómo funciona $\mathbb{Z}_n$ con $n \in \mathbb{N}$?

$\mathbb{Z}_n$ con $n\in\mathbb{N}^+$ es el conjunto llamado enteros módulo $n$ cuyos $n$ elementos son de la forma $\overline {k}$ $= \{a \in \mathbb{Z} | a \equiv k (mód\, n) \} = \{a \in \mathbb{Z} | a – k = mn, m \in \mathbb{Z} \}$. Es decir, la clase de $k$, con $k \in \mathbb{Z}$ es el conjunto de los números enteros $a$ tales que $a-k$ es múltiplo de $n$.

Obs *. $\overline {k} = \overline {l}$ para toda $l \equiv k$ $(mód\, n)$ pues los elementos de $\overline {k}$ son aquellos congruentes entre sí, módulo $n$.

Ejemplo concreto: $\mathbb{Z}_3$

Tenemos que $\mathbb{Z}_3 = \{ \overline {0}, \overline {1}, \overline {2} \} = \{ \{…, -9, -6, -3, 0, 3, 6, 9, … \}, $$\{…, -8, -5, -2, 1, 4, 7, 10, …\}, $$\{…, -7, -4, -1, 2, 5, 8, 11, … \} \}$

Comprobemos que $\mathbb{Z}_3$ es un campo con las operaciones definidas anteriormente.

Tabla de Cayley de $\mathbb{Z}_3$:

$+$$\overline {0}$$\overline {1}$$\overline {2}$
$\overline {0}$$\overline {0+0} = \overline {0}$$\overline {0+1} = \overline {1}$$\overline {0+2} = \overline {2}$
$\overline {1}$$\overline {1+0} = \overline {1}$$\overline {1+1} = \overline {2}$ $\overline {1+2} = \overline {3} = \overline {0}$
$\overline {2}$$\overline {2+0} = \overline {2}$$\overline {2+1} = \overline {3} = \overline {0}$$\overline {2+2} = \overline {4} = \overline {1}$
$\cdot$$\overline {0}$$\overline {1}$$\overline {2}$
$\overline {0}$$\overline {0 \cdot 0} = \overline {0}$$\overline {0 \cdot 1} = \overline {0}$$\overline {0 \cdot 2} = \overline {0}$
$\overline {1}$$\overline {1 \cdot 0} = \overline {0}$$\overline {1 \cdot 1} = \overline {1}$ $\overline {1 \cdot 2} = \overline {2} = \overline {2}$
$\overline {2}$$\overline {2 \cdot 0} = \overline {0}$$\overline {2 \cdot 1} = \overline {2}$$\overline {2 \cdot 2} = \overline {4} = \overline {1}$

Así, es fácil ver que:

  • $+$ y $\cdot$ son asociativas y conmutativas.
  • El único neutro aditivo es $\overline {0}$.
  • El único neutro multiplicativo es $\overline {1}$.
  • Dado $\overline {k} \in \mathbb{Z}_3$ su único inverso aditivo es $\overline {-k}$.
  • Dado $\overline {k} \not= \overline {0} \in \mathbb{Z}_3$ su único inverso multiplicativo es $\overline {k}$

Existencia y exhibición de inversos multiplicativos en $\mathbb{Z}_p$

Ahora veamos un resultado que será muy útil para entender por qué $\mathbb{Z}_n$ con $n \in \mathbb{N}^+$ es un campo si y sólo si $n$ es un primo y para saber cómo obtener el inverso multiplicativo de un elemento dado.

Sea $K=\mathbb{Z}_n$.
Sea $\overline{k}\not= 0_K\in K$. Con el fin de simplificar la demostración, tomaremos $k\in\{0,1,…,n-1\}$ recordando que, de este modo, estamos considerando cualquier posible elemento de $\mathbb{Z}_n$.
$\overline{k}$ tiene inverso $\overline{j}\in K$ si y sólo si

$\begin{align*}
&\overline{k}\cdot\overline{j}=\overline{1}\\
\Leftrightarrow &\overline{k\cdot j}=\overline{1}\tag{def. $\cdot_K$}\\
\Leftrightarrow &k\cdot j\,\equiv 1 (mód\, n)\tag{Obs *}\\
\Leftrightarrow &k\cdot j \,-\, 1 = qn, q \in \mathbb{Z}\tag{def. $a \equiv b (mód\, n)$}\\
\Leftrightarrow &k \cdot j + (-q) \cdot n = 1, (-q) \in \mathbb{Z}\\
\Leftrightarrow &(k,n)\text{ divide a } 1\tag{Prop.del máximo común divisor}\\
\therefore (k,n) = 1
\end{align*}$

Para que $K = \mathbb{Z}_n$ sea un campo, necesitamos que cada $\overline {k} \not= 0_K \in K$ tenga inverso multiplicativo. Por lo tanto se debe cumplir que $(k,n) = 1$ para toda $k \in \{ 0, 1, …, n-1 \}$. Notamos que si $n$ no fuera primo, entonces $n = ab$ con $2 \le a,b \le n-1$. De modo que existe $a \in \{ 1, …, n-1 \}$ tal que $(a,n) = a \not= 1$ y entonces en este caso $K = \mathbb{Z}_n$ no es un campo. A la inversa, si $K = \mathbb{Z}_p$ con $p$ un primo, entonces para cada $a \in \{1, …, n-1 \}$ tenemos que $(a,p)=1$, y por lo anterior $\overline {a}$ tiene un inverso multiplicativo. Así, $K = \mathbb{Z}_p$ es un campo.

Además, dado $\overline {k} \not= \overline {0} \in \mathbb{Z}_p$ con $p$ primo, sabemos, por ser $\mathbb{Z}_p$ un campo, que existe su inverso multiplicativo $\overline {j} \in \mathbb{Z}_p$ y se cumple que $(k,n) = 1$. Para encontrar el inverso multiplicativo de $\overline {k}$ bastaría encontrar $l,m \in \mathbb{Z}$ tales que $k \cdot l + m \cdot n = 1$, para lo cual podemos usar el algorimo de Euclides, y así obtendremos que si tomamos $j=l$, entonces $\overline {j}$ es el elemento que queríamos.

SUBCAMPO

Definición: Sean $K$ un campo y $\tilde {K} \subseteq K$. Decimos que $\tilde {K}$ es un subcampo de $K$ si $\tilde {K}$ con las operaciones restringidas de $K$ es por sí mismo un campo.

Ejemplos:

  • $\mathbb{Q}$ es un subcampo de $\mathbb{R}$
  • $\mathbb{R}$ es un subcampo de $\mathbb{C}$

Propiedad

  • Si $K$ es un campo, entonces cualquiera de sus elementos $\alpha$ cumple que
    $\alpha \cdot 0_K = 0_K$.

Demostración: Sea $\alpha \in K$.
Sea $(-\alpha) \in K$ su inverso aditivo.
Como $0_K$ es el neutro aditivo, $0_K + 0_K = 0_K$.
De donde,

$\begin{align*}
&\alpha \cdot (0_K + 0_K) = \alpha \cdot 0_K\\
\Rightarrow &\alpha \cdot 0_K + \alpha \cdot 0_K = \alpha \cdot 0_K\tag{distrib.}\\
\Rightarrow &(\alpha \cdot 0_K + \alpha \cdot 0_K) + (-(\alpha \cdot 0_K)) = \alpha \cdot 0_K + (-(\alpha \cdot 0_K))\tag{inv. ad.}\\
\Rightarrow &\alpha \cdot 0_K + (\alpha \cdot 0_K +( -(\alpha \cdot 0_K))) = \alpha \cdot 0_K + (-(\alpha \cdot 0_K))\tag{asociat.}\\
\Rightarrow &\alpha \cdot 0_K + 0_K = 0_K\tag{inv. ad.}\\
\Rightarrow &\alpha \cdot 0_K = 0_K\tag{neutro ad.}\\
\end{align*}$

Nota: Es por esta afirmación que se definen los inversos multiplicativos para los elementos distintos de $0_K$.

Característica de un campo

Definición: Sea $K$ un campo. Se le llama característica de $K$, y se denota como $car(K)$ al menor número natural $n$ tal que $\underbrace{1_K + … + 1_K}_{n} = 0_K$ si acaso existe.
En caso contrario, decimos que $car(K)$ es cero.

Obs. La característica de un campo no puede ser 1 (es decir, si no es cero, entonces es mayor o igual a 2) pues por definición $1_K \not= 0_K$. Y más que eso, resulta que si no es cero, entonces es un número primo.

Ejemplos:

  • $car(\mathbb{Z}_p) = p$
    donde $p$ es primo.

Justificación:
Sea $K = \mathbb{Z}_p = \{\overline {0},\overline {1},…,\overline {p-1}\}$ con cada uno de esos elementos distintos entre sí.
De modo que $p$ es el mínimo natural tal que $\underbrace{1_K + … + 1_K}_{p} = \underbrace{\overline{1} + … + \overline{1}}_{p}$
$= \overline {\underbrace{1 + … + 1}_{p}} = \overline{p} = \overline{0}$

  • $car(\mathbb{Q}) = car(\mathbb{R}) = car(\mathbb{C}) = 0$

Justificación:
Sea $K\in \{\mathbb{Q}, \mathbb{R},\mathbb{C} \}$.
$\underbrace{1_K + … + 1_K}_{n} = n \cdot (1_K) = n \not= 0_K$ $\forall n \in \mathbb{N}, n \not=0$

Propiedades

  • Si $K$ es un campo tal que $car(K) = 0$, entonces $K$ no tiene cardinalidad finita.

Demostración: Como $car(K) = 0$, entonces $\underbrace{1_K + … + 1_K}_{n} \not= 0_K \in K$ para cualquier $n \in \mathbb{N}$.
Así, $\{ 1_K, 1_K + 1_K, …, \underbrace{1_K + … + 1_K}_{n}, … \} \subseteq K$ y no es difícil concluir que cada uno de los elementos de este subconjunto son distintos, de modo que tiene cardinalidad no finita.

  • Si $K$ es un campo tal que $car(K) = 2$, entonces $\alpha + \alpha = 0_K$ para cualquier $\alpha \in K$.

Demostración: Por ser $1_K \in K$ el neutro aditivo de $K$ y por las propiedades de campo obtenemos que
$\alpha + \alpha = 1_K \cdot (\alpha + \alpha) = 1_K \cdot \alpha + 1_K \cdot \alpha =$$\alpha \cdot 1_K + \alpha \cdot 1_K = \alpha \cdot (1_K + 1_K)$
Como $car(K) = 2$, entonces $1_K + 1_K = 0_K$, por lo cual $\alpha \cdot (1_K + 1_K) = \alpha \cdot 0_K = 0_K$

  • En general, si $K$ es un campo tal que $car(K) = n \not= 0_K$, entonces $\underbrace{\alpha +…+ \alpha}_{n} = 0_K$ para cualquier $\alpha \in K$.

Demostración: Por ser $1_K \in K$ el neutro aditivo de $K$ y por las propiedades de campo obtenemos que
$\underbrace{ \alpha + … + \alpha }_{n} = 1_K \cdot (\underbrace{ \alpha + … + \alpha }_{n}) =$$\underbrace{ 1_K \cdot \alpha +…+ 1_K \cdot \alpha}_{n}= \underbrace{ \alpha \cdot 1_K +…+ \alpha \cdot 1_K}_{n} =$$\alpha \cdot ( \underbrace{ 1_K +…+ 1_K}_{n})$.
Como $car(K) = n$, entonces $\underbrace{ 1_K +…+ 1_K}_{n} = 0_K$, por lo cual $\alpha \cdot ( \underbrace{ 1_K +…+ 1_K}_{n}) = \alpha \cdot 0_K = 0_K$

Tarea Moral

Sea $K$ un campo. Demuestra la unicidad de:

  1. El neutro aditivo en $K$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sabemos por la definición de campo, que existe $0_K$ neutro aditivo.
    • Primero sup. que existe ${0_K}’ \in K$ que también lo es. Con el objetivo de demostrar que $0_K = {0_K}’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $0_K = 0_K + {0_K}’ = {0_K}’$
  1. Los inversos aditivos en $K$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sea $\alpha \in K$. Sabemos por la definición de campo, que existe $(-\alpha) \in K$ inverso aditivo de $\alpha$.
    • Primero sup. que existe $(-\alpha)’ \in K$ que también lo es. Con el objetivo de demostrar que $(-\alpha) = (-\alpha)’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $(-\alpha) = (-\alpha) + 0_K = (-\alpha) + (\alpha + (-\alpha)’)$$= ((-\alpha) + (\alpha)) + (-\alpha)’$
    • Completa la demostración con las igualdades necesarias y justifícalas.
  1. El neutro multiplicativo en $K$.
    Para lograrlo, se te sugiere realizar igualdades análogas al neutro aditivo y justificar cada una.
  1. Los inversos multiplicativos en $K$.
    Para lograrlo, se te sugiere realizar igualdades análogas a los inversos aditivos y justificar cada una.

Más adelante…

Ahora el concepto de campo vamos a usarlo para obtener un nuevo concepto básico y central en este curso: espacio vectorial.

Entradas relacionadas

Álgebra Superior II: Principio de inducción y teoremas de recursión

Por Roberto Manríquez Castillo

Introducción

Inducción y recursión son dos conceptos similares con los que seguramente te has topado en tu formación matemática, e incluso tal vez antes. Muchas veces se llegan a confundir ambos conceptos, ya que ambos tienen una fuerte relación con el 5° axioma de Peano.

Aunque lo detallaremos a lo largo de la entrada, el principio de Inducción es una propiedad de los números naturales, que nos sirve para demostrar que todos los naturales satisfacen una propiedad. Es decir, es una estrategia de demostración. En contraste, la recursión es un resultado que justifica el hecho de poder dar una definición para todos los naturales, basándonos en la definición de su antecesor. En otras palabras, es una estrategia de definición.

Al final de la entrada demostraremos el teorema de recursión débil, en cuya prueba, podremos apreciar cómo es que depende directamente del Principio de inducción.

Pruebas por inducción

Recordemos el 5° axioma de Peano, el cual probamos en la entrada pasada que se satisface en nuestro modelo:

Si $S\subset \mathbb{N}$ satisface que

  • $0\in S$ y
  • si $n\in S$, implica que $\sigma(s)\in S$,

entonces $S=\mathbb{N}$.

Como hemos mencionado en entradas anteriores, esta proposición es muy similar al principio de Inducción que probablemente hayas ocupado desde el curso de Álgebra Superior I. Más aún, en la entrada pasada, seguimos la misma estrategia que en otros cursos, a la hora de ocupar el 5° axioma. Efectivamente, la equivalencia entre ambos resultados es casi inmediata, y como ejemplo ilustrativo, probaremos el Principio de Inducción a partir del 5° axioma de Peano.

Proposición (Principio de Inducción): Sea $P(n)$ una propiedad, es decir, una proposición matemática que depende de un entero $n$. Si se tiene que:

  1. $P(0)$ es verdadera y
  2. cada vez que $P(n)$ es cierto, también lo es $P(n+1)$,

entonces P(n) es cierta para todos los números naturales.

Demostración. Sea $P(n)$ una propiedad que satisface 1. y 2. y consideremos el conjunto $S:=\{n\in\mathbb{N}: P(n)\text{es verdadera}\}$.

Como $P(0)$ es verdadera, entonces $0\in S$.

Tomemos $n\in S$, entonces $P(n)$ es verdadera, y por 2., tenemos que $P(n+1)$ es verdadera; es decir, $n+1\in S$. Por el 5° Axioma de Peano, se tiene que $S=\mathbb{N}$, por lo que por la definición de $S$, se tiene que $P(n)$ es cierta para cada $n\in \mathbb{N}$

$\square$

Definiciones por recursión

Una de nuestras primeras ideas para poder construir a $\mathbb{N}$, fue intentar construir a mano cada elemento. Para esto, dimos una definición de lo que significaba el $0$ y el sucesor de un número. Después empezamos a iterar una y otra vez la función sucesor para obtener el sucesor del último número encontrado. Discutimos por qué es que esta idea no sería el mejor camino (sólo nos permite llegar hasta una cantidad finita de naturales), por lo tuvimos que introducir el Axioma del Infinito para resolver el problema. Veamos la analogía entre esta idea y el siguiente ejemplo intuitivo.

Ejemplo: Definamos la función factorial de un número natural, como:

  • $0!=1$
  • $(n+1)!=(n!)(n+1)$

Entonces, $3!:=(2!)(3)=(1!)(2)(3)=(0!)(1)(2)(3)=(1)(1)(2)(3)=6$.

Recordemos que al definir a los naturales, necesitábamos conocer un número para poder definir su sucesor. Aquí sucede lo mismo: en la definición de factorial necesitamos conocer quién es el factorial de un número para poder definir el factorial de su sucesor. A este tipo de definiciones se les conoce como definiciones recursivas, ya que para definir algo para un número, necesitamos tener conocimiento del valor de la función en los números anteriores.

Queda una pregunta muy importante. Si a los naturales no los pudimos definir de manera recursiva, ¿por qué podemos afirmar que la función factorial sí existe? A continuación enunciaremos algunos teoremas que nos garantizarán que sí podemos hacer este tipo de definiciones recursivas en nuestro modelo. Daremos una versión fuerte y una versión débil. Demostraremos la versión débil, pues basta para mucho de lo que queremos definir en los naturales (sumas, productos, potencias).

Las siguientes secciones son un poquito técnicas. Si las puedes seguir por completo, es fantástico. Pero incluso si no es así, basta con que en el fondo te quedes con la idea importante detrás: sí se vale definir de manera recursiva. Más adelante podrás regresar a este tema y entenderlo por completo.

Los teoremas de la recursión

Antes de la demostración principal de esta entrada, enunciaremos los teoremas que nos importan y hablaremos de manera intuitiva de lo que dicen. Hay dos versiones que veremos: una fuerte y una débil. Aunque parece que dicen cosas diferentes, en realidad son equivalentes. Será muy claro que la versión fuerte «implica» a la débil. Pero luego, en los problemas de tarea moral, se esbozará cómo ver que la versión débil se puede utilizar para demostrar la fuerte.

Teorema (Recursión Fuerte): Sea $X$ un conjunto y $x_{0}\in X$. Supongamos que tenemos varias funciones (una por cada natural $i$)

$$\{f_i:X\to X\}_{i\in\mathbb{N}\setminus \{0\}}.$$

Entonces existe una única función $g:\mathbb{N}\to X$ tal que:

  • $g(0)=x_{0}$
  • $g(\sigma(n))=f_{\sigma(n)}(g(n))$.

¿Qué es lo que quiere decir este teorema? Para responder esta pregunta veamos el siguiente diagrama:

Nuestro diagrama empieza en $0$, el cual queremos que sea mandado a algún $x_{0}\in X$, para la definición de los demás números, ocupamos la segunda característica que esperamos que $g$ satisfaga. Por ejemplo $g(1)=g(\sigma(0))=f_{1}(g(0))=f_{1}(x_{0})$. Este análisis coincide con lo que nos presenta el primer cuadro de flechas del diagrama anterior, que nos presenta los dos caminos que debe satisfacer $g$, para que sea la función que queremos. Como da lo mismo si «primero aplicamos $\sigma$ y luego $g$», a que si «primero aplicamos $g$ y luego $f_1$», decimos que el primer cuadrado del diagrama conmuta.

Análogamente, ya que conocemos la definición de $g(1)$ podemos fijarnos en el segundo cuadro, para poder definir $g(2)$ (de nuevo, conmuta) y seguir «recursivamente» para cualquier número natural.

Ejemplo: ¿Qué conjunto, y qué funciones necesitamos para definir el factorial?

Consideremos $X=\mathbb{N}$, definiremos intuitivamente (ya que aún no lo hemos definido formalmente), $f_{i}:\mathbb{N}\longrightarrow \mathbb{N}$, como $f_{i}(n)=i\cdot n$, es decir, el producto por $i$.

El teorema de Recursión Fuerte, nos dice que existe una única función $g$ tal que

  • $g(0)=1$
  • $g(\sigma(n))=f_{\sigma(n)}(g(n))=\sigma(n)\cdot g(n)$

Denotemos $n!:=g(n)$. Entonces tenemos que $\sigma(n)!=n!\cdot \sigma(n)$, justo como queremos.

$\triangle$

El teorema de Recursión Débil y su demostración

El teorema de Recursión Débil tiene un enunciado parecido al teorema de recursión fuerte y puede ser visto como una consecuencia directa del teorema anterior pues se obtiene de la versión fuerte tomando $f_{1}=f_{2}=\ldots=f_{n}=\ldots$

Teorema (Recursión Débil): Sea $X$ un conjunto y $x_{0}\in X$. Supongamos que tenemos una función $f:X\to X$. Entonces existe una única función $g:\mathbb{N}\to X$ tal que:

  • $g(0)=x_{0}$
  • $g(\sigma(n))=f(g(n))$.

Para concluir con esta entrada, probaremos el teorema de Recursión Débil. Antes de hacer esto introducimos un concepto auxiliar y una propiedad de los naturales.

Recordemos que como conjunto, $m=\{0,1,…,m-1\}$, lo que sugiere la siguiente definición.

Definición: Si $n,m\in \mathbb{N}$, decimos que $n<m$ si $n\in m$.

Puede probarse que esta relación en $\mathbb{N}$ es un orden total, y que sastisface la siguiente propiedad.

Teorema (Principio el Buen Orden): Sea $S\subset\mathbb{N}$ un conjunto no vacío, es decir $S\neq \emptyset$. Entonces $S$ tiene un elemento mínimo. Es decir, existe $n\in S$ tal que $n<m$ para todo $m\in S\setminus\{n\}$.

La prueba del Principio del Buen Orden y más propiedades de $<$ serán estudiadas con mayor detalle en entradas posteriores. Con esto en mente demostramos el teorema de Recursión Débil.

Demostración. Recordemos que por definición, toda función con dominio $A$ y codominio $B$, es un subconjunto de $A\times B$, por lo que una buena idea es analizar el conjunto $\wp(\mathbb{N}\times X)$, definamos

\[\Re:=\{R\in\wp(\mathbb{N}\times X)\mid (0,x_{0})\in R \text{ y si }(n,x)\in R\text{, entonces }(\sigma(n),f(x))\in R\}\]

Esta definición se ve terriblemente complicada. Pero la intuición es clara: $\Re$ tiene a todas las posibles colecciones de parejas de $\mathbb{N}\times X$ que cumplen lo que queremos. El problema es que muchas de ellas no son funciones y tenemos que «arreglar esto».

Probablemente, notarás alguna similitud entre el conjunto $\Re$ y el conjunto de los subconjuntos inductivos (que se menciona en La construcción de los naturales). Siguiendo esta analogía, definiremos $g:=\bigcap \Re$ (podemos hacer esta intersección ya que $\Re$ no es vacío pues $\mathbb{N}\times X$ está en $\Re$).

  • Demostremos que $g\in \Re$:

Por las propiedades de la intersección, tenemos que $g\subset\mathbb{N}\times X$, por lo que $g\in \wp(\mathbb{N}\times X)$. Veamos que $(0,x_{0})\in g$. Sea $R\in\Re$ arbitrario, entonces $(0,x_{0})\in R$, por lo que $(0,x_{0})\in\bigcap \Re=g$. Por último, si $(n,x)\in g$, demostremos que $(\sigma(n),f(x))\in g$, para esto, sea $R\in \Re$ arbitrario, como $(n,x)\in g$, entonces $(n,x)\in R$, por lo que $(\sigma(n),f(x))\in R$. Es decir, $(\sigma(n), f(x))\in\bigcap \Re=g$. Por todo lo anterior, $g\in\Re$.

  • Veamos ahora que $Dom(g)=\mathbb{N}$:

Usemos el quinto axioma de Peano, como $(0,x_{0})\in g$, entonces $0\in Dom(g)$. Supongamos ahora que $n\in Dom(g)$ y demostremos que $\sigma(n)\in Dom(g)$, por la hipótesis de inducción, existe $x\in X$ tal que $(n,x)\in g$, y como $g\in\Re$, tenemos que $(\sigma(n),f(x))\in g$, pero esto quiere decir que $\sigma(n)\in Dom(g)$. Entonces $Dom(g)$ es inductivo, entonces $Dom(g)=\mathbb{N}$.

  • Demostremos ahora que $g$ sí es función. Para esto, tenemos ver que «cada natural se va a un sólo elemento», en símbolos, si $(n,x),(n,y)\in g$ entonces $n=m$.

Aquí es donde ocuparemos el Principio del Buen Orden. Consideremos $S:=\{n\in\mathbb{N}\mid (n,x),(n,y)\in g \text{ y } x\neq y \}$. Procedamos por contradicción, supongamos que $S\neq\emptyset$, entonces, $S$ tiene un elemento mínimo, denotémoslo por $n$.

Si $n=0$, entonces existe $x\in X$ tal que $(0,x)\in X$ y $x\neq x_{0}$. Entonces consideremos $g’=g\setminus\{(0,x)\}$. Notemos que $g’\in\Re$, ya que $(0,x_{0})\in g’$, ya que $(0,x_{0})\neq (0,x)$. Además si $(k,a)\in g’$, entonces $(k,a)\in g$, por lo que $(\sigma(k),f(a))\in g$, y como $0$ nunca es el sucesor de otro número, tenemos que $(\sigma(k),f(a))\neq(0,x)$, por lo tanto $(\sigma(k),f(a))\in g’$, es decir, $g’\in \Re$, lo que implica que $g=\bigcap \Re\subset g’=g\setminus\{(0,x)\}$ lo cual es absurdo, por lo que $n\neq 0$.

Como $n\neq 0$, debemos tener que existe $m$ tal que $\sigma(m)=n$ ¿Por qué?. Y como $n$ es el mínimo en $S$, tenemos que $m\not\in S$, es decir, existe un único $x\in X$ tal que $(m,x)\in g$, esto implica que $(\sigma(m),f(x))=(n,f(x))\in g$, y como $n\in S$, debe existir $y\in X$, $y\neq f(x)$ tal que $(n,y)\in g$. Análogamente a como lo hicimos antes, consideremos $g’=g\setminus (n,y)$ y veamos que $g’\in \Re$. Como $(n,y)\neq(0,x_{0})$, tenemos que $(0,x_{0})\in g’$. Más aún, si $(k,a)\in g’$, demostremos que $(\sigma(k),f(a))\in g’$, para esto supongamos que no.

Como $(k,a)\in g’$, tenemos que $(k,a)\in g$, por lo que $(\sigma(k),f(a))\in g$, esto implica que $(\sigma(k),f(a))=(n,y)$ ya que este es el único elemento de $g$ que no está en $g’$. Como $\sigma(k)=n=\sigma(m)$, concluimos, por la inyectividad de $\sigma$, que $k=m$. Esto quiere decir que $(k,a)=(m,a)\in g$, pero recordando que $x$ es el único elemento relacionado con $m$, concluimos que $x=a$, en síntesis, $(k,a)=(m,x)$, por lo que $(\sigma(k),f(a))=(\sigma(m),f(x))=(n,f(x))\neq(n,y)$. Esto implica que $(\sigma(k), f(a))\in g’$, contradiciendo nuestra suposición de que no lo estaba.

Entonces hemos probado que $(0,x_{0})\in g’$ y que cada vez que $(k,a)\in g’$, también lo está $(\sigma(k), f(a))$. Esto quiere decir que $g’\in\Re$, y como lo hicimos anteriormente, tendremos que $g=\bigcap \Re\subset g’=g\setminus\{(n,y)\}$, lo cual es una contradicción. Esto quiere decir, que suponer que $S$ tiene un elemento mínimo, es absurdo, por lo que $S=\emptyset$. Lo que traducido quiere decir que para todo $n\in\mathbb{N}$, existe un único $x\in X$ tal que $(n,x)\in g$. Es decir, que $g$ sí es una función.

  • Demostremos que $g$ satisface las dos propiedades del Teorema.

Ya vimos que $g\in \Re$, por lo que $g(0)=x_{0}$. Sea ahora $n\in \mathbb{N}$ y $x=g(n)$, de nuevo, como $g\in\Re$, tenemos que $g(\sigma(n))=f(x)=f(g(n))$.

  • Por último, demostremos la unicidad de $g$.

Si $h:\mathbb{N}\longrightarrow X$ es otra función que satisface las características del Teorema, consideremos $A=\{n\in\mathbb{N}\mid h(n)=g(n)\}$, como $h(0)=x_{0}=g(0)$. Tenemos que $0\in A$. Supongamos que $n\in A$. Tendríamos entonces que $h(\sigma(n))=f(h(n))=f(g(n))=g(\sigma(n))$, es decir que $\sigma(n)\in A$, por lo que $A$ es inductivo, y por consiguiente, $A=\mathbb{N}$. En resumen, $h$ y $g$, coinciden en dominio, codominio y regla de correspondencia, entonces $h=g$, como debíamos probar.

$\square$

La demostración del teorema de Recursión Fuerte requiere de algunos detalles adicionales, pero puede deducirse del teorema de Recursión Débil. Dejamos esto como uno de los problemas de la tarea moral.

Más adelante…

El teorema de Recursión será la mayor herramienta que tendremos para poder darle una forma más familiar a los números naturales, ya que las operaciones de suma y multiplicación, que veremos en la siguiente entrada, tendrán una definición recursiva.

Y así como el teorema de la Recursión nos permitirá definir, usaremos continuamente el principio de Inducción para poder demostrar las numerosas propiedades que estas operaciones tienen.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Demuestra el 5° Axioma de Peano a partir del Principio de Inducción.
  2. Demuestra que si $n\neq 0$ entonces existe $m$ tal que $\sigma(m)=n$.
  3. ¿Qué función $g$, satisface que $g(0)=1$ y $g(\sigma(n))=2\cdot g(n)$? ¿Qué función $f$ estamos ocupando?
  4. ¿Qué conjunto y que función nos permitiría definir la sucesión de Fibonacci $a_{n+2}=a_{n+1}+a_{n}$ usando el Teorema de Recursión?
  5. Demuestra el Teorema de Recursión Fuerte, usando el Débil. Sugerencia: Considera, $F(n,x):\mathbb{N}\times X\longrightarrow \mathbb{N}\times X$, como $F(n,x)=(\sigma(n),f_{\sigma(n)}(x))$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»