Archivo de la etiqueta: algebra

Propiedades de los ESPACIOS VECTORIALES

Nota: Para simplificar notación (sobre todo en las demostraciones): $0_K$ será $0$; $\theta_V$ será $\theta$ y dependiendo de los elementos que se operen, serán las operaciones del campo o del espacio vectorial. Y en las justificaciones de pasos, tendremos que un número $m$ seguido $K$, hará referencia a la propiedad $m$ de la definición de campo y análogamente si el número $m$ es seguido por $V$ será la propiedad $m$ de la definición de espacio vectorial.

Recordemos que, por ahora, dado $u$ en un espacio vectorial, tenemos que $\tilde u$ denota a su inverso aditivo.

Proposición (1): Sean $K$ un campo y $V$ un $K$ – espacio vectorial.
1. $0_K \cdot_V u = \theta_V$ $\forall u \in V$
2. $\lambda \cdot_V \theta_V = \theta_V$ $\forall \lambda\in K$

Demostración: Sean $u \in V$, $\lambda\in K$.
1. Tenemos por distributividad en $V$ que $(0+0)u=0u+0u$.
Y además, por ser $0$ el neutro de $K$ y $\theta$ el neutro de $V$, $(0+0)u=0u=\theta+0u$.
Así, $0u+0u=\theta+0u$.
De donde, $\widetilde{0u}+(0u+0u)=(\theta+0u)+\widetilde{0u}$
\begin{align*}
\Rightarrow &(\widetilde{0u}+0u)+0u=\theta+(0u+\widetilde{0u})\tag{asociat. $+_V$}\\
\Rightarrow &\theta+0u=\theta+\theta\tag{inv. ad. $V$}\\
\Rightarrow &0u=\theta\tag{neu. ad. $V$}\\
\end{align*}
2. Tenemos por distributividad en $V$ que $\lambda(\theta+\theta)= \lambda\theta+\lambda\theta$.
Y además, por ser $\theta$ el neutro de $V$, $\lambda(\theta+\theta)=\lambda\theta$.
Así, $\lambda\theta+\lambda\theta=\lambda\theta$.
De donde, $\widetilde{\lambda\theta}+(\lambda\theta+\lambda\theta)=\lambda\theta+\widetilde{\lambda\theta}$
\begin{align*}
\Rightarrow &(\widetilde{\lambda\theta}+\lambda\theta)+\lambda\theta=\lambda\theta_V+\widetilde{\lambda\theta}\tag{asociat. $+_V$}\\
\Rightarrow &\theta+\lambda\theta=\theta\tag{inv. ad. $V$}\\
\Rightarrow &\lambda\theta=\theta\tag{neu. ad. $V$}\\
\end{align*}

Proposición (2): Sean $K$ un campo y $V$ un $K$ – espacio vectorial.
Para todo $u \in V$, $(-1_K)\cdot_V u$ es el inverso aditivo de $u$.

Demostración: Sea $u\in V$.
Veamos que $u+(-1_K)u=\theta$
\begin{align*}
u+(-1_K)u&=1_Ku+(-1_K)u\tag{propiedad 5. campo}\\
&=(1_K+(-1_K))u\tag{distrib. 7.1 $V$}\\
&=0u\tag{inv. ad. $K$}\\
&=\theta\tag{Prop. (1)}\\
\therefore u+(-1_K)u=\theta
\end{align*}

Nota: Dada $u \in V$ denotaremos por $-u$ a su inverso aditivo.

Obs.* Existen resultados análogos para las dos proposiciones anteriores pero en el caso de los campos, y sus pruebas son también análogas.

Corolario: Sean $K$ un campo y $V$ un $K$ – espacio vectorial.
$(-\lambda)u=-(\lambda u)=\lambda(-u)$ $\forall \lambda \in K$ , $\forall u \in V$

Demostración: Sean $\lambda\in K, u\in V$.
Por un lado,
\begin{align*}
\lambda(-u)&=\lambda((-1_K)u)\tag{Prop. (2)}\\
&=(\lambda(-1_K))u\tag{propiedad 6. campo}\\
&=(-\lambda)u\tag{Obs.*}\\
\therefore\lambda(-u)=(-\lambda)u
\end{align*}
Por otro lado,
\begin{align*}
(-\lambda)u&=((-1_K)\lambda)u\tag{Obs.*}\\
&=(-1_K)(\lambda u)\tag{propiedad 6. campo}\\
&=-(\lambda u)\tag{Prop. (2)}\\
\therefore (-\lambda)u=-(\lambda u)
\end{align*}

Proposición (3): Sea $K$ un campo y $V$ un $K$ – espacio vectorial.
Si $\lambda\cdot_V u = \theta_V$, entonces se cumple al menos uno de los siguientes casos:
1. $\lambda = 0_K$
2. $u = \theta_V$

Demostración: Sup. que $\lambda u=\theta$.
Tenemos dos posibilidades:
i) $\lambda=0$
ii) $\lambda\not=0$

Si se cumple i), entonces ya tenemos el caso 1.

Sup. que se cumple ii). Veamos que $u=\theta$.
Como nuestra hipótesis es que $\lambda\not=0$ y $\lambda\in K$, con $K$ un campo, entonces $\exists(\lambda^{-1})\in K$ inverso multiplicativo de $\lambda$. Así,
\begin{align*}
\lambda u=\theta\Rightarrow &(\lambda^{-1})(\lambda u)=(\lambda^{-1})\theta\\
\Rightarrow &((\lambda^{-1})\lambda)u=(\lambda^{-1})\theta\tag{propiedad 6. esp. vect.}\\
\Rightarrow &((\lambda^{-1})\lambda)u=\theta\tag{Prop. (1)}\\
\Rightarrow &1_Ku=\theta\tag{inv. mult. $K$}\\
\Rightarrow &u=\theta\tag{propiedad 5. campo}\\
\end{align*}

Nota: En adelante, $K$ denotará un campo.

TAREA MORAL

Sea $K$ un campo. Sea $V$ un $K$ – espacio vectorial. Demuestra que para cualesquiera $u,v,w \in V$ se cumplen las siguientes propiedades de cancelación:

  1. Si $u+v=w+v$, entonces $u=w$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Primero sup. que $u+v=w+v$ y justifiquemos por qué tiene que suceder que $u=w$.
    • Podemos sumar a la derecha de cada lado de la igualdad el inverso de $v$.
    • Una vez hecho eso, utiliza la asociatividad de la suma en $V$, luego la definición del inverso de $v$ y por último la definición del neutro aditivo en $V$.
  1. Si $v+u=v+w$, entonces $u=w$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Primero sup. que $u+v=w+v$ y justifiquemos por qué tiene que suceder que $u=w$.
    • Piensa en qué propiedad de la $+$ en $V$ te permite tener una ecuación de la forma que se presenta en el $1$. Una vez teniendo esa forma, por lo que ya probaste, obtienes lo que se necesitaba.
      • Observa que haciendo un proceso totalmente análogo a este inciso, se obtiene que también se cumple la cancelación si es de la forma $u+v=v+w$, o bien, de la forma $v+u=w+v$.

MÁS ADELANTE…

Ahora vamos a usar el concepto de espacio vectorial para obtener otro concepto: subespacio.

Entradas relacionadas

Definición y ejemplos con demostración de ESPACIOS VECTORIALES

INTRODUCCIÓN

A partir del interés de establecer métodos para resolver ecuaciones de tercer grado por medio de radicales, los matemáticos se encuentran con las raíces negativas e imaginarias. El concepto de número imaginario logra superponerse al paradigma y encuentra su lugar a través de su representación geométrica.

El físico William Rowan Hamilton se interesó por establecer propiedades de las operaciones entre números complejos y sostuvo que el álgebra tenía una relación muy estrecha con la física. Motivado con esta idea, establece conjuntos de números dotados de una estructura algebraica con una representación espacial muy útil para los trabajos en física. Sus propiedades resultan similares a las que actualmente se tienen para el producto escalar y vectorial.

Los cuaterniones de Hamilton son números de la forma: P=a+bi+cj+dk, donde a,b,c y d son números reales y k=ij=-ji es una unidad imaginaria.

En el álgebra lineal el concepto de «vector» adquiere su significado más general.

ESPACIO VECTORIAL

Definición: Sean $V$ un conjunto y sea $K$ un campo (con las operaciones $+_K$ y $\cdot_K$). Sean $+_V: V \times V \longrightarrow V$ y $\cdot_V: K \times V \longrightarrow V$ operaciones. Decimos que $V,+_V,\cdot_V$ es un espacio vectorial sobre el campo $K$, o bien un $K$ – espacio vectorial (y a los elementos de $K$ les llamamos vectores), si $+_V$ y $\cdot_V$ cumplen lo siguiente:

  1. $+_V$ es asociativa
    $\forall u,v,w \in V:$
    $(\,u+_V(v+_V w)=(u+_V v)+_V w\,)$
  2. $+_V$ es conmutativa
    $\forall u,v \in V:$
    $(\,u+_V v=v+_V u\,)$
  3. Existe neutro aditivo
    $\exists \theta_V \in V:$
    $\forall u \in V (\,\theta_V +_V u = u +_V \theta_V = u\,)$
  4. Todo elemento $u \in V$ tiene inverso aditivo
    $\forall u \in V:$
    $\exists \tilde {u} \in V (\,u+_V \tilde {u} = \tilde {u} +_V u = \theta_V\,)$
  1. $\forall u \in V:$
    $1_K \cdot_V u = u$
  2. $\forall \lambda,\mu \in K \forall u \in V:$
    $\lambda\cdot_K(\mu\cdot_K u)=(\lambda\cdot_K\mu)\cdot_V u$
  3. $\cdot_V$ es distributiva
    7.1 $\forall \lambda,\mu \in K \forall u \in V:$
    $(\lambda+_K\mu)\cdot_V u = (\lambda\cdot_V u)+(\mu\cdot_V u)$
    7.2 $\forall \lambda \in K \forall u,v \in K:$
    $\lambda\cdot_V(u+v)=\lambda\cdot_V u+\lambda\cdot_V v$

Nota: Es común encontrar la expresión «$V$ es un $K$ – espacio vectorial con las operaciones $+, \cdot$» en lugar de «$V,+,\cdot$ es un $K$ – espacio vectorial», al igual que «$V$ es un $K$ – espacio vectorial» sin la referencia a las operaciones cuando se trata de las usuales (se suponen por obviedad).

Nota: Para evitar confusiones, en caso de ser necesario, denotaremos por $u+_V v$ a la suma de los vectores $u$ y $v$, y por $\lambda\cdot_V v$ al producto del escalar $\lambda$ por el vector $v$, pero una vez que nos habituemos a ellas las denotaremos simplemente por $u+v$ y $\lambda v$.

Ejemplos:

  • $\mathbb{R}^n$ es un $\mathbb{R}$ – espacio vectorial con la suma y el producto por escalar usuales.
  • $<(1,1,1)> = \{\lambda(1,1,1):\lambda \in \mathbb{R} \}$ es un $\mathbb{R}^n$ – espacio vectorial.
  • Sea $K$ campo. $\mathcal{M}_{m\times n}(K)$ (las matrices con $m$ renglones y $n$ columnas, con entradas en $K$) es un $K$ – espacio vectorial con las operaciones usuales de suma y producto por escalar.
  • Sea $K$ campo. $K[x]$ (los polinomios en $x$ con coeficientes en $K$) es un $K$ – espacio vectorial con la suma y el producto por escalar usuales.
  • Sea $K$ campo. $K^{n} = \{(x_{1}, x_{2},…,x_{n}) : x_{1},x_{2},…,x_{n} \in K \}$ es un $K$ – espacio vectorial con la suma entrada a entrada y el producto definido como sigue:
    Sean $(x_{1},x_{2},…,x_{n}) \in K^{n}$, $\lambda \in K$. $\lambda \cdot (x_{1},x_{2},…,x_{n})=(\lambda x_{1}, \lambda x_{2},…,\lambda x_{n})$
  • Sea $K$ campo. $K^{\infty} = \{(x_{1}, x_{2},…) : x_{1},x_{2},… \in K \}$ es un $K$ – espacio vectorial con la suma entrada a entrada y el producto definido como sigue:
    Sean $(x_{1},x_{2},…) \in K^{n}$, $\lambda \in K$. $\lambda \cdot (x_{1},x_{2},…)=(\lambda x_{1}, \lambda x_{2},…)$

EJEMPLO FUNCIONES

Sea $K$ campo. $V=\{f|f:K \longrightarrow K\}$ es un $K$ – espacio vectorial con las operaciones $+_V$ y $\cdot_V$ definidas como sigue:

Sean $f,g \in V$, $\lambda \in K$.
$f +_V g : K \longrightarrow K$
$(f +_V g )(x) = f(x) +_K g(x)$ para todo $x\in K$ donde $+_K$ es la suma en $K$.

Sean $f \in V$, $\lambda \in K$.
$\lambda \cdot_V f : K \longrightarrow K$
$(\lambda \cdot_V f )(x) =\lambda \cdot_K f(x)$ para todo $x\in K$
donde $\cdot_K$ es el producto en $K$.

DEMOSTRACIÓN

Vamos a ver que las operaciones $+_V$, $\cdot_V$ cumplen las ocho condiciones suficientes y necesarias (por definición) para que $V$ sea espacio vectorial:

Sean $f,g,h \in V$, $\lambda, \mu \in K$.
Sea $x \in K$ arbitrario.

  1. P.D. $+_V$ es asociativa
    $i. e.$ $(f +_V g) +_V h = f +_V (g +_V h)$

Obs. 1 Tenemos que $f +_V g, g +_V h \in V$. Así, $(f +_V g) +_V h, f +_V (g +_V h) \in V$. Así que sólo falta ver que $(f +_V g) +_V h$ y $f +_V (g +_V h)$ tienen la misma regla de correspondencia.

\begin{align*}
((f +_V g) +_V h)(x) &= (f +_V g)(x) +_K h(x)\tag{def. $+_V$}\\
&= (f(x) +_K g(x)) +_K h(x)\tag{def. $+_V$}\\
&= f(x) +_K (g(x) +_K h(x))\tag{asociat. $+_K$}\\
&= f(x) +_K (g +_V h)(x)\tag{def. $+_V$}\\
&= (f +_V (g +_V h))(x)\tag{def. $+_V$}\\
\therefore (f +_V g) +_V h &= f +_V (g +_V h)
\end{align*}

  1. P.D. $+_V$ es conmutativa
    $i.e.$ $f +_V g = g +_V f$

Obs. 2 Tenemos que $f +_V g, g +_V f \in V$. Así que sólo falta ver que $f +_V g$ y $g +_V f$ tienen la misma regla de correspondencia.

\begin{align*}
(f +_V g)(x) &= f(x) +_K g(x)\tag{def. $+_V$}\\
&= g(x) +_K f(x)\tag{conmutat. $+_K$}\\
&= (g +_V f)(x)\tag{def. $+_V$}\\
\therefore f +_V g &= g +_V f
\end{align*}

  1. P.D. Existe neutro aditivo
    $i.e.$ $\exists \theta_V \in V:$
    $\theta_V +_V f = f +_V \theta_V = f$

Proponemos:
$\theta_V : K \longrightarrow K$ con
$\theta_V(x) = 0_K$ para todo $x\in K$
donde $0_K$ es neutro aditivo de $K$.

Obs. 3 Por construcción $\theta_V \in V$. Así, $f +_V \theta_V, \theta_V +_V f \in V$. Además, por $2$, se cumple que $\forall f \in V (\theta_V +_V f = f +_V \theta_V)$. Entonces sólo falta ver que $f +_V \theta_V$ y $f$ tienen la misma regla de correspondencia.

\begin{align*}
(f +_V \theta_V)(x) &= f(x) +_K \theta_V(x)\tag{def. $+_V$}\\
&= f(x) +_K 0_K\tag{def. $\theta_V$}\\
&= f(x)\tag{neutro ad.}\\
\therefore \theta_V +_V f = f +_V \theta_V
\end{align*}

  1. P.D. Todo elemento $f \in V$ tiene inverso aditivo
    $i.e.$ $\exists \tilde{f} \in V:$
    $f+ \tilde{f} = \tilde{f} + f = \theta_V$

Proponemos:
$\tilde{f} : K \longrightarrow K$ con
$\tilde{f}(x)=(-f(x))$ para todo $x\in K$
donde $(-f(x))$ es el inverso aditivo de $f(x) \in K$.

Obs. 4 Por construcción $\tilde{f} \in V$. Así, $f +_V \tilde{f}, \tilde{f} +_V f \in V$. Además, por $2$, se cumple que $\forall f \in V (f +_V \tilde{f} = \tilde{f} +_V f \in V)$. Entonces sólo falta ver que $f +_V \tilde{f}$ y $\theta_V$ tienen la misma regla de correspondencia.

\begin{align*}
(f +_V \tilde{f})(x) &= f(x) +_K \tilde{f}(x)\tag{def. $+_V$}\\
&= f(x) +_K (-f(x)) \tag{def. $\tilde{f}$}\\
&= 0_K\tag{inv. ad.}\\
&= \theta_V (x)\tag{def. $\theta_V$}\\
\therefore f +_V \tilde{f} = \tilde{f} +_V f = \theta_V
\end{align*}

  1. P.D. $1_K \cdot_V f = f$

Sea $1_K$ el neutro multiplicativo en $K$.

Obs. 5 Por construcción $1_K \in K$. Así, $1_K \cdot_V f \in V$. Así que sólo falta ver que $1_K \cdot_V f$ y $f$ tienen la misma regla de correspondencia.

\begin{align*}
(1_K \cdot_V f)(x) &= 1_K \cdot_K f(x)\tag{def. $\cdot_V$}\\
&= f(x)\tag{neut. mult.}\\
\therefore 1_V \cdot_V f = f
\end{align*}

  1. P.D. $\lambda\cdot_V(\mu\cdot_V f)=(\lambda\cdot_K\mu)\cdot_V f$

Obs. 6 Por construcción $\mu\cdot_V f \in V$. Así, $\lambda\cdot_V(\mu\cdot_V f) \in V$. También tenemos que $\lambda\cdot_K\mu\in K,$ por lo cual $(\lambda\cdot_K\mu)\cdot_V f\in V$ Entonces sólo falta ver que $\lambda\cdot_V(\mu\cdot_V f)$ y $(\lambda\cdot_K\mu)\cdot_V f$ tienen la misma regla de correspondencia.

\begin{align*}
(\lambda\cdot_V(\mu\cdot_V f))(x) &= \lambda \cdot_K (\mu\cdot_V f)(x)\tag{def. $\cdot_V$}\\
&= \lambda\cdot_K(\mu\cdot_K f(x))\tag{def. $\cdot_V$}\\
&= (\lambda\cdot_K\mu)\cdot_K f(x)\tag{asociat. $\cdot_K$}\\
&= ((\lambda\cdot_K\mu)\cdot_V f)(x)\tag{def. $\cdot_V$}\\
\therefore \lambda\cdot_V(\mu\cdot_V f)=(\lambda\cdot_K\mu)\cdot_V f
\end{align*}

  1. P.D. Se cumple la distributividad (7.1)
    $i.e.$ $(\lambda +_K \mu)\cdot_V f=(\lambda\cdot_V f) +_V (\mu\cdot_V f)$

Obs. 7 Tenemos que $\lambda,\mu,\lambda +_K \mu \in K$. Así, $(\lambda +_K \mu)\cdot_V f, (\lambda\cdot_V f) +_V (\mu\cdot_V f) \in V$. Así que solo falta ver que $(\lambda +_K \mu)\cdot_V f$ y $(\lambda\cdot_V f) +_V (\mu\cdot_V f)$ tienen la misma regla de correspondencia.

\begin{align*}
((\lambda +_K \mu)\cdot_V f)(x) &= (\lambda +_K \mu)\cdot_K f(x)\tag{def. $+_V$}\\
&= (\lambda\cdot_K f(x)) +_K (\mu\cdot_K f(x))\tag{distrib.}\\
&= ((\lambda\cdot_V f)(x)) +_K ((\mu\cdot_V f)(x))\tag{def. $\cdot_V$}\\
&= ((\lambda\cdot_V f) +_V (\mu\cdot_V f))(x))\tag{def. $\cdot_V$}\\
\therefore (\lambda +_K \mu)\cdot_V f=(\lambda\cdot_V f) +_V (\mu\cdot_V f)
\end{align*}

  1. P.D. Se cumple la distributividad (7.2)
    $i.e.$ $\lambda \cdot_V (f +_V g)= (\lambda \cdot_V f) +_V(\lambda \cdot_V g)$

Obs. 8 Tenemos que $\lambda \cdot_V (f +_V g), \lambda \cdot_V f, \lambda \cdot_V g \in V$. Así, $(\lambda \cdot_V f) +_V(\lambda \cdot_V g) \in V$. Entonces sólo falta ver que $\lambda \cdot_V (f +_V g)$ y $(\lambda \cdot_V f) +_V(\lambda \cdot_V g)$ tienen la misma regla de correspondencia.

\begin{align*}
(\lambda \cdot_V (f +_V g))(x) &= \lambda \cdot_K (f +_V g)(x)\tag{def. $\cdot_V$}\\
&= \lambda \cdot_K (f(x) +_K g(x))\tag{def. $+_V$}\\
&= (\lambda \cdot_K f(x)) +_K (\lambda \cdot_K g(x))\tag{distrib.}\\
&= ((\lambda \cdot_V f)(x)) +_K ((\lambda \cdot_V g)(x))\tag{def. $\cdot_V$}\\
&= ((\lambda \cdot_V f) +_V (\lambda \cdot_V g))(x)\tag{def. $+_V$}\\
\therefore \lambda \cdot_V (f +_V g)= (\lambda \cdot_V f) +_V(\lambda \cdot_V g)
\end{align*}

Por lo tanto $V=\{f|f:K \longrightarrow K\}$ es un $K$ – espacio vectorial con las operaciones $+_V$ y $\cdot_V$ trabajadas.

TAREA MORAL

  1. Encuentra un $K$ campo dentro de los ejemplos de la entrada anterior con el cual $\mathcal{M}_{m\times n}(K)$ sea un $K$ – espacio vectorial con una cantidad finita de elementos. Si $K$ no es concreto, exhibe un caso particular de ese campo y una vez que lo hagas, muestra todos los elementos del espacio vectorial obtenido.
  1. Demuestra que el neutro aditivo de $V$, un $K$ – espacio vectorial, es único.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sabemos por la definición de espacio vectorial, que existe $\theta_V$ neutro.
    • Primero sup. que existe ${\theta_V}’ \in V$ que también lo es. Con el objetivo de demostrar que $\theta_V = {\theta_V}’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $\theta_V = \theta_V +_V {\theta_V}’ = {\theta_V}’$
  1. Demuestra que los inversos aditivos en $V$ son únicos.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sea $u \in V$. Sabemos por la definición de campo, que existe $\tilde{u} \in V$ inverso aditivo de $u$.
    • Primero sup. que existe $\tilde{u}’ \in V$ que también lo es. Con el objetivo de demostrar que $\tilde{u} = \tilde{u}’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $\tilde{u} = \tilde{u} +_V \theta_V = \tilde{u} + (u + \tilde{u}’) = (\tilde{u} + u) + \tilde{u}’$
    • Completa la demostración con las igualdades necesarias y justifícalas.

MÁS ADELANTE…

Ahora analizaremos algunas propiedades de los espacios vectoriales, una de ellas nos dice quién es el elemento neutro dado el espacio vectorial. Además de dos identidades del elemento neutro.

Entradas relacionadas

Definiciones y ejemplos de CAMPO y SUBCAMPO

El ser humano ha hecho un fascinante trabajo construyendo modelos para facilitar la resolución de problemas concretos. Muchos de estos problemas tienen un carácter lineal, es decir, pueden plantearse mediante ecuaciones lineales con coeficientes en algún «conjunto especial» de números y con unas cuantas variables.

Así es, nos facilitamos la vida reduciendo casi todo a «talachita»: operaciones. Y como buena rama de las matemáticas, esto de «operar» vamos a abstraerlo. Ya no sólo se tratará de números, si no de conjuntos (de «lo que sea») y operaciones («las que sean») que cumplan ciertas condiciones.

CAMPO

Definición: Sea $K$ un conjunto con dos operaciones binarias $+: K \times K \longrightarrow K$ y $\cdot: K \times K \longrightarrow K$. Decimos que $K$ es un campo (y a sus elementos los llamamos escalares) si se cumplen las siguientes propiedades:

  • $+$ es asociativa
    $\forall \alpha ,\beta ,\gamma \in K:$
    $\alpha+(\beta+\gamma)=(\alpha+\beta)+\gamma$
  • $+$ es conmutativa
    $\forall \alpha,\beta \in K:$
    $\alpha+\beta=\beta+\alpha$
  • Existe un neutro aditivo
    $\exists 0_K \in K:$
    $\forall \alpha \in K (0_K + \alpha = \alpha + 0_K = \alpha)$
  • Todo elemento $\alpha \in K$ tiene un inverso aditivo
    $\forall \alpha \in K:$
    $\exists (-\alpha) \in K (\alpha+ (-\alpha) = (-\alpha)+\alpha = 0_K)$
  • $\cdot$ distribuye a $+$
    $\forall \alpha,\beta,\gamma \in K:$
    $\alpha\cdot(\beta + \gamma)=\alpha\cdot\beta + \alpha\cdot\gamma$
  • $\cdot$ es asociativa
    $\forall \alpha,\beta,\gamma \in K:$
    $\alpha\cdot(\beta\cdot\gamma)=(\alpha\cdot\beta)\cdot\gamma$
  • $\cdot$ es conmutativa
    $\forall \alpha,\beta \in K:$
    $\alpha\cdot\beta=\beta\cdot\alpha$
  • Existe un neutro multiplicativo
    $\exists 1_K \not= 0_K \in K:$
    $\forall \alpha \in K (1_K \cdot \alpha = \alpha \cdot 1_K = \alpha)$
  • Todo elemento $\alpha \not= 0_K \in K$ tiene un inverso multiplicativo
    $\forall \alpha \not= 0_K \in K:$
    $\exists \alpha^{-1} \in K (\alpha \cdot \alpha^{-1} = \alpha^{-1} \cdot \alpha = 1_K)$

Nota: En un campo vectorial: los neutros (aditivo y multiplicativo) y los inversos (aditivos y multiplicativos) son únicos. Por ello, desde la definición se han denotado de esa manera. Como parte de la tarea moral al final de esta entrada encontrarás ideas para realizar las demostraciones de estas unicidades.

Nota: Para simplificar notación, el producto $\alpha\cdot\beta$ se suele denotar como $\alpha\beta$.

Nota: Si es necesario aclarar que las operaciones con las que se está trabajando están definidas en el campo $K$, se suelen denotar como $+_K$ y $\cdot_K$.

Ejemplos:

  • $\mathbb{R} , \mathbb{Q} , \mathbb{C}$
    con la suma y producto usual respectivamente
  • $\{y+y\sqrt{2} : x,y \in \mathbb{Q}\}$
    con la suma y el producto usual
  • $\mathbb{Z}_p = \{\overline {0},\overline {1},…,\overline {p-1}\}$
    donde $p$ es primo y $\forall \overline {x}, \overline {y} \in \mathbb{Z}_p$ las operaciones son
    $\overline {x} + \overline {y} = \overline {x+y}$
    $\overline {x} \cdot \overline{y} = \overline {x \cdot y}$
    con $x+y$ la suma usual en $\mathbb{Z}$, $x \cdot y$ el producto usual en $\mathbb{Z}$

¿Cómo funciona $\mathbb{Z}_n$ con $n \in \mathbb{N}$?

$\mathbb{Z}_n$ con $n\in\mathbb{N}^+$ es el conjunto llamado enteros módulo $n$ cuyos $n$ elementos son de la forma $\overline {k}$ $= \{a \in \mathbb{Z} | a \equiv k (mód\, n) \} = \{a \in \mathbb{Z} | a – k = mn, m \in \mathbb{Z} \}$. Es decir, la clase de $k$, con $k \in \mathbb{Z}$ es el conjunto de los números enteros $a$ tales que $a-k$ es múltiplo de $n$.

Obs *. $\overline {k} = \overline {l}$ para toda $l \equiv k$ $(mód\, n)$ pues los elementos de $\overline {k}$ son aquellos congruentes entre sí, módulo $n$.

Ejemplo concreto: $\mathbb{Z}_3$

Tenemos que $\mathbb{Z}_3 = \{ \overline {0}, \overline {1}, \overline {2} \} = \{ \{…, -9, -6, -3, 0, 3, 6, 9, … \}, \{…, -8, -5, -2, 1, 4, 7, 10, …\}, \{…, -7, -4, -1, 2, 5, 8, 11, … \} \}$

Comprobemos que $\mathbb{Z}_3$ es un campo con las operaciones definidas anteriormente.

Tabla de Cayley de $\mathbb{Z}_3$:

$+$$\overline {0}$$\overline {1}$$\overline {2}$
$\overline {0}$$\overline {0+0} = \overline {0}$$\overline {0+1} = \overline {1}$$\overline {0+2} = \overline {2}$
$\overline {1}$$\overline {1+0} = \overline {1}$$\overline {1+1} = \overline {2}$ $\overline {1+2} = \overline {3} = \overline {0}$
$\overline {2}$$\overline {2+0} = \overline {2}$$\overline {2+1} = \overline {3} = \overline {0}$$\overline {2+2} = \overline {4} = \overline {1}$
$\cdot$$\overline {0}$$\overline {1}$$\overline {2}$
$\overline {0}$$\overline {0 \cdot 0} = \overline {0}$$\overline {0 \cdot 1} = \overline {0}$$\overline {0 \cdot 2} = \overline {0}$
$\overline {1}$$\overline {1 \cdot 0} = \overline {0}$$\overline {1 \cdot 1} = \overline {1}$ $\overline {1 \cdot 2} = \overline {2} = \overline {2}$
$\overline {2}$$\overline {2 \cdot 0} = \overline {0}$$\overline {2 \cdot 1} = \overline {2}$$\overline {2 \cdot 2} = \overline {4} = \overline {1}$

Así, es fácil ver que:

  • $+$ y $\cdot$ son asociativas y conmutativas.
  • El único neutro aditivo es $\overline {0}$.
  • El único neutro multiplicativo es $\overline {1}$.
  • Dado $\overline {k} \in \mathbb{Z}_3$ su único inverso aditivo es $\overline {-k}$.
  • Dado $\overline {k} \not= \overline {0} \in \mathbb{Z}_3$ su único inverso multiplicativo es $\overline {k}$

Existencia y exhibición de inversos multiplicativos en $\mathbb{Z}_p$

Ahora veamos un resultado que será muy útil para entender por qué $\mathbb{Z}_n$ con $n \in \mathbb{N}^+$ es un campo si y sólo si $n$ es un primo y para saber cómo obtener el inverso multiplicativo de un elemento dado.

Sea $K=\mathbb{Z}_n$.
Sea $\overline{k}\not= 0_K\in K$. Con el fin de simplificar la demostración, tomaremos $k\in\{0,1,…,n-1\}$ recordando que, de este modo, estamos considerando cualquier posible elemento de $\mathbb{Z}_n$.
$\overline{k}$ tiene inverso $\overline{j}\in K$ si y sólo si
\begin{align*}
&\overline{k}\cdot\overline{j}=\overline{1}\\
\Leftrightarrow &\overline{k\cdot j}=\overline{1}\tag{def. $\cdot_K$}\\
\Leftrightarrow &k\cdot j\,\equiv 1 (mód\, n)\tag{Obs *}\\
\Leftrightarrow &k\cdot j \,-\, 1 = qn, q \in \mathbb{Z}\tag{def. $a \equiv b (mód\, n)$}\\
\Leftrightarrow &k \cdot j + (-q) \cdot n = 1, (-q) \in \mathbb{Z}\\
\Leftrightarrow &(k,n)\text{ divide a } 1\tag{Prop.del máximo común divisor}\\
\therefore (k,n) = 1
\end{align*}

Para que $K = \mathbb{Z}_n$ sea un campo, necesitamos que cada $\overline {k} \not= 0_K \in K$ tenga inverso multiplicativo. Por lo tanto se debe cumplir que $(k,n) = 1$ para toda $k \in \{ 0, 1, …, n-1 \}$. Notamos que si $n$ no fuera primo, entonces $n = ab$ con $2 \le a,b \le n-1$. De modo que existe $a \in \{ 1, …, n-1 \}$ tal que $(a,n) = a \not= 1$ y entonces en este caso $K = \mathbb{Z}_n$ no es un campo. A la inversa, si $K = \mathbb{Z}_p$ con $p$ un primo, entonces para cada $a \in \{1, …, n-1 \}$ tenemos que $(a,p)=1$, y por lo anterior $\overline {a}$ tiene un inverso multiplicativo. Así, $K = \mathbb{Z}_p$ es un campo.

Además, dado $\overline {k} \not= \overline {0} \in \mathbb{Z}_p$ con $p$ primo, sabemos, por ser $\mathbb{Z}_p$ un campo, que existe su inverso multiplicativo $\overline {j} \in \mathbb{Z}_p$ y se cumple que $(k,n) = 1$. Para encontrar el inverso multiplicativo de $\overline {k}$ bastaría encontrar $l,m \in \mathbb{Z}$ tales que $k \cdot l + m \cdot n = 1$, para lo cual podemos usar el algorimo de Euclides, y así obtendremos que si tomamos $j=l$, entonces $\overline {j}$ es el elemento que queríamos.

SUBCAMPO

Definición: Sean $K$ un campo y $\tilde {K} \subseteq K$. Decimos que $\tilde {K}$ es un subcampo de $K$ si $\tilde {K}$ con las operaciones restringidas de $K$ es por sí mismo un campo.

Ejemplos:

  • $\mathbb{Q}$ es un subcampo de $\mathbb{R}$
  • $\mathbb{R}$ es un subcampo de $\mathbb{C}$

Propiedad

  • Si $K$ es un campo, entonces cualquiera de sus elementos $\alpha$ cumple que
    $\alpha \cdot 0_K = 0_K$.

Demostración: Sea $\alpha \in K$.
Sea $(-\alpha) \in K$ su inverso aditivo.
Como $0_K$ es el neutro aditivo, $0_K + 0_K = 0_K$.
De donde,
\begin{align*}
&\alpha \cdot (0_K + 0_K) = \alpha \cdot 0_K\\
\Rightarrow &\alpha \cdot 0_K + \alpha \cdot 0_K = \alpha \cdot 0_K\tag{distrib.}\\
\Rightarrow &(\alpha \cdot 0_K + \alpha \cdot 0_K) + (-(\alpha \cdot 0_K)) = \alpha \cdot 0_K + (-(\alpha \cdot 0_K))\tag{inv. ad.}\\
\Rightarrow &\alpha \cdot 0_K + (\alpha \cdot 0_K +( -(\alpha \cdot 0_K))) = \alpha \cdot 0_K + (-(\alpha \cdot 0_K))\tag{asociat.}\\
\Rightarrow &\alpha \cdot 0_K + 0_K = 0_K\tag{inv. ad.}\\
\Rightarrow &\alpha \cdot 0_K = 0_K\tag{neutro ad.}\\
\end{align*}

Nota: Es por esta afirmación que se definen los inversos multiplicativos para los elementos distintos de $0_K$.

Característica de un campo

Definición: Sea $K$ un campo. Se le llama característica de $K$, y se denota como $car(K)$ al menor número natural $n$ tal que $\underbrace{1_K + … + 1_K}_{n} = 0_K$ si acaso existe.
En caso contrario, decimos que $car(K)$ es cero.

Obs. La característica de un campo no puede ser 1 (es decir, si no es cero, entonces es mayor o igual a 2) pues por definición $1_K \not= 0_K$. Y más que eso, resulta que si no es cero, entonces es un número primo.

Ejemplos:

  • $car(\mathbb{Z}_p) = p$
    donde $p$ es primo.

Justificación:
Sea $K = \mathbb{Z}_p = \{\overline {0},\overline {1},…,\overline {p-1}\}$ con cada uno de esos elementos distintos entre sí.
De modo que $p$ es el mínimo natural tal que $\underbrace{1_K + … + 1_K}_{p} = \underbrace{\overline{1} + … + \overline{1}}_{p}$
$= \overline {\underbrace{1 + … + 1}_{p}} = \overline{p} = \overline{0}$

  • $car(\mathbb{Q}) = car(\mathbb{R}) = car(\mathbb{C}) = 0$

Justificación:
Sea $K\in \{\mathbb{Q}, \mathbb{R},\mathbb{C} \}$.
$\underbrace{1_K + … + 1_K}_{n} = n \cdot (1_K) = n \not= 0_K$ $\forall n \in \mathbb{N}, n \not=0$

Propiedades

  • Si $K$ es un campo tal que $car(K) = 0$, entonces $K$ no tiene cardinalidad finita.

Demostración: Como $car(K) = 0$, entonces $\underbrace{1_K + … + 1_K}_{n} \not= 0_K \in K$ para cualquier $n \in \mathbb{N}$.
Así, $\{ 1_K, 1_K + 1_K, …, \underbrace{1_K + … + 1_K}_{n}, … \} \subseteq K$ y no es difícil concluir que cada uno de los elementos de este subconjunto son distintos, de modo que tiene cardinalidad no finita.

  • Si $K$ es un campo tal que $car(K) = 2$, entonces $\alpha + \alpha = 0_K$ para cualquier $\alpha \in K$.

Demostración: Por ser $1_K \in K$ el neutro aditivo de $K$ y por las propiedades de campo obtenemos que
$\alpha + \alpha = 1_K \cdot (\alpha + \alpha) = 1_K \cdot \alpha + 1_K \cdot \alpha = \alpha \cdot 1_K + \alpha \cdot 1_K = \alpha \cdot (1_K + 1_K)$
Como $car(K) = 2$, entonces $1_K + 1_K = 0_K$, por lo cual $\alpha \cdot (1_K + 1_K) = \alpha \cdot 0_K = 0_K$

  • En general, si $K$ es un campo tal que $car(K) = n \not= 0_K$, entonces $\underbrace{\alpha +…+ \alpha}_{n} = 0_K$ para cualquier $\alpha \in K$.

Demostración: Por ser $1_K \in K$ el neutro aditivo de $K$ y por las propiedades de campo obtenemos que
$\underbrace{ \alpha + … + \alpha }_{n} = 1_K \cdot (\underbrace{ \alpha + … + \alpha }_{n}) = \underbrace{ 1_K \cdot \alpha +…+ 1_K \cdot \alpha}_{n}$
$= \underbrace{ \alpha \cdot 1_K +…+ \alpha \cdot 1_K}_{n} = \alpha \cdot ( \underbrace{ 1_K +…+ 1_K}_{n})$.
Como $car(K) = n$, entonces $\underbrace{ 1_K +…+ 1_K}_{n} = 0_K$, por lo cual $\alpha \cdot ( \underbrace{ 1_K +…+ 1_K}_{n}) = \alpha \cdot 0_K = 0_K$

Tarea Moral

Sea $K$ un campo. Demuestra la unicidad de:

  1. El neutro aditivo en $K$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sabemos por la definición de campo, que existe $0_K$ neutro aditivo.
    • Primero sup. que existe ${0_K}’ \in K$ que también lo es. Con el objetivo de demostrar que $0_K = {0_K}’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $0_K = 0_K + {0_K}’ = {0_K}’$
  1. Los inversos aditivos en $K$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sea $\alpha \in K$. Sabemos por la definición de campo, que existe $(-\alpha) \in K$ inverso aditivo de $\alpha$.
    • Primero sup. que existe $(-\alpha)’ \in K$ que también lo es. Con el objetivo de demostrar que $(-\alpha) = (-\alpha)’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $(-\alpha) = (-\alpha) + 0_K = (-\alpha) + (\alpha + (-\alpha)’) = ((-\alpha) + (\alpha)) + (-\alpha)’$
    • Completa la demostración con las igualdades necesarias y justifícalas.
  1. El neutro multiplicativo en $K$.
    Para lograrlo, se te sugiere realizar igualdades análogas al neutro aditivo y justificar cada una.
  1. Los inversos multiplicativos en $K$.
    Para lograrlo, se te sugiere realizar igualdades análogas a los inversos aditivos y justificar cada una.

Más adelante…

Ahora el concepto de campo vamos a usarlo para obtener un nuevo concepto básico y central en este curso: espacio vectorial.

Entradas relacionadas

Álgebra Superior II: Principio de inducción y teoremas de recursión

Introducción

Inducción y recursión son dos conceptos similares con los que seguramente te has topado en tu formación matemática, e incluso tal vez antes. Muchas veces se llegan a confundir ambos conceptos, ya que ambos tienen una fuerte relación con el 5° axioma de Peano.

Aunque lo detallaremos a lo largo de la entrada, el principio de Inducción es una propiedad de los números naturales, que nos sirve para demostrar que todos los naturales satisfacen una propiedad. Es decir, es una estrategia de demostración. En contraste, la recursión es un resultado que justifica el hecho de poder dar una definición para todos los naturales, basándonos en la definición de su antecesor. En otras palabras, es una estrategia de definición.

Al final de la entrada demostraremos el teorema de recursión débil, en cuya prueba, podremos apreciar cómo es que depende directamente del Principio de inducción.

Pruebas por inducción

Recordemos el 5° axioma de Peano, el cual probamos en la entrada pasada que se satisface en nuestro modelo:

Si $S\subset \mathbb{N}$ satisface que

  • $0\in S$ y
  • si $n\in S$, implica que $\sigma(s)\in S$,

entonces $S=\mathbb{N}$.

Como hemos mencionado en entradas anteriores, esta proposición es muy similar al principio de Inducción que probablemente hayas ocupado desde el curso de Álgebra Superior I. Más aún, en la entrada pasada, seguimos la misma estrategia que en otros cursos, a la hora de ocupar el 5° axioma. Efectivamente, la equivalencia entre ambos resultados es casi inmediata, y como ejemplo ilustrativo, probaremos el Principio de Inducción a partir del 5° axioma de Peano.

Proposición (Principio de Inducción): Sea $P(n)$ una propiedad, es decir, una proposición matemática que depende de un entero $n$. Si se tiene que:

  1. $P(0)$ es verdadera y
  2. cada vez que $P(n)$ es cierto, también lo es $P(n+1)$,

entonces P(n) es cierta para todos los números naturales.

Demostración. Sea $P(n)$ una propiedad que satisface 1. y 2. y consideremos el conjunto $S:=\{n\in\mathbb{N}: P(n)\text{es verdadera}\}$.

Como $P(0)$ es verdadera, entonces $0\in S$.

Tomemos $n\in S$, entonces $P(n)$ es verdadera, y por 2., tenemos que $P(n+1)$ es verdadera; es decir, $n+1\in S$. Por el 5° Axioma de Peano, se tiene que $S=\mathbb{N}$, por lo que por la definición de $S$, se tiene que $P(n)$ es cierta para cada $n\in \mathbb{N}$

$\square$

Definiciones por recursión

Una de nuestras primeras ideas para poder construir a $\mathbb{N}$, fue intentar construir a mano cada elemento. Para esto, dimos una definición de lo que significaba el $0$ y el sucesor de un número. Después empezamos a iterar una y otra vez la función sucesor para obtener el sucesor del último número encontrado. Discutimos por qué es que esta idea no sería el mejor camino (sólo nos permite llegar hasta una cantidad finita de naturales), por lo tuvimos que introducir el Axioma del Infinito para resolver el problema. Veamos la analogía entre esta idea y el siguiente ejemplo intuitivo.

Ejemplo: Definamos la función factorial de un número natural, como:

  • $0!=1$
  • $(n+1)!=(n!)(n+1)$

Entonces, $3!:=(2!)(3)=(1!)(2)(3)=(0!)(1)(2)(3)=(1)(1)(2)(3)=6$.

Recordemos que al definir a los naturales, necesitábamos conocer un número para poder definir su sucesor. Aquí sucede lo mismo: en la definición de factorial necesitamos conocer quién es el factorial de un número para poder definir el factorial de su sucesor. A este tipo de definiciones se les conoce como definiciones recursivas, ya que para definir algo para un número, necesitamos tener conocimiento del valor de la función en los números anteriores.

Queda una pregunta muy importante. Si a los naturales no los pudimos definir de manera recursiva, ¿por qué podemos afirmar que la función factorial sí existe? A continuación enunciaremos algunos teoremas que nos garantizarán que sí podemos hacer este tipo de definiciones recursivas en nuestro modelo. Daremos una versión fuerte y una versión débil. Demostraremos la versión débil, pues basta para mucho de lo que queremos definir en los naturales (sumas, productos, potencias).

Las siguientes secciones son un poquito técnicas. Si las puedes seguir por completo, es fantástico. Pero incluso si no es así, basta con que en el fondo te quedes con la idea importante detrás: sí se vale definir de manera recursiva. Más adelante podrás regresar a este tema y entenderlo por completo.

Los teoremas de la recursión

Antes de la demostración principal de esta entrada, enunciaremos los teoremas que nos importan y hablaremos de manera intuitiva de lo que dicen. Hay dos versiones que veremos: una fuerte y una débil. Aunque parece que dicen cosas diferentes, en realidad son equivalentes. Será muy claro que la versión fuerte «implica» a la débil. Pero luego, en los problemas de tarea moral, se esbozará cómo ver que la versión débil se puede utilizar para demostrar la fuerte.

Teorema (Recursión Fuerte): Sea $X$ un conjunto y $x_{0}\in X$. Supongamos que tenemos varias funciones (una por cada natural $i$) $$\{f_{i}:X\to X\}_{i\in\mathbb{N}\setminus \{0\}.$$ Entonces existe una única función $g:\mathbb{N}\to X$ tal que:

  • $g(0)=x_{0}$
  • $g(\sigma(n))=f_{\sigma(n)}(g(n))$.

¿Qué es lo que quiere decir este teorema? Para responder esta pregunta veamos el siguiente diagrama:

Nuestro diagrama empieza en $0$, el cual queremos que sea mandado a algún $x_{0}\in X$, para la definición de los demás números, ocupamos la segunda característica que esperamos que $g$ satisfaga. Por ejemplo $g(1)=g(\sigma(0))=f_{1}(g(0))=f_{1}(x_{0})$. Este análisis coincide con lo que nos presenta el primer cuadro de flechas del diagrama anterior, que nos presenta los dos caminos que debe satisfacer $g$, para que sea la función que queremos. Como da lo mismo si «primero aplicamos $\sigma$ y luego $g$», a que si «primero aplicamos $g$ y luego $f_1$», decimos que el primer cuadrado del diagrama conmuta.

Análogamente, ya que conocemos la definición de $g(1)$ podemos fijarnos en el segundo cuadro, para poder definir $g(2)$ (de nuevo, conmuta) y seguir «recursivamente» para cualquier número natural.

Ejemplo: ¿Qué conjunto, y qué funciones necesitamos para definir el factorial?

Consideremos $X=\mathbb{N}$, definiremos intuitivamente (ya que aún no lo hemos definido formalmente), $f_{i}:\mathbb{N}\longrightarrow \mathbb{N}$, como $f_{i}(n)=i\cdot n$, es decir, el producto por $i$.

El teorema de Recursión Fuerte, nos dice que existe una única función $g$ tal que

  • $g(0)=1$
  • $g(\sigma(n))=f_{\sigma(n)}(g(n))=\sigma(n)\cdot g(n)$

Denotemos $n!:=g(n)$. Entonces tenemos que $\sigma(n)!=n!\cdot \sigma(n)$, justo como queremos.

$\square$

El teorema de Recursión Débil y su demostración

El teorema de Recursión Débil tiene un enunciado parecido al teorema de recursión fuerte y puede ser visto como una consecuencia directa del teorema anterior pues se obtiene de la versión fuerte tomando $f_{1}=f_{2}=\ldots=f_{n}=\ldots$

Teorema (Recursión Débil): Sea $X$ un conjunto y $x_{0}\in X$. Supongamos que tenemos una función $f:X\to X$. Entonces existe una única función $g:\mathbb{N}\to X$ tal que:

  • $g(0)=x_{0}$
  • $g(\sigma(n))=f(g(n))$.

Para concluir con esta entrada, probaremos el teorema de Recursión Débil. Antes de hacer esto introducimos un concepto auxiliar y una propiedad de los naturales.

Recordemos que como conjunto, $m=\{0,1,…,m-1\}$, lo que sugiere la siguiente definición.

Definición: Si $n,m\in \mathbb{N}$, decimos que $n<m$ si $n\in m$.

Puede probarse que esta relación en $\mathbb{N}$ es un orden total, y que sastisface la siguiente propiedad.

Teorema (Principio el Buen Orden): Sea $S\subset\mathbb{N}$ un conjunto no vacío, es decir $S\neq \emptyset$. Entonces $S$ tiene un elemento mínimo. Es decir, existe $n\in S$ tal que $n<m$ para todo $m\in S\setminus\{n\}$.

La prueba del Principio del Buen Orden y más propiedades de $<$ serán estudiadas con mayor detalle en entradas posteriores. Con esto en mente demostramos el teorema de Recursión Débil.

Demostración. Recordemos que por definición, toda función con dominio $A$ y codominio $B$, es un subconjunto de $A\times B$, por lo que una buena idea es analizar el conjunto $\wp(\mathbb{N}\times X)$, definamos

\[\Re:=\{R\in\wp(\mathbb{N}\times X)\mid (0,x_{0})\in R \text{ y si }(n,x)\in R\text{, entonces }(\sigma(n),f(x))\in R\}\]

Esta definición se ve terriblemente complicada. Pero la intuición es clara: $\Re$ tiene a todas las posibles colecciones de parejas de $\mathbb{N}\times X$ que cumplen lo que queremos. El problema es que muchas de ellas no son funciones y tenemos que «arreglar esto».

Probablemente, notarás alguna similitud entre el conjunto $\Re$ y el conjunto de los subconjuntos inductivos (que se menciona en La construcción de los naturales). Siguiendo esta analogía, definiremos $g:=\bigcap \Re$ (podemos hacer esta intersección ya que $\Re$ no es vacío pues $\mathbb{N}\times X$ está en $\Re$).

  • Demostremos que $g\in \Re$:

Por las propiedades de la intersección, tenemos que $g\subset\mathbb{N}\times X$, por lo que $g\in \wp(\mathbb{N}\times X)$. Veamos que $(0,x_{0})\in g$. Sea $R\in\Re$ arbitrario, entonces $(0,x_{0})\in R$, por lo que $(0,x_{0})\in\bigcap \Re=g$. Por último, si $(n,x)\in g$, demostremos que $(\sigma(n),f(x))\in g$, para esto, sea $R\in \Re$ arbitrario, como $(n,x)\in g$, entonces $(n,x)\in R$, por lo que $(\sigma(n),f(x))\in R$. Es decir, $(\sigma(n), f(x))\in\bigcap \Re=g$. Por todo lo anterior, $g\in\Re$.

  • Veamos ahora que $Dom(g)=\mathbb{N}$:

Usemos el quinto axioma de Peano, como $(0,x_{0})\in g$, entonces $0\in Dom(g)$. Supongamos ahora que $n\in Dom(g)$ y demostremos que $\sigma(n)\in Dom(g)$, por la hipótesis de inducción, existe $x\in X$ tal que $(n,x)\in g$, y como $g\in\Re$, tenemos que $(\sigma(n),f(x))\in g$, pero esto quiere decir que $\sigma(n)\in Dom(g)$. Entonces $Dom(g)$ es inductivo, entonces $Dom(g)=\mathbb{N}$.

  • Demostremos ahora que $g$ sí es función. Para esto, tenemos ver que «cada natural se va a un sólo elemento», en símbolos, si $(n,x),(n,y)\in g$ entonces $n=m$

Aquí es donde ocuparemos el Principio del Buen Orden. Consideremos $S:=\{n\in\mathbb{N}\mid (n,x),(n,y)\in g \text{ y } x\neq y \}$. Procedamos por contradicción, supongamos que $S\neq\emptyset$, entonces, $S$ tiene un elemento mínimo, denotémoslo por $n$.

Si $n=0$, entonces existe $x\in X$ tal que $(0,x)\in X$ y $x\neq x_{0}$. Entonces consideremos $g’=g\setminus\{(0,x)\}$. Notemos que $g’\in\Re$, ya que $(0,x_{0})\in g’$, ya que $(0,x_{0})\neq (0,x)$. Además si $(k,a)\in g’$, entonces $(k,a)\in g$, por lo que $(\sigma(k),f(a))\in g$, y como $0$ nunca es el sucesor de otro número, tenemos que $(\sigma(k),f(a))\neq(0,x)$, por lo tanto $(\sigma(k),f(a))\in g’$, es decir, $g’\in \Re$, lo que implica que $g=\bigcap \Re\subset g’=g\setminus\{(0,x)\}$ lo cual es absurdo, por lo que $n\neq 0$.

Como $n\neq 0$, debemos tener que existe $m$ tal que $\sigma(m)=n$ ¿Por qué?. Y como $n$ es el mínimo en $S$, tenemos que $m\not\in S$, es decir, existe un único $x\in X$ tal que $(m,x)\in g$, esto implica que $(\sigma(m),f(x))=(n,f(x))\in g$, y como $n\in S$, debe existir $y\in X$, $y\neq f(x)$ tal que $(n,y)\in g$. Análogamente a como lo hicimos antes, consideremos $g’=g\setminus (n,y)$ y veamos que $g’\in \Re$. Como $(n,y)\neq(0,x_{0})$, tenemos que $(0,x_{0})\in g’$. Más aún, si $(k,a)\in g’$, demostremos que $(\sigma(k),f(a))\in g’$, para esto supongamos que no.

Como $(k,a)\in g’$, tenemos que $(k,a)\in g$, por lo que $(\sigma(k),f(a))\in g$, esto implica que $(\sigma(k),f(a))=(n,y)$ ya que este es el único elemento de $g$ que no está en $g’$. Como $\sigma(k)=n=\sigma(m)$, concluimos, por la inyectividad de $\sigma$, que $k=m$. Esto quiere decir que $(k,a)=(m,a)\in g$, pero recordando que $x$ es el único elemento relacionado con $m$, concluimos que $x=a$, en síntesis, $(k,a)=(m,x)$, por lo que $(\sigma(k),f(a))=(\sigma(m),f(x))=(n,f(x))\neq(n,y)$. Esto implica que $(\sigma(k), f(a))\in g’$, contradiciendo nuestra suposición de que no lo estaba.

Entonces hemos probado que $(0,x_{0})\in g’$ y que cada vez que $(k,a)\in g’$, también lo está $(\sigma(k), f(a))$. Esto quiere decir que $g’\in\Re$, y como lo hicimos anteriormente, tendremos que $g=\bigcap \Re\subset g’=g\setminus\{(n,y)\}$, lo cual es una contradicción. Esto quiere decir, que suponer que $S$ tiene un elemento mínimo, es absurdo, por lo que $S=\emptyset$. Lo que traducido quiere decir que para todo $n\in\mathbb{N}$, existe un único $x\in X$ tal que $(n,x)\in g$. Es decir, que $g$ sí es una función.

  • Demostremos que $g$ satisface las dos propiedades del Teorema.

Ya vimos que $g\in \Re$, por lo que $g(0)=x_{0}$. Sea ahora $n\in \mathbb{N}$ y $x=g(n)$, de nuevo, como $g\in\Re$, tenemos que $g(\sigma(n))=f(x)=f(g(n))$.

  • Por último, demostremos la unicidad de $g$

Si $h:\mathbb{N}\longrightarrow X$ es otra función que satisface las características del Teorema, consideremos $A=\{n\in\mathbb{N}\mid h(n)=g(n)\}$, como $h(0)=x_{0}=g(0)$. Tenemos que $0\in A$. Supongamos que $n\in A$. Tendríamos entonces que $h(\sigma(n))=f(h(n))=f(g(n))=g(\sigma(n))$, es decir que $\sigma(n)\in\A$, por lo que $A$ es inductivo, y por consiguiente, $A=\mathbb{N}$. En resumen, $h$ y $g$, coinciden en dominio, codominio y regla de correspondencia, entonces $h=g$, como debíamos probar.

$\square$

La demostración del teorema de Recursión Fuerte requiere de algunos detalles adicionales, pero puede deducirse del teorema de Recursión Débil. Dejamos esto como uno de los problemas de la tarea moral.

Tarea Moral

  1. Demuestra el 5° Axioma de Peano a partir del Principio de Inducción
  2. Demuestra que si $n\neq 0$ entonces existe $m$ tal que $\sigma(m)=n$.
  3. ¿Qué función $g$, satisface que $g(0)=1$ y $g(\sigma(n))=2\cdot g(n)$? ¿Qué función $f$ estamos ocupando?
  4. ¿Qué conjunto y que función nos permitiría definir la sucesión de Fibonacci $a_{n+2}=a_{n+1}+a_{n}$ usando el Teorema de Recursión?
  5. Demuestra el Teorema de Recursión Fuerte, usando el Débil. Sugerencia: Considera, $F(n,x):\mathbb{N}\times X\longrightarrow \mathbb{N}\times X$, como $F(n,x)=(\sigma(n),f_{\sigma(n)}(x))$

Más adelante…

El teorema de Recursión será la mayor herramienta que tendremos para poder darle una forma más familiar a los números naturales, ya que las operaciones de suma y multiplicación, que veremos en la siguiente entrada, tendrán una definición recursiva.

Y así como el teorema de la Recursión nos permitirá definir, usaremos continuamente el principio de Inducción para poder demostrar las numerosas propiedades que estas operaciones tienen.

Entradas Relacionadas

Álgebra Superior II: La construcción de los naturales

Introducción

En la entrada pasada presentamos los axiomas de Peano como una forma de abordar el problema de por qué los naturales se comportan como nuestra intuición nos indica. Sin embargo, también vimos que esta solución no respondía la pregunta de por qué existen los naturales dentro de la formalización matemática con la que estamos trabajando. Por esta razón, introdujimos la definición del sucesor de un conjunto arbitrario y empezamos a iterarla en el conjunto vacío para generar una lista de conjuntos, que relacionamos con los números naturales que conocemos.

Por último, notamos que ocupar esta idea, al menos de forma directa, nos llevaría al problema de nunca acabar de definir a todos los números naturales y, por lo tanto, no poder definir en sí el conjunto de los naturales.  Es por eso que en esta entrada acabaremos, de una vez por todas, con el problema de definir con precisión el conjunto de números naturales y ver que, en efecto, esta construcción que haremos se apega a no sólo a nuestra intuición, sino también a los axiomas de Peano.

Conjuntos inductivos

Antes de empezar con la tarea de definir a los números naturales, recordamos la definición del sucesor de un conjunto.

Definición: Si $A$ es un conjunto, definimos el sucesor de $A$, como $\sigma(A):=A\cup \{A\}$.

Como mencionamos en las notas pasadas, buscamos que \[\mathbb{N}=\{\emptyset,\sigma(\emptyset),\sigma(\sigma(\emptyset)),…\},\] por lo que $\mathbb{N}$, satisfaría dos propiedades que englobamos en la siguiente definición.

Definición: Diremos que un conjunto $S$ es inductivo si cumple que:

  1. $\emptyset\in\mathbb{N}$ y
  2. si $X\in S$, entonces $\sigma(X)\in S$.

Notemos que estas dos propiedades son muy similares a los dos primeros axiomas de Peano.

Hay que remarcar que aunque no sabemos que exista un conjunto tal que sus elementos son $\emptyset,\sigma(\emptyset),\sigma(\sigma(\emptyset)),…$, en caso de que sí existiera, sería un hecho que tal conjunto sería inductivo.

Otro posible ejemplo de un conjunto inductivo podría verse como \[\{…\sigma(\sigma(\{\{\emptyset\}\})), \sigma(\{\{\emptyset\}\}), \{\{\emptyset\}\},\emptyset,\sigma(\emptyset),\sigma(\sigma(\emptyset)),…\}.\] Intuitivamente podemos notar que si $S$ es un conjunto inductivo, entonces, $\mathbb{N}\subset S$, por lo que uno podría aventurarse y definir a los naturales como $\{x:  x \text{ está en todo conjunto inductivo}\}$. Sin embargo, los axiomas que de teoría de conjuntos que tenemos hasta ahora no nos permiten saber si existe un conjunto así.

A pesar de que como se dijo, el hacer esto no es correcto, la idea es muy interesante y útil, ya que motiva la siguiente proposición acerca de la intersección de conjuntos inductivos.

Proposición: Si $B\neq\emptyset$ es un conjunto tal que todos sus elementos son inductivos, entonces $\bigcap {B}$ es también un conjunto inductivo.

Demostración. Como $B\neq\emptyset$, sabemos que la intersección sí es un conjunto. Veamos que este conjunto es inductivo.

Antes de hacer esto recordemos que por definición, los elementos de $\bigcap{B}$ son precisamente, todos los $x$ tales que $x\in Y$ para todo $Y\in B$.

Para ver que $\bigcap B$ es inductivo, necesitamos verificar que cumpla las dos características de la definición:

  1. $\emptyset\in\bigcap B$: Sea $Y\in B$ arbitrario, como los elementos de $B$ son inductivos, $\emptyset\in Y$, y como $Y$ es arbitrario, podemos concluir que $\emptyset$ está en todos los elementos de $B$, pero esta es la definición de que $\emptyset\in \bigcap B$.
  2. $x\in \bigcap B \Rightarrow \sigma(x)\in \bigcap B$: Sea $x\in \bigcap B$, veamos que $\sigma(x)\in \bigcap B$. Sea $Y\in B$, como $x\in\bigcap B$, entonces $x\in Y$ y como $Y$ es inductivo, $\sigma(x)\in Y$. De nuevo, como $Y$ es arbitrario, se sigue que $\sigma(x)$ está en todos los elementos de B, por lo que $\sigma(x)\in\bigcap B$.

Con esto demostramos que $\bigcap B$ es inductivo.

$\square$

En otras palabras, «la intersección arbitraria de conjuntos inductivos es un conjunto inductivo».

El axioma del infinito

Por todo lo escrito anteriormente, y meditando el hecho de que si partimos de los primeros axiomas de la teoría de conjuntos, sólo podemos crear conjuntos con una cantidad finita de elementos, parece ser que la existencia de un conjunto como los naturales, no podrá ser deducida con las herramientas que tenemos. Esto en efecto es así. Por ello, debemos introducir un nuevo axioma de la teoría de conjuntos.

Axioma del infinito: Existe un conjunto inductivo.

El axioma del infinito no nos garantiza inmediatamente la existencia de $\mathbb{N}$, ya que como se vio en el ejemplo, $\mathbb{N}$ no es el único conjunto inductivo. Sin embargo, esta es la última pieza que necesitamos para poder construir a los naturales. Hacemos esto a continuación.

Sea $A$ algún conjunto inductivo (que nos garantiza el axioma del infinito), y consideremos $B=\{X\subset A \mid X \text{ es inductivo}\}$ (¿por qué B es un conjunto?). Notemos que $A\in B$ por lo que $B$ es no vacío, por lo tanto, podemos pensar en su intersección, $\bigcap B$. Como los elementos de $B$ son conjuntos inductivos, por la proposición anterior concluimos que $\bigcap B$ es inductivo. A esta intersección la denotaremos como $\mathbb{N}_{A}$. ¡Ya apareció por primera vez el símbolo de números naturales! Pero tiene algo adicional: usamos un subíndice $A$ ya que a primera vista, su construcción depende del conjunto inductivo $A$ con el que empezamos. Sin embargo, justamente, el paso siguiente será ver que $\mathbb{N}_{A}$ no depende de $A$.

Para ello, primero hacemos la observación de que si $Y\subset A$ es inductivo, entonces $\mathbb{N}_{A}\subset Y$, la cual te dejamos corroborar usando las propiedades de la intersección. Dicho esto, probamos lo siguiente.

Proposición: Si $C$ es otro conjunto inductivo, entonces $\mathbb{N}_{A}= \mathbb{N}_{C} $.

Demostración. Consideremos $\mathbb{N}_{A} \cap \mathbb{N}_{C} $, el cual sabemos que es un conjunto inductivo. Como $\mathbb{N}_{A} \cap \mathbb{N}_{C} \subset A$, por la observación anterior, concluimos que $\mathbb{N}_{A} \subset \mathbb{N}_{A} \cap \mathbb{N}_{C} $. Como la intersección está contenida en cada intersecando, $\mathbb{N}_{A} \subset \mathbb{N}_{A} \cap \mathbb{N}_{C}\subset\mathbb{N}_{A} $, por lo que $\mathbb{N}_{A} = \mathbb{N}_{A} \cap \mathbb{N}_{C} $. Haciendo las mismas observaciones para $\mathbb{N}_{C}$, concluimos que $\mathbb{N}_{A} = \mathbb{N}_{A} \cap \mathbb{N}_{C}= \mathbb{N}_{C} $, con lo que concluimos la prueba.

$\square$

Como sabemos ahora que el conjunto $\mathbb{N}_{A}$ no depende del conjunto $A$ inductivo con el que empecemos, finalmente podemos definir al conjunto de números naturales.

Definición: Si $A$ es algún conjunto inductivo, definimos $\mathbb{N}:=\mathbb{N}_{A}$, definimos $0:=\emptyset$ y la función sucesor como $\sigma:\mathbb{N}\to \mathbb{N}$ tal que $\sigma(n)=n\cup \{n\}$.

Un modelo para los axiomas de Peano

Para concluir esta entrada veremos que los números naturales que hemos construido en la sección anterior se comportan justo como dicen nuestra intuición y los axiomas de Peano. En realidad, la construcción de la función sucesor y del conjunto $\mathbb{N}$ fue siempre motivada por estas ideas, por lo que no deberá ser difícil probar que en verdad todo funciona como queremos.

Teorema: El conjunto $\mathbb{N}$ junto con $0$ y $\sigma$, satisfacen los cinco axiomas de Peano.

Demostración. Veamos que se verifican los cinco axiomas de Peano.

$0\in\mathbb{N}$: como $\mathbb{N}$ es inductivo, $0=\emptyset\in\mathbb{N}$.

Si $n\in \mathbb{N}$, entonces $\sigma(n)\in\mathbb{N}$: Si $n\in\mathbb{N}$, como $\mathbb{N}$ es inductivo, se sigue que $\sigma(n)\in\mathbb{N}$.

Para toda $n\in\mathbb{N}$ se tiene que $\sigma(n)\neq 0$: Como $\sigma(n)=n\cup\{n\}$, tenemos que $n\in\sigma(n)$ por lo que $\sigma(n)\neq\emptyset=0$.

Si $\sigma(n)=\sigma(m)$, entonces $n=m$: Como $\sigma(n)=\sigma(m)$ y $n\in\sigma(n)$, $n\in\sigma(m)= m\cup\{m\}$, de donde $n\in\{m\}$ o $n\in m$. Si $n\in \{m\}$, entonces $n=m$ y concluimos.

Si $n\in m$, veamos que podemos decir de m, procediendo análogamente, podemos notar que $m=n$ o $m\in n$, en el primer caso, llegamos a lo que queremos, si se da el segundo caso habremos demostrado que $n\in m\in n$ lo cual contradice el axioma de Regularidad.

Si $S\subset\mathbb{N}$ tal que $0\in S$ y $n\in S \Rightarrow \sigma(n)\in S$, entonces $S=\mathbb{N}$: Notemos que las hipótesis de $S$, implican que este es un conjunto inductivo, por lo que $\mathbb{N}=\mathbb{N}_{S}\subset S\subset \mathbb{N}$ por lo que en efecto, ambos conjuntos son iguales.

$\square$

Notemos que todos los axiomas salieron de forma casi inmediata de la definición de $\mathbb{N}$ o de la definición de $\sigma$, justo como esperábamos.

Tarea moral

  • Completa los detalles sobre por qué el conjunto $B$, de los conjuntos inductivos de $A$, sí existe. Necesitarás usar un axioma muy específico de la teoría de conjuntos.
  • Demuestra que si $x\subset y\subset\sigma(x) $, entonces $y=x$ o $y=\sigma(x)$.
  • Si aún no estás tan acostumbrado a las intersecciones arbitrarias, considera la definición de $\mathbb{N}’:=\{x\in A:  x \text{ está en todo conjunto inductivo}\}$ ¿Cómo se relaciona el axioma del Infinito, con el hecho de que esto sí es un conjunto?
  • Esboza una demostración de que $\mathbb{N}’=\mathbb{A}$.
  • Usa el Principio de Inducción para demostrar que si $n\neq 0$, entonces $n=\{0, 1, 2, …, n-1\}$.

Más adelante…

Ya que construimos a los números naturales, y vimos que en verdad funcionan como esperábamos, nuestro siguiente objetivo, será definir una suma, un producto y un orden en este conjunto. Así como lo hicimos con los axiomas de Peano, veremos que nuestras definiciones coincidirán con las propiedades que conocemos.

Para hacer esto seguiremos pensando en la definición conjuntista que hemos dado de los naturales y no sólo en los axiomas de Peano. Aunque sí nos basaremos fuertemente en ellos, sobre todo en el quinto axioma. A este lo conocemos como principio de inducción y tendrá su mayor aplicación a la hora de demostrar el teorema de la recursión, el cual a su vez la herramienta que tendremos para definir la suma y producto en los naturales.

Entradas relacionadas