Archivo de la categoría: Sin clasificar

Enunciado del teorema de Stone-Weierstrass y primera parte de la demostración

Por Lizbeth Fernández Villegas

$\textit{MATERIAL EN REVISIÓN}$

Introducción

En la entrada anterior aprendimos que es posible acercarnos a funciones continuas que tienen su dominio en un intervalo cerrado en $\mathbb{R}.$ En esta sección probaremos que esta idea puede generalizarse en funciones cuyo dominio es un espacio métrico compacto. Presentamos el teorema y la demostración de dos lemas que usaremos para probarlo.

Teorema. Stone-Weierstrass. Sea $K$ un espacio métrico compacto. Sea $A \subset \mathcal{C}^0(K, \mathbb{R}),$ es decir, $A$ es un conjunto de funciones continuas de $K$ en $\mathbb{R}.$ Si $A$ satisface las siguientes propiedades:

a) Para cada $\lambda, \mu \, \in \mathbb{R}$ y $f,g \in A$ se cumple que $$\lambda f + \mu g \, \in A.$$ Esto es, $A$ es cerrado bajo combinaciones lineales.

b) Para cada $f,g \in A$ se cumple que $$f \cdot g \, \in A.$$ Esto es, $A$ es cerrado bajo producto de funciones.

c) $1 \in A,$ donde $1$ es la función constante que para cada $x \in K$ asigna el valor $1.$

d) Para cualesquiera $x_1, x_2 \in K$ tales que $x_1 \neq x_2$ existe una función $\varphi \in A$ tal que $\varphi (x_1) \neq \varphi(x_2).$

Entonces $A$ es denso en $\mathcal{C}^0(K, \mathbb{R}),$ es decir, $\overline{A}=\mathcal{C}^0(K, \mathbb{R}).$

Nota que esto significa que toda función continua $f: K \to \mathbb{R}$ está en la cerradura de $A$ y por lo visto en la entrada Convergencia, tenemos que $f$ puede aproximarse con funciones en $A$ según la métrica uniforme $d_\infty.$

La demostración de este teorema se hará a través de cuatro lemas. En el primero garantizaremos la existencia de una función que tome dos valores específicos en dos puntos específicos.

Lema 1: Sean $K$ y $A$ como en las hipótesis del teorema. Dados $x_1 \neq x_2 \in K$ y $c_1, c_2 \in \mathbb{R}$ existe $f \in A$ tal que $f(x_1) = c_1$ y $f(x_2) = c_2.$

Demostración:
De acuerdo con el inciso d), existe $\varphi \in A$ tal que $\varphi (x_1) \neq \varphi (x_2).$

Representación $\varphi \in A$ tal que $\varphi (x_1) \neq \varphi (x_2).$

Sin embargo buscamos $f$ que en $x_1$ vale específicamente $c_1$ y en $x_2$ vale $c_2.$

Representación de $f$ que en $x_1$ vale $c_1$ y en $x_2,$ $c_2.$

Veamos si dicha $f$ puede obtenerse como combinación lineal de $\varphi$ y la función constante $1,$ es decir que $f(x) = \lambda \varphi(x) + \mu 1$ para algunos $\lambda, \mu \in \mathbb{R}.$

Encontrar $\lambda$ y $\mu$ que satisfacen lo deseado equivale a resolver el sistema de ecuaciones

\begin{equation*}
\left\{
\begin{array}
\lambda \lambda \varphi(x_1) + \mu &= c_1 \\
\lambda \varphi(x_2) + \mu &= c_2
\end{array}
\right.
\end{equation*}

Según las fórmulas de Cramer para sistemas cuadrados, que pueden consultarse en Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer la solución existe y es única si y solo sí el determinante de la matriz de coeficientes dada por

\begin{equation*}
\left|
\begin{array}{cc}
\varphi(x_1) & 1 \\
\varphi(x_2) & 1
\end{array}
\right|
\end{equation*}

satisface:

\begin{equation*}
\left|
\begin{array}{cc}
\varphi(x_1) & 1 \\
\varphi(x_2) & 1
\end{array}
\right| = \varphi(x_1) \, – \, \varphi(x_2) \neq 0
\end{equation*}

Lo cual sí ocurre, pues $\varphi(x_1) \neq \varphi(x_2) \, \Rightarrow \, \varphi(x_1) \, – \, \varphi(x_2) \neq 0.$

Por lo tanto existe la solución única al sistema de ecuaciones y así existe $f \in A$ con $f(x) = \lambda \varphi(x) + \mu \,$ tal que $\, f(x_1) = c_1$ y $f(x_2) = c_2.$

Lema 2: Si $A \subset \mathcal{C}^0(K, \mathbb{R})$ es tal que tiene las propiedades a), b), c) del teorema, entonces $\overline{A}$ también las tiene.

Demostración:
a) Sean $\lambda, \mu \in \mathbb{R}$ y $\varphi, \, \gamma \in \overline{A},$ queremos probar que $\lambda \varphi + \mu \gamma$ también está en $\overline{A}.$

Como $\varphi \in \overline{A}$ entonces, por lo visto en Convergencia sabemos que existe una sucesión $(f_n)_{n \in \mathbb{N}} \,$ de elementos de $A$ tales que $f_n \to \varphi,$ es decir

\begin{align}
\underset{n \to \infty}{lim} \, f_n = \varphi.
\end{align}

De igual manera existe una sucesión $(g_n)_{n \in \mathbb{N}} \,$ de elementos de $A$ tales que $g_n \to \gamma,$ es decir

\begin{align}
\underset{n \to \infty}{lim} \, g_n = \gamma.
\end{align}

Ya que para cada $n \in \mathbb{N}$ se cumple que $\lambda f_n + \mu g_n \, \in A.$ Si demostramos que la sucesión $(\lambda f_n + \mu g_n)_{n \in \mathbb{N}} \, $ converge a $\lambda \varphi + \mu \gamma \,$ esto probaría que $ \lambda \varphi + \mu \gamma \in \overline{A}.$ Probemos que $\underset{n \to \infty}{lim} \, d_\infty(\lambda f_n + \mu g_n, \, \lambda \varphi + \mu \gamma)=0.$ Sea $\varepsilon >0.$ Por 1) y 2) sabemos que existen $N_1$ y $N_2 \in \mathbb{N}$ tales que para cada $n \geq N_1,$

$$d_\infty(f_n, \varphi) < \frac{\varepsilon}{2|\lambda|}$$

Y así

\begin{align*}
\textcolor{blue}{|\lambda|d_\infty(f_n, \varphi) < \frac{\varepsilon}{2}}
\end{align*}

Y para cada $n \geq N_2,$

$$d_\infty(g_n, \gamma) < \frac{\varepsilon}{2|\mu|}$$

Y así

\begin{align*}
\textcolor{purple}{|\mu|d_\infty(g_n, \gamma) < \frac{\varepsilon}{2}}.
\end{align*}

Entonces para cada $n \geq max\{N_1,N_2\}$ y para cada $x \in K$ tenemos:
\begin{align*}
d(\lambda f_n(x) + \mu g_n(x), \, \lambda \varphi(x) + \mu \gamma(x)) &= |\lambda f_n(x) + \mu g_n(x) \, – \, \lambda \varphi(x) \, – \, \mu \gamma(x)|\\
&= |\lambda f_n(x) \, – \, \lambda \varphi(x)+ \mu g_n(x) \, – \, \mu \gamma(x)|\\
&\leq |\lambda f_n(x) \, – \, \lambda \varphi(x)|+ |\mu g_n(x) \, – \, \mu \gamma(x)|\\
&= |\lambda|| f_n(x) \, – \, \varphi(x)|+ |\mu|| g_n(x) \, – \, \gamma(x)|\\
&\leq \textcolor{blue}{|\lambda|d_\infty(f_n,f)}+ \textcolor{purple}{|\mu|d_\infty(g_n, \gamma)}\\
&<\textcolor{blue}{\frac{\varepsilon}{2}}+\textcolor{purple}{\frac{\varepsilon}{2}}\\
&= \varepsilon.
\end{align*}

Por lo tanto $d_\infty(\lambda f_n + \mu g_n, \, \lambda \varphi + \mu \gamma) \to 0$ y así $(\lambda f_n + \mu g_n)_{n \in \mathbb{N}} \, \to \, \lambda \varphi + \mu \gamma$ lo que demuestra que $\lambda \varphi + \mu \gamma \, \in \overline{A}.$

b) Buscamos demostrar que para cualesquiera $\varphi, \, \gamma \in \overline{A}$ también se cumple que $\varphi \cdot \gamma \in \overline{A}.$

Ya que para cada $n \in \mathbb{N}$ se cumple que $f_n \cdot g_n \, \in A.$ Si demostramos que la sucesión $(f_n \cdot g_n)_{n \in \mathbb{N}} \, $ converge a $\varphi \cdot \gamma \,$ esto probaría que $ \varphi \cdot \gamma \in \overline{A}.$

Probemos entonces que $\, \underset{n \to \infty}{lim} \, d_\infty(f_n \cdot g_n, \, \varphi \cdot \gamma) = 0.$ Esto se logrará si conseguimos acotar el valor de $d(f_n (x) \cdot g_n(x), \, \varphi(x) \cdot \gamma(x)) \in \mathbb{R}$ para cada $x \in K.$

Dado que $\varphi, \, \gamma$ son continuas en un compacto, concluimos que son acotadas en el dominio. Así existen reales mayores que cero $M_1$ y $M_2$ tales que para cada $x \in K:$

\begin{align}
\textcolor{green}{|\varphi(x)|}&\leq \textcolor{green}{M_1}\, \, \text{ y }\\
|\gamma(x)|&\leq M_2.
\end{align}

Por otro lado, como $\underset{n \to \infty}{lim} \, g_n = \gamma,$ existe $N_3 \in \mathbb{N}$ tal que para cada $n \geq N_3, \, |g_n(x) \, – \, \gamma(x)| \leq 1.$ Entonces

\begin{align*}
&&-1 &\leq & &g_n(x) \, – \, \gamma(x)& &\leq 1\\
&\Rightarrow& -1+\gamma(x) &\leq& &g_n(x)& &\leq 1+\gamma(x)\\
&\Rightarrow& -1-M_2 \leq -1+\gamma(x) &\leq& &g_n(x)& &\leq 1+\gamma(x) \leq 1+M_2
\end{align*}

Por lo tanto si $n \geq N_3,$

\begin{align}
\textcolor{orange}{|g_n(x)|}\leq \textcolor{orange}{M_2 +1}.
\end{align}

Además, por 1) y 2) sabemos que para cada $\varepsilon >0$ existen $N_4$ y $N_5 \in \mathbb{N}$ tal que para cada $n \geq N_4$

$$\textcolor{purple}{d_\infty(f_n, \varphi) < \frac{\varepsilon}{2(M_2+1)}},$$

y para $n \geq N_5,$

$$\textcolor{magenta}{d_\infty(g_n, \gamma) < \frac{\varepsilon}{2M_1}}.$$

De lo anterior se sigue que para cada $n \geq max \{N_3, N_4, N_5\}$

\begin{align*}
|f_n (x) \cdot g_n(x) \, – \, \varphi(x) \cdot \gamma(x)|&= |f_n (x) \cdot g_n(x) \, \textcolor{blue}{- \, \varphi(x) \cdot g_n(x)+\varphi(x) \cdot g_n(x)}- \, \varphi(x) \cdot \gamma(x)|\\
&\leq |f_n (x) \cdot g_n(x) \, – \, \varphi(x) \cdot g_n(x)|+|\varphi(x) \cdot g_n(x)- \, \varphi(x) \cdot \gamma(x)|\\
&= \textcolor{orange}{|g_n(x)|}\cdot|f_n(x) \, – \, \varphi(x)|+\textcolor{green}{|\varphi(x)|}\cdot |g_n(x)-\gamma(x)|\\
&\leq \textcolor{orange}{(M_2 +1)}\textcolor{purple}{|f_n(x) \, – \, \varphi(x)|} + \textcolor{green}{M_1} \textcolor{magenta}{|g_n(x)-\gamma(x)|}\\
&< (M_2 +1)\textcolor{purple}{\frac{\varepsilon}{2(M_2+1)}} + M_1\textcolor{magenta}{\frac{\varepsilon}{2M_1}}\\
&= \varepsilon
\end{align*}

Por lo tanto $\, \underset{n \to \infty}{lim} \, d_\infty(f_n \cdot g_n, \, \varphi \cdot \gamma) = 0$ y así $(f_n \cdot g_n)_{n \in \mathbb{N}} \, \to \, \varphi \cdot \gamma \,$ lo que demuestra que $\varphi \cdot \gamma \in \overline{A}.$

c) Dado que la función $1 \in A$ se sigue que $1 \in \overline{A}$ pues $A \subset \overline{A}.$

Más adelante…

Veremos dos lemas más que necesitamos en la demostración del teorema de Stone-Weierstrass. Por el momento sugerimos trabajar con los siguientes ejercicios para desarrollar más la idea de densidad.

Tarea moral

  1. Sea $X$ un espacio métrico y sean $Z$ y $Y$ tales que $Z \subset Y \subset X$ y $Z$ es denso en $X.$ Demuestra que $Y$ es denso en $X.$
  2. Sea $\phi: X \to Y$ continua y suprayectiva. Demuestra que si $A$ es denso en $X,$ entonces $\phi(A)$ es denso en $Y.$
  3. Antes dos definiciones:
    Un conjunto $A$ es a lo más numerable si existe una función inyectiva $f:A \to \mathbb{N}.$
    Un espacio métrico es separable si contiene un subconjunto que es a lo más numerable y denso en $X.$
    Demuestra que todo espacio métrico compacto es separable. Se recomienda tomar un conjunto finito de bolas de radio $\frac{1}{k}$ para cada $k \in \mathbb{N}$ cuya unión es $X.$

Bibliografía

Enlaces

Polinomios de Bernstein

Por Lizbeth Fernández Villegas

$\textit{MATERIAL EN REVISIÓN}$

Introducción

Es sabido que existen funciones que no es tan sencillo evaluar en todos los puntos de su dominio. Sin embargo, cuando la función $f$ es $n-$veces derivable en un punto $a$ podemos definir polinomios de Taylor $T_{n, \, a}$ (ver entrada Cálculo Diferencial e Integral I: Polinomios de Taylor (Parte 1)). Conforme aumentamos el grado del polinomio más nos acercamos al valor real de $f,$ incluso tenemos resultados en relación al residuo de Taylor (ver Cálculo Diferencial e Integral I: Polinomios de Taylor (Parte 2). Pero, ¿qué podemos hacer ante una función que no es derivable en ningún punto? En esta sección presentaremos una forma alternativa de estimar funciones continuas, útil para aquellas en las que no podemos identificar los polinomios de Taylor, pues recordemos que la continuidad no es una condición suficiente para que una función sea derivable. Por ejemplo, la función de Weierstrass dada por $f(x)=\sum_{n=0}^{∞}a^n \cos(b^n\pi x) \ \ \
\text{con } 0<a<1 \text{ y } ab>1+\frac{3}{2}\pi, \, \, b>1 \text{ entero impar},$
es continua en $\mathbb{R}$ pero no es diferenciable en ningún punto.

La función de Weierstrass, es continua y no diferenciable en ningún punto.

Las funciones con las que nos vamos a aproximar son conocidas como polinomios de Bernstein. Una forma de entenderlos es a través de la probabilidad. A continuación presentamos ideas tomadas del artículo de la Dra. Ana Meda cuya lectura sugerimos:
Meda A. (2005) Interpolar con volados, o los Polinomios de Bernstein. Miscelánea Matemática, 41, 1-12.

Sea $f:[0,1] \to \mathbb{R}$ una función continua y $n \in \mathbb{N}.$ Supón además que conocemos los valores que toma esta función en los puntos $\frac{0}{n}, \, \frac{1}{n}, \, \frac{2}{n}, \, \frac{3}{n},… $ y sea $x \in [0,1].$ Para saber cuánto vale $f$ en $x$ vamos a tomar una moneda cuya probabilidad de arrojar águila al lanzarse sea precisamente $x.$ Ahora la vamos a lanzar $n$ veces mientras registramos las veces en que salió águila. Sea $k$ ese número de resultados. Identifiquemos el valor

\begin{align}
\textcolor{blue}{f \left( \frac{k}{n} \right)}.
\end{align}

Definimos $\varphi_k:[0,1] \to \mathbb{R},$ como
\begin{align}
\textcolor{purple}{\varphi_k(x) = \binom{n}{k}x^k(1-x)^{n-k}}.
\end{align}

Con
$$\binom{n}{k}= \frac{n!}{k!(n-k)!}.$$

Corresponde a la probabilidad de que $k$ de los lanzamientos sean águila con esa moneda cargada de probabilidad $x.$

Con (1) y (2) definimos

\begin{align}
B_n(f,x)= \sum_{k=0}^{n} \textcolor{blue}{f \left( \frac{k}{n} \right)} \, \textcolor{purple}{\binom{n}{k} x^k (1-x)^{n-k}},
\end{align}

que es la esperanza de la variable aleatoria que acabamos de describir, debido a que corresponde a la suma de los valores que toma esta variable ponderada por la probabilidad de que los tome.

A lo largo de esta entrada mostraremos formalmente que esta estimación funciona. Comenzamos diciendo qué es «acercarse mucho» a una función continua. Presentamos la definición con polinomios, pues son funciones continuas y derivables, lo cual facilita su manejo.

Definición. Función continua aproximada por polinomios. Sea $f \in \mathcal{C}^0[0,1].$ Si para cada $\varepsilon >0$ existe un polinomio $P_{\varepsilon}:[0,1] \to \mathbb{R}$ tal que

$$\norm{f-P_{\varepsilon}}_{\infty}= \underset{x \, \in \, [0,1]}{sup} \,|f(x)- P_{\varepsilon}(x)| < \varepsilon,$$

diremos que la función $f$ puede aproximarse por polinomios. Demostraremos que toda función continua en $\mathcal{C}^0[0,1]$ tiene esta propiedad. Específicamente, los polinomios que usaremos en esa aproximación están dados por la siguiente:

Definición. El $n-$ésimo polinomio de Bernstein. Sea $f \in \mathcal{C}^0[0,1].$ El $n-$ésimo polinomio de Bernstein de $f$ de grado a lo más $n$ es:
$$B_n(f,x)= \sum_{k=0}^{n} \textcolor{blue}{f \left( \frac{k}{n} \right)} \, \textcolor{purple}{\binom{n}{k} x^k (1-x)^{n-k}}.$$

Que es la igualdad (3) definida arriba.

Mostremos el $n-$ésimo polinomio de Bernstein para tres funciones particulares.

El $n-$ésimo polinomio de Bernstein para la función constante, $f(x) = 1.$

Del teorema del binomio sabemos que
$$(s+t)^n = \sum_{k=0}^{n} \binom{n}{k} s^k t^{n-k}$$

Haciendo $s=x$ y $t=1-x$ tenemos que
$$1 = \sum_{k=0}^{n} \binom{n}{k} x^k (1-x)^{n-k}$$

Si consideramos $f(x) =1$ entonces $f \left(\frac{k}{n} \right) =1$ y así
\begin{align*}
1 &= \sum_{k=0}^{n} \textcolor{blue}{1} \, \binom{n}{k} x^k (1-x)^{n-k}\\
&= \sum_{k=0}^{n} \textcolor{blue}{f \left(\frac{k}{n} \right)} \, \binom{n}{k} x^k (1-x)^{n-k}
\end{align*}

Por lo tanto
$$B_n(f(x)=1,x) = 1.$$

El $n-$ésimo polinomio de Bernstein para la función identidad, $f(x) = x.$

Partiendo de
$$1 = \sum_{k=0}^{n} \, \binom{n}{k} x^k (1-x)^{n-k}$$

Reemplacemos $n$ por $n-1$ y $k$ por $j$ para obtener
\begin{align}
1 = \sum_{j=0}^{n-1} \binom{n-1}{j} x^j (1-x)^{n-(1+j)}
\end{align}

El siguiente resultado será usado en el cálculo del polinomio:

\begin{align*}
\binom{n-1}{k-1}&=\frac{(n-1)!}{(k-1)!(n-k)!}\\
&=\frac{n}{n} \frac{k}{k} \frac{(n-1)!}{(k-1)!(n-k)!}\\
&=\frac{k}{n} \frac{n(n-1)!}{k (k-1)!(n-k)!}\\
&=\frac{k}{n} \frac{n!}{k!(n-k)!}\\
&=\frac{k}{n} \binom{n}{k}
\end{align*}

Por lo tanto

\begin{align}
\binom{n-1}{k-1} =\frac{k}{n} \binom{n}{k}
\end{align}

Multipliquemos por $x$ ambos lados de la igualdad (4) y apliquemos la igualdad (5) en el coeficiente para tener

$$x = \sum_{j=0}^{n-1} \frac{j+1}{n} \binom{n}{j+1} x^{j+1} (1-x)^{n-(1+j)}$$
Haciendo $k=j+1$ y usando que $f(x)=x$ entonces $f(\frac{k}{n}) = \frac{k}{n}.$ Se sigue:
\begin{align}
x &= \sum_{k=1}^{n} \textcolor{blue}{\frac{k}{n}} \binom{n}{k} x^{k} (1-x)^{n-k}\\
\nonumber &= \sum_{k=0}^{n} \textcolor{blue}{f \left( \frac{k}{n} \right)} \binom{n}{k} x^{k} (1-x)^{n-k}\\
\end{align}

Por lo tanto
$$B_n(f(x)=x,x) = x.$$

El $n-$ésimo polinomio de Bernstein para la función cuadrática, $f(x) = x^2.$

Partiendo de
$$1 = \sum_{k=0}^{n} \binom{n}{k} x^k (1-x)^{n-k}$$

Reemplacemos $n$ por $n-2$ y $k$ por $j$ para obtener

\begin{align}
1 = \sum_{j=0}^{n-2} \binom{n-2}{j} x^j (1-x)^{n-(2+j)}
\end{align}

El siguiente resultado será usado en el cálculo del polinomio:

\begin{align*}
\binom{n-2}{k-2}&=\frac{(n-2)!}{(k-2)!(n-k)!}\\
&=\frac{n}{n} \frac{n-1}{n-1} \frac{k}{k} \frac{k-1}{k-1} \frac{(n-2)!}{(k-2)!(n-k)!}\\
&=\frac{k(k-1)}{n(n-1)} \frac{n(n-1)(n-2)!}{k(k-1)(k-2)!(n-k)!}\\
&=\frac{k(k-1)}{n(n-1)} \frac{n!}{k!(n-k)!}\\
&=\frac{k(k-1)}{n(n-1)} \binom{n}{k}
\end{align*}

Por lo tanto

\begin{align}
\binom{n-2}{k-2} = \frac{k(k-1)}{n(n-1)} \binom{n}{k}
\end{align}

Multipliquemos por $x^2$ ambos lados de la igualdad (7) y apliquemos la igualdad (8) en el coeficiente para tener
$$x^2 = \sum_{j=0}^{n-2} \frac{(j+2)(j+1)}{n(n-1)} \binom{n}{j+2} x^{j+2} (1-x)^{n-(j+2)}$$
Haciendo $k=j+2$ se sigue que:
\begin{align*}
x^2 &= \sum_{k=2}^{n} \frac{k(k-1)}{n(n-1)} \binom{n}{k} x^{k} (1-x)^{n-k}\\
&= \sum_{k=0}^{n} \frac{k(k-1)}{n(n-1)} \binom{n}{k} x^{k} (1-x)^{n-k}\\
\end{align*}

Entonces
\begin{align}
x^2(n^2-n) = \sum_{k=0}^{n} k(k-1) \binom{n}{k} x^{k} (1-x)^{n-k}
\end{align}

Al dividir ambos lados de la igualdad por $n^2$ se obtiene:
\begin{align*}
\left( 1 – \frac{1}{n} \right) x^2 &= \sum_{k=0}^{n} \frac{k(k-1)}{n^2} \binom{n}{k} x^{k} (1-x)^{n-k}\\
&= \sum_{k=0}^{n} \left( \frac{k^2}{n^2}-\frac{k}{n^2} \right) \binom{n}{k} x^{k} (1-x)^{n-k}\\
&= \sum_{k=0}^{n} \frac{k^2}{n^2} \binom{n}{k} x^{k} (1-x)^{n-k} \, – \, \sum_{k=0}^{n} \frac{k}{n^2} \binom{n}{k} x^{k} (1-x)^{n-k}\\
&= \sum_{k=0}^{n} \left( \frac{k}{n} \right) ^2 \binom{n}{k} x^{k} (1-x)^{n-k} \, – \, \frac{1}{n}\sum_{k=0}^{n} \frac{k}{n} \binom{n}{k} x^{k} (1-x)^{n-k}\\
&= \sum_{k=0}^{n} \left( \frac{k}{n} \right) ^2 \binom{n}{k} x^{k} (1-x)^{n-k} \, – \, \frac{1}{n}x
\end{align*}

De modo que
\begin{align*}
\left( 1 – \frac{1}{n} \right) x^2 + \frac{1}{n}x &= \sum_{k=0}^{n} \textcolor{blue}{\left( \frac{k}{n} \right) ^2} \binom{n}{k} x^{k} (1-x)^{n-k}\\
&= \sum_{k=0}^{n} \textcolor{blue}{f \left( \frac{k}{n} \right)} \binom{n}{k} x^{k} (1-x)^{n-k}
\end{align*}

Por lo tanto
$$B_n(x, f(x)= x^2) = \left( 1 – \frac{1}{n} \right) x^2 + \frac{1}{n}x.$$

Ahora daremos paso al

Teorema de aproximación de Bernstein. Sea $f: [0,1] \to \mathbb{R}$ continua. Entonces la sucesión de polinomios de Bernstein para $f$ converge uniformemente a $f$ en $[0,1].$

Demostración:
Partimos de
$$1 = \sum_{k=0}^{n} \binom{n}{k} x^k (1-x)^{n-k}$$
Al multiplicar ambos lados de la igualdad por $f(x)$ obtenemos

$$f(x) = \sum_{k=0}^{n} f(x) \binom{n}{k} x^k (1-x)^{n-k}.$$

Por lo tanto

$$f(x) – B_n(f,x) = \sum_{k=0}^{n} \left( f(x)- f \left( \frac{k}{n} \right) \right) \binom{n}{k} x^k (1-x)^{n-k}.$$

Usando la desigualdad del triángulo y el hecho de que $x \in [0,1]$ implica que $ \binom{n}{k} x^k (1-x)^{n-k}>0,$ se sigue que

\begin{align}
|f(x) – B_n(f,x)| \leq \sum_{k=0}^{n} \left| \left( f(x)- f \left( \frac{k}{n} \right) \right) \right| \binom{n}{k} x^k (1-x)^{n-k}
\end{align}

Nuestra intención ahora será mostrar que cuando $n \,$ tiende a infinito esta distancia se hace muy pequeña.

Sea $\varepsilon >0.$ Como $f$ es continua en $[0,1]$ entonces es uniformemente continua, así existe $\delta >0$ tal que
\begin{align}
\textcolor{RedOrange}{\text{ si } |s-t| < \delta \text{ entonces } |f(s) \, – \, f(t)|< \frac{\varepsilon}{2}}.
\end{align}

Sea $x \in [0,1].$ Considera $n \in \mathbb{N}$ tal que
$$n \geq max \left\{ \frac{1}{\delta ^4}, \, \frac{\norm{f}^2_\infty}{\varepsilon^2}\right\}.$$

Separemos los elementos de $\mathbb{N} \cup \{0\}$ en dos conjuntos como sigue:

\begin{align}
I_1 &= \left\{ k \in \mathbb{N} \cup \{0\}: 0 \leq k \leq n, \, \left| \frac{k}{n} -x \right|< \left( \frac{1}{n} \right) ^{\frac{1}{4}} \right\}, \\
I_2 &=\{k \in \mathbb{N} \cup \{0\}: 0 \leq k \leq n, \, k \notin I_1\},
\end{align}

Como $n \geq \frac{1}{\delta ^{4}}$ entonces
\begin{align*}
&& n^{\frac{1}{4}} &\geq \frac{1}{\delta}\\
&\Rightarrow& \delta &\geq \left(\frac{1}{n}\right)^\frac{1}{4}
\end{align*}

De modo que si $k \in I_1$ satisface $\left| \frac{k}{n} -x \right|< \left( \frac{1}{n} \right) ^{\frac{1}{4}} \leq \delta$ y por la desigualdad (11) se cumple que

\begin{align}
\nonumber \sum_{k \in I_1}^{} \textcolor{RedOrange}{\left| \left( f(x)- f \left( \frac{k}{n} \right) \right) \right|} \binom{n}{k} x^k (1-x)^{n-k} & < \sum_{k \in I_1}^{} \textcolor{RedOrange}{\frac{\varepsilon}{2}} \binom{n}{k} x^k (1-x)^{n-k}\\ \nonumber
&\leq \textcolor{RedOrange}{\frac{\varepsilon}{2}} \sum_{k =0}^{\infty} \binom{n}{k} x^k (1-x)^{n-k} \\
&= \textcolor{RedOrange}{\frac{\varepsilon}{2}}.
\end{align}

En cuanto a los $k’s \in I_2$ tenemos lo siguiente:

Si $k \in I_2$ entonces
\begin{align*}
&& \left( \frac{1}{n} \right)^\frac{1}{4} & \leq \left| x \, – \, \frac{k}{n}\right| \\
&\Rightarrow& \frac{1}{n} & \leq \left| x \, – \, \frac{k}{n}\right|^4 \\
&\Rightarrow& \left( x \, – \, \frac{k}{n}\right)^{-4} &\leq n \\
&\Rightarrow& \textcolor{PineGreen}{\left( x \, – \, \frac{k}{n}\right)^{-2}} &\leq \textcolor{PineGreen}{\sqrt{n}}.
\end{align*}

Usaremos la última desigualdad al final del siguiente grupo de ecuaciones.

\begin{align}
\nonumber \sum_{k \in I_2}^{} \textcolor{YellowOrange}{\left| \left( f(x)- f \left( \frac{k}{n} \right) \right) \right|} \binom{n}{k} x^k (1-x)^{n-k} &\leq \sum_{k \in I_2}^{} \textcolor{YellowOrange}{2\norm{f}_\infty} \binom{n}{k} x^k (1-x)^{n-k}\\ \nonumber
&= \textcolor{YellowOrange}{2\norm{f}_\infty} \sum_{k \in I_2}^{} \textcolor{PineGreen}{\frac{(x \, – \, \frac{k}{n})^2}{(x \, – \, \frac{k}{n})^2}} \binom{n}{k} x^k (1-x)^{n-k} \\
&\leq \textcolor{YellowOrange}{2\norm{f}_\infty} \textcolor{PineGreen}{\sqrt{n}} \sum_{k \in I_2}^{} \textcolor{PineGreen}{\left( x \, – \, \frac{k}{n} \right)^2} \binom{n}{k} x^k (1-x)^{n-k}
\end{align}

Ahora, partiendo de $1 =\sum_{k=0}^{n} \binom{n}{k} x^k (1-x)^{n-k},$ tenemos:

\begin{align}
\nonumber && (x^2)1 &= \sum_{k=0}^{n} (x^2) \binom{n}{k} x^k (1-x)^{n-k} \\
&\Rightarrow& x^2 &= \sum_{k=0}^{n} x^2 \binom{n}{k} x^k (1-x)^{n-k}
\end{align}

Por la igualdad (9) tenemos:

\begin{align}
x^2(n^2-n) = \sum_{k=0}^{n} k(k-1) \binom{n}{k} x^{k} (1-x)^{n-k}
\end{align}

Partiendo de (6) se sigue:

\begin{align}
&& \nonumber (-2x)x &= \sum_{k=0}^{n} (-2x) \frac{k}{n} \binom{n}{k} x^{k} (1-x)^{n-k}\\
&\Rightarrow& -2x^2 &= \sum_{k=0}^{n} -2 \frac{k}{n}x \binom{n}{k} x^{k} (1-x)^{n-k}
\end{align}

Y también que

\begin{align}
&& \nonumber (n)x &= \sum_{k=0}^{n} (n) \frac{k}{n} \binom{n}{k} x^{k} (1-x)^{n-k}\\
&\Rightarrow& nx &= \sum_{k=0}^{n} k \binom{n}{k} x^{k} (1-x)^{n-k}
\end{align}

Sumando (17) con (19).

\begin{align}
\nonumber && x^2(n^2-n) + nx &= \sum_{k=0}^{n} (k(k-1) + k) \binom{n}{k} x^{k} (1-x)^{n-k}\\
\nonumber &\Rightarrow& x^2(n^2-n) + nx &= \sum_{k=0}^{n} k^2 \binom{n}{k} x^{k} (1-x)^{n-k}\\
\nonumber &\Rightarrow& \left(\frac{1}{n^2}\right) (x^2(n^2-n) + nx) &= \sum_{k=0}^{n} \left(\frac{1}{n^2}\right) k^2 \binom{n}{k} x^{k} (1-x)^{n-k} \\
&\Rightarrow& \left(1 \, – \, \frac{1}{n}\right) x^2 + \frac{1}{n}x &= \sum_{k=0}^{n} \frac{k^2}{n^2} \binom{n}{k} x^{k} (1-x)^{n-k}
\end{align}

Ahora sumemos (16), (18) y (20) para obtener:

\begin{align}
\frac{1}{n} (x \, – \, x^2) &= \sum_{k=0}^{n} \left(x \, – \, \frac{k}{n} \right)^2 \binom{n}{k} x^{k} (1-x)^{n-k}
\end{align}

Dado que $\underset{x \, \in \, [0,1]}{max }(x \, – \, x^2) = \frac{1}{4}$ podemos concluir que

\begin{align}
\textcolor{Cerulean}{\sum_{k=0}^{n} \left(x \, – \, \frac{k}{n} \right)^2 \binom{n}{k} x^{k} (1-x)^{n-k}} &= \frac{1}{n} (x \, – \, x^2) \textcolor{Cerulean}{\leq} \left( \frac{1}{n} \right) \left(\frac{1}{4} \right) = \textcolor{Cerulean}{\frac{1}{4n}}
\end{align}

Ya que $n \geq \frac{\norm{f}^2_\infty}{\varepsilon^2}$ podemos concluir que $\textcolor{PineGreen}{\varepsilon \sqrt{n} \geq \norm{f}_\infty.}$ Se sigue de (15) y (22) que:

\begin{align}
\nonumber \sum_{k \in I_2}^{} \left| \left( f(x)- f \left( \frac{k}{n} \right) \right) \right| \binom{n}{k} x^k (1-x)^{n-k} &\leq 2 \textcolor{PineGreen}{\norm{f}_\infty} \sqrt{n} \textcolor{Cerulean}{\sum_{k \in I_2}^{} \left( x \, – \, \frac{k}{n} \right)^2 \binom{n}{k} x^k (1-x)^{n-k}}\\
\nonumber &\leq 2 \, \textcolor{PineGreen}{\varepsilon \sqrt{n}} \sqrt{n} \textcolor{Cerulean}{\frac{1}{4n}}\\
&= \frac{\varepsilon}{2}.
\end{align}

Ahora, de (14) y (23) tenemos, finalmente que

\begin{align}
\nonumber |f(x) – B_n(f,x)| &\leq \sum_{k=0}^{n} \left| \left( f(x)- f \left( \frac{k}{n} \right) \right) \right| \binom{n}{k} x^k (1-x)^{n-k}\\
\nonumber &= \sum_{k \in I_1}^{} \left| \left( f(x)- f \left( \frac{k}{n} \right) \right) \right| \binom{n}{k} x^k (1-x)^{n-k} + \sum_{k \in I_2}^{} \left| \left( f(x)- f \left( \frac{k}{n} \right) \right) \right| \binom{n}{k} x^k (1-x)^{n-k} \\
\nonumber &< \frac{\varepsilon}{2}+ \frac{\varepsilon}{2}\\
&= \varepsilon.
\end{align}

Lo cual demuestra que la sucesión de polinomios de Bernstein converge uniformemente a $f.$

Si bien, el teorema anterior aplica para funciones con dominio en $[0,1]$ se puede generalizar a cualquier intervalo cerrado en $\mathbb{R}$ según enunciamos a continuación.

Teorema. De aproximación de Weierstrass. Sea $f:[a,b] \to \mathbb{R}$ una función continua. Entonces existe una sucesión de polinomios que converge uniformemente a $f$ en $[a,b].$

Demostración:
Definimos $\rho:[0,1] \to [a,b]$ donde para cada $x \in [0,1], \, \rho(x) := (1-x)a + xb.$ En consecuencia, la función $g:= f \circ \rho$ es una función continua en $[0,1]$ y por el teorema anterior sabemos que la sucesión de polinomios de Bernstein de $g$ converge en $g,$ es decir, $B_n(g,x) \to g.$

Ahora definimos $p_n := B_n(g,x) \circ \rho ^{-1}.$ Nota que es un polinomio. Ocurre que

$\norm{p_n-f}_{\infty}:= \underset{t \, \in \, [a,b]}{max}|p_n(t)-f(t)|= \underset{x \, \in \, [0,1]}{max}|B_n(g,x)(x) \, – \, g(x)|= \norm{B_n(g,x) – g}_{\infty}.$

Por lo tanto se da la convergencia uniforme $p_n \to f$ en $\mathcal{C}^0[a,b].$

Más adelante…

Conoceremos condiciones bajo las que es posible acercarnos a funciones continuas que tienen su dominio en conjuntos más generales que un intervalo cerrado: los espacios compactos. Lo haremos a través del teorema de Stone-Weierstrass que enunciaremos en la siguiente sección.

Tarea moral

  1. Considera la función $\varphi_k$ definida en (2). Demuestra que $\varphi_k$ alcanza su máximo en el punto $\frac{k}{n}.$
  2. Desarrolla las funciones $\varphi_k$ para $k= 0, \, 1, \, 2$ para $n = 2.$
  3. Considera la función $f:[0,1] \to \mathbb{R}$ dada por $f(x) = sen( \pi x).$ Grafica los polinomios de Bernstein de $f$ para $n= 1, \, 2, \, 4, \, 8.$ Visualiza la gráfica para $f.$

Bibliografía

Enlaces

Funciones semicontinuas

Por Lizbeth Fernández Villegas

$\textit{MATERIAL EN REVISIÓN}$

Introducción

En la entrada Funciones continuas en espacios métricos vimos que una función $f: X \to \mathbb{R}\, $ con $X$ espacio métrico, es continua en un punto $x_0 \in X$ si dado $\varepsilon >0$ existe $\delta >0$ tal que si $x$ está en la bola abierta $B_X(x_0, \delta)$ entonces $f(x) \in B_{\mathbb{R}}(f(x_0), \varepsilon).$

Comportamiento de una función $f$ que es continua en $x_0 \in X.$

Nota que esto significa que existe una bola abierta con centro $x_0$ que cumple que cualquiera de sus elementos $x$ satisface las siguientes desigualdades:

\begin{align}
f(x_0) \, – \, \varepsilon < &f(x). \\
&f(x) < f(x_0)+ \varepsilon.
\end{align}

Si bien, una función que no cumple ambas desigualdades en $x_0$ no es continua en $x_0, \,$ es posible concluir propiedades si hace valer al menos una de las dos desigualdades:

Supongamos que una función $f$ satisface en el punto $x_0, \,$ para cualquier $\varepsilon >0\,$ la desigualdad (1). Entonces
$$f(x_0) \, – \, \varepsilon < f(x).$$
Como estamos considerando $\varepsilon >0$ se sigue que $f(x_0) – \varepsilon$ es siempre un número $\, c \,$ menor que $f(x_0),$ entonces que se cumpla la desigualdad (1) significa que
$$c < f(x).$$

Esto muestra que el valor de la función $f$ en puntos muy cercanos a $x_0$ darán saltos arriba de $f(x_0)$ (cuando hay discontinuidad). Dicho formalmente, tenemos:

Definición. Función semicontinua inferiormente. Sea $f:X \to (-\infty, \infty]$ una función, (nota que admite el valor $\infty$). Decimos que $f$ es semicontinua inferiormente en el punto $x_0 \in X$ si para toda $c<f(x_0)$ existe $\delta>0$ tal que si $d_X(x,x_0)< \delta$ entonces $c<f(x).$

$f$ es semicontinua inferiormente en $x_0 \in X.$

Diremos que $f$ es semicontinua inferiormente si lo es en todo punto de $X.$

Nota que esta definición permite valores infinitos.

Por otro lado, si una función $f$ satisface en el punto $x_0, \,$ para cualquier $\varepsilon >0\,$ la desigualdad (2). Entonces
$$f(x)< f(x_0) \, + \, \varepsilon.$$
Como estamos considerando $\varepsilon >0$ se sigue que $f(x_0) + \varepsilon$ es siempre un número $\, c \,$ mayor que $f(x_0),$ entonces que se cumpla la desigualdad (2) significa que
$$f(x) < c.$$

Esto muestra que el valor de la función $f$ en puntos muy cercanos a $x_0$ darán saltos abajo de $f(x_0)$ (cuando hay discontinuidad). Dicho formalmente, tenemos:

Definición. Función semicontinua superiormente. Sea $f:X \to [-\infty, \infty)$ una función, (nota que admite el valor $-\infty$). Decimos que $f$ es semicontinua superiormente en el punto $x_0 \in X$ si para toda $c>f(x_0)$ existe $\delta>0$ tal que si $d_X(x,x_0)< \delta$ entonces $f(x)<c.$

$f$ es semicontinua superiormente en $x_0 \in X.$

Diremos que $f$ es semicontinua superiormente si lo es en todo punto de $X.$

Ejemplos:

  • La función piso
    $f(x) = \lfloor x \rfloor: \mathbb{R} \to \mathbb{R},$ donde
    \begin{align*}
    \lfloor x \rfloor = {\text{max} \,} \{k \in \mathbb{Z} \, | \, k \leq x\}
    \end{align*}
    Es semicontinua superiormente.
Gráfica de la función piso.
  • $f$ aumentada en un punto de continuidad.
    Sea $f: X \to \mathbb{R}$ tal que $f$ es continua en $x_0.$ Sea $h>0.$ Considera la función \begin{equation*}
    g(x) = \begin{cases}
    f(x) &\text{si $x \neq x_0$}\\
    f(x_0) + h &\text{si $x = x_0$}
    \end{cases}
    \end{equation*}
    Entonces $g$ es una función semicontinua superiormente en $x_0.$
La curva morada representa la gráfica de $f$ y $g$ en puntos distintos a $x_0.$ La función $g$ «sube» el punto $f(x_0)$.
  • $f$ disminuida en un punto de continuidad.
    Sea $f: X \to \mathbb{R}$ tal que $f$ es continua en $x_0.$ Sea $h>0.$ Considera la función \begin{equation*}
    g(x) = \begin{cases}
    f(x) &\text{si $x \neq x_0$}\\
    f(x_0) \, – \, h &\text{si $x = x_0$}
    \end{cases}
    \end{equation*}
    Entonces $g$ es una función semicontinua inferiormente en $x_0.$
La curva morada representa la gráfica de $f$ y $g$ en puntos distintos a $x_0.$ La función $g$ «baja» el punto $f(x_0)$.
  • Si $f:X \to [-\infty, \infty)$ es una función semicontinua inferiormente en $x_0$, entonces la función $-f$ es semicontinua superiormente en $x_0.$
.

$\textcolor{orange}{\text{Queda como ejercicio al lector verificar que las funciones mencionadas son semicontinuas.}}$

Definición. Límite superior y límite inferior de $f$ en un punto $x_0.$ Considera $f:X \to \mathbb{R}.\, $ Sea $x_0 \in X.$ Pensemos en todos los valores que toma la función $f$ en puntos «muy cerquita» de $x_0 \,$ identificando así que es «lo más» que podría valer. Nos referimos al valor de
$$\overline{f}(x_0):= \underset{\varepsilon \to 0}{lim}\, \left[ \underset{x \in B_X(x_0, \varepsilon)}{sup} \, f(x) \right]$$
que podría ser finito o infinito y recibe el nombre de límite superior de $f$ en $x_0.$

En la función de Dirichlet $\overline{f}(x_0) = 1$ mientras que $\underline{f}(x_0)= 0$ para cualquier $x_0 \in \mathbb{R}.$

Análogamente, si pensamos en todos los valores que toma la función $f$ en puntos «muy cerquita» de $x_0 \,$ identificando así que es «lo menos» que podría valer. Nos referimos al valor de
$$\underline{f}(x_0):= \underset{\varepsilon \to 0}{lim}\, \left[ \underset{x \in B_X(x_0, \varepsilon)}{inf} \, f(x) \right]$$
que podría ser finito o infinito y recibe el nombre de límite inferior de $f$ en $x_0.$

Definición. Oscilación de la función $f$ en el punto $x_0.$ Sean $f:X \to \mathbb{R} \,$ y $\, x_0 \in X.$ La diferencia

$$\omega f(x_0) = \overline{f}(x_0) \, – \, \underline{f}(x_0)$$

si es que tiene sentido, es decir si al menos uno de los números $\overline{f}(x_0)$ o bien $\underline{f}(x_0)$ es finito, se llama oscilación de la función $f$ en el punto $x_0.$

Ejemplo

Si $f$ es la función de Dirichlet, la oscilación de $f$ en cualquier punto de $\, \mathbb{R} \,$ es $1.$

Representación de la oscilación de la función de Dirichlet.

Proposición. Sean $f:X \to \mathbb{R} \,$ y $\, x_0 \in X.$ Entonces $f$ es continua en $x_0 \,$ si y solo si $\omega f(x_0) = 0,$ es decir
$$-\infty < \underline{f}(x_0) \,= \, \overline{f}(x_0) < \infty.$$

$\textcolor{orange}{\text{La demostración queda como ejercicio al lector.}}$

Nota que para cualquier función $f:X \to \mathbb{R} \,$ la función $\overline{f}(x)$ es semicontinua superiormente mientras que la función $\underline{f}(x)$ es semicontinua inferiormente. $\textcolor{orange}{\text{La demostración de estos hechos también se deja como ejercicio.}}$

Antes de continuar recordemos la entrada Espacios métricos de caminos. Vimos que un camino es una función continua $\gamma: [a,b] \to X$ con $X$ un espacio topológico. En algunos libros, como el de Análisis Matemático de Mónica Clapp, (Clapp, M., Análisis Matemático. Ciudad de México: Editorial Papirhos, IM-UNAM, 2013. Pág: 65), esta definición se indica como trayectoria.

Si $X$ es un espacio métrico entonces a cada trayectoria $\gamma:[a,b] \to X$ se le puede asociar el valor dado por

$$L(\gamma) : = sup \left\{ \sum_{k=1}^{n} d_X(\gamma(t_{k-1}), \gamma(t_k)) \, | \, a=t_0 \leq t_1 \leq …\leq t_n = b, \, n \in \mathbb{N} \right\}$$

lo cual define una función $L:\mathcal{C}^0([a,b],X) \to (-\infty, \infty]$ que satisface los axiomas de una longitud de caminos.

Otra cosa que podemos observar de $L$ es que no es continua cuando $X = \mathbb{R}^2.$ Como ejemplo un ejercicio al final de esta sección. La cuestión es que dada una trayectoria $\gamma$ puede haber trayectorias con longitud muy grande pese a ser cercanas a $\gamma$ en la métrica uniforme. No obstante, puede asegurarse que si las trayectorias son suficientemente cercanas a $\gamma$ entonces su longitud no podrá ser arbitrariamente menor que la de $\gamma.$ En otras palabras:

La función $L$ es semicontinua inferiormente en $\mathcal{C}^0([a,b],X)$

Proposición. Sean $\gamma \in \mathcal{C}^0([a,b],X)\,$ y $c < L(\gamma).$ Entonces existe $\delta>0$ tal que si $d_\infty(\gamma,\sigma) < \delta$ se satisface
$$c < L(\sigma).$$
Demostración:
Tomemos $\delta_0 >0$ tal que $c+ \delta_0 < L(\gamma).$ Por definición de $L,$ existen $a=t_0, \leq t_1 \leq … \leq t_n = b\,$ en $\mathbb{R}$ tales que

$$c + \delta_0 < \sum_{k=1}^{n} d(\gamma(t_{k-1}), \gamma(t_k)),$$

donde $d$ es la distancia $d_X.$

Sea $\delta := \frac{\delta_0}{2n}. \,$ Si $\delta_\infty (\gamma, \sigma,) < \delta$ se sigue

\begin{align*}
d(\gamma(t_{k-1}), \gamma(t_k)) &\leq d(\gamma(t_{k-1}), \sigma(t_{k-1})) + d(\sigma(t_{k-1}),\gamma(t_k)) \\
&\leq d(\gamma(t_{k-1}), \sigma(t_{k-1})) + d(\sigma(t_{k-1}),\sigma (t_k)) + d(\sigma(t_k),\gamma(t_k)) \\
< \delta + d(\sigma(t_{k-1}),\sigma (t_k)) + \delta \\
= d(\sigma(t_{k-1}),\sigma (t_k)) + 2 \delta\\
= d(\sigma(t_{k-1}),\sigma (t_k)) + \frac{\delta_0}{n}.
\end{align*}

Si sumamos las desigualdades para todo $k = 1,…,n$ tenemos lo siguiente

\begin{align}
c + \delta_0 &< \sum_{k=1}^{n} d(\gamma(t_{k-1}), \gamma(t_k))\\
&< \sum_{k=1}^{n} d(\sigma(t_{k-1}), \sigma(t_k)) + \delta_0 \\
&\leq L(\sigma) + \delta_0.
\end{align}

De modo que $\, c< L(\sigma)$ que es lo que queríamos demostrar.

En la entrada Funciones en espacios métricos compactos vimos que toda función continua $\, f:A \to \mathbb{R} \,$ en un espacio compacto $A$ alcanza su mínimo y máximo en $A.$ Los resultados siguientes muestran la generalización al caso de funciones semicontinuas.

Proposición. Sea $f:A \to \mathbb{R} \,$ una función semicontinua inferiormente sobre un espacio métrico compacto $A, \, $ entonces la imagen de $f$ está acotada inferiormente.

Demostración:
Supón por el contrario que $\underset{x \in A}{\text{inf}} \, f(x) = – \infty.$ Entonces existe una sucesión $\{x_n\}_{n \in \mathbb{N}} \,$ de elementos en $A$ tal que para cada $n \in \mathbb{N}, \, f(x_n) < -n.$ Puesto que el espacio $A$ es compacto, el subconjunto infinito $\{x_n: n \in \mathbb{N}\} \,$ tiene al menos un punto de acumulación $x_0, \,$ en $A. \,$(Recuerda el problema 3 de la tarea moral de la entrada Compacidad en espacios métricos). Ya que $f$ es semicontinua inferiormente en $x_0, \,$ existe $\delta >0$ tal que para cada $x \in B(x_0, \delta)$ se cumple que $f(x) > f(x_0) \, – \, 1.$ Observa que $B(x_0, \delta)$ contiene a lo más una cantidad finita de puntos de la sucesión, pero esto contradice que $x_0$ sea punto de acumulación de $\{x_n: n \in \mathbb{N}\} \,$ por lo tanto la imagen de $f$ está acotada inferiormente.

Se puede probar el resultado análogo para una función semicontinua superiormente. $\textcolor{orange}{\text{Queda como ejercicio.}}$

Proposición. Sea $f:A \to \mathbb{R} \,$ una función semicontinua inferiormente sobre un espacio métrico compacto $A, \, $ entonces $f$ alcanza su mínimo en $A.$

Demostración:
Como $f$ es semicontinua inferiormente y por el resultado anterior, $f(A)$ tiene ínfimo en $\mathbb{R},$ podemos construir una sucesión $(x_n)_{n \in \mathbb{N}} \,$ de elementos en $A$ tal que para cada $n \in \mathbb{N}, \, f(x_n) \leq \underset{x \in A}{\text{inf}} \, f(x) \, + \, \frac{1}{n}.$

Como $A$ es compacto, el conjunto $\{x_n: n \in \mathbb{N}\} \,$ tiene un punto de acumulación $x_0 \in A.$

Vamos a probar que $f$ alcanza su mínimo en $x_0,$ es decir que $f(x_0) = \underset{x \in A}{\text{inf}} \, f(x).$
Supón por el contrario que $f(x_0) > \underset{x \in A}{\text{inf}} \, f(x).$ Entonces existe $\varepsilon>0$ tal que $\underset{x \in A}{\text{inf}} \, f(x) + \varepsilon < f(x_0).$ Como $f$ es semicontinua inferiormente en $x_0,$ existe $\delta>0$ tal que para cada $x \in B(x_0, \delta), \, f(x) > \underset{x \in A}{\text{inf}} \, f(x) + \varepsilon.$ Observa que $B(x_0, \delta)$ contiene a lo más una cantidad finita de puntos de la sucesión, pero esto contradice que $x_0$ sea punto de acumulación de $\{x_n: n \in \mathbb{N}\} \,$ por lo tanto $f(x_0) = \underset{x \in A}{\text{inf}} \, f(x)$ y así, $f$ alcanza su mínimo en $A.$

Se puede probar el resultado análogo para una función semicontinua superiormente. $\textcolor{orange}{\text{Queda como ejercicio.}}$

Más adelante…

Retomaremos nuestro análisis en la búsqueda de espacios compactos. Ya sabemos que en la métrica euclidiana basta con ver que un conjunto es cerrado y acotado para concluir que es compacto. ¿Qué otros espacios tendrán esa propiedad?

Tarea moral

  1. Demuestra los resultados que se fueron indicando a lo largo de esta entrada.
  2. a) Prueba que la sucesión de trayectorias $\gamma_k: [0,1] \to \mathbb{R}^2,$
    $$\gamma_k = \left(x, \frac{1}{\sqrt{k}}sen(\pi k x) \right),$$
    converge a la trayectoria $\gamma(x) = (x,0)$ en el conjunto de funciones acotadas de $[0,1]$ en $\mathbb{R}^2$
    b) Prueba que $L(\gamma_k) \to \infty$
    c) Concluye que $L$ no es continua en $\mathcal{C}^0([a,b], \mathbb{R}).$

Bibliografía

Enlaces

Equicontinuidad

Por Lizbeth Fernández Villegas

$\textit{MATERIAL EN REVISIÓN}$

Introducción

Para probar el teorema de Arzelá-Ascoli que veremos más adelante, usaremos familias de funciones que tienen la propiedad de enviar puntos muy cercanos del dominio a puntos muy cercanos en el contradominio. Suena a funciones continuas, ¿verdad? No obstante, en esta ocasión será el mismo valor de delta el que haga válida la cercanía para cualquier función.

Ejemplo: Considera el conjunto de funciones $\{f_k \, | \, f_k \in \mathcal{C}^0[-1,1], \, k \in \mathbb{N}\}, \,$ donde

\begin{equation*}
f_k(x) := \begin{cases}
-1 \, &\text{ si $x \in [-1, – \frac{1}{k}]$},\\
kx \, &\text{ si $x \in [-\frac{1}{k}, \frac{1}{k}]$}, \\
1 \, &\text{ si $x \in [\frac{1}{k},1]$}.
\end{cases}
\end{equation*}

Gráfica de las funciones para $k=2, \, 3, \, 4.$

Estas funciones son continuas en $\mathbb{R}$, más aún, son uniformemente continuas en $\mathbb{R}.$ Sea $\varepsilon >0.$ Cada una de las funciones tiene una $\delta>0$ que hace que puntos a distancia menor que esa delta sean enviados, bajo la función, a puntos de distancia menor que $\varepsilon.$ ¿Será posible encontrar un valor de $\delta$ que cumpla la propiedad para cualquier función $f_k$?

No, no es así. Dejaremos como ejercicio demostrar que para cada $\delta >0$ (y menor que $1$) existe una función $f_k$ tal que $|f_k(0) \, – \, f_k(\frac{\delta}{2})|> \varepsilon = \frac{1}{2}$ de modo que no es posible encontrar un valor de $\delta$ que funcione para todas las funciones del conjunto.

La propiedad que estamos describiendo se conoce como equicontinuidad. Presentamos la definición de:
Simon, B., Real Analysis A Comprehensive Course in Analysis, Part 1,. USA: American Mathematical Society, 2015, pág 70.

Definición. Familia uniformemente equicontinua. Sean $(X,d_X)$ y $(Y,d_Y)$ espacios métricos y $\mathcal{H} \,$ una familia de funciones de $X$ en $Y.$ Diremos que $\mathcal{H} \,$ es uniformemente equicontinua si para cada $\varepsilon >0$ existe $\delta >0$ tales que para cualesquiera $x_1, x_2 \in X$ que cumplen que $d_X(x_1,x_2)< \delta\, $ entonces para cualquier $f \in \mathcal{H}, \,$ $d_Y(f(x_1),f(x_2)) < \varepsilon.$

Propiedades de una familia uniformemente equicontinua.

En particular, si $Y$ es el espacio de los complejos con la métrica euclidiana tenemos la definición de:
Rudin, W., Principios de Análisis Matemático (3a ed.). México: McGraw–Hill, 1980, pág 156.

Definición. Familia equicontinua de funciones complejas. Sea $\mathcal{H}$ una familia de funciones complejas con dominio en un espacio métrico $(X,d_X).$ Diremos que $\mathcal{H} \,$ es equicontinua en $X$ si para cada $\varepsilon >0$ existe $\delta >0$ tales que para cualesquiera $x_1, x_2 \in X$ que cumplen que $d_X(x_1,x_2)< \delta\, $ entonces para cualquier $f \in \mathcal{H}, \,$ $\norm{f(x_1) \, – \, f(x_2)} < \varepsilon.$

Nota que toda función de una familia equicontinua es uniformemente continua.

Ejemplo: Ahora tomemos una sucesión de funciones en $\mathcal{C}^0[-1,1]\,$ donde para cada $k \in \mathbb{N} \,$ la función $f_k \,$ se define como

\begin{equation*}
f_k(x) := \begin{cases}
\frac{1}{k}(x+\frac{1}{k}) \, &\text{ si $x \in [-1, – \frac{1}{k}]$},\\
0 \, &\text{ si $x \in [-\frac{1}{k}, \frac{1}{k}]$}, \\
\frac{1}{k}(x-\frac{1}{k}) \, &\text{ si $x \in [\frac{1}{k},1]$}.
\end{cases}
\end{equation*}

Gráfica de las funciones para $k=2, \, 3, \, 4.$

Dejaremos como ejercicio probar que la sucesión converge uniformemente a la función constante cero y que la familia $\{f_k\}_{k \in \mathbb{N}} \,$ es uniformemente equicontinua.

Las condiciones de esta sucesión se generalizan según expresa la siguiente:

Proposición. Sea $(X,d_X)$ un espacio métrico compacto y $(f_n)_{n \in \mathbb{N}} \,$ una sucesión de funciones en $\mathcal{C}^0(X, \mathbb{C})$ (continuas) tal que la sucesión converge uniformemente en $X.$ Entonces $\{ f_n \} _{n \in \mathbb{N} \,}$ (el conjunto de las funciones de la sucesión) es uniformemente equicontinua sobre $X.$

Demostración:
Sea $\varepsilon >0.$ Como la sucesión de funciones $(f_n)_{n \in \mathbb{N}}\,$ converge uniformemente en $X,$ de acuerdo con la entrada Convergencia puntual y convergencia uniforme, como $\mathbb{C}$ es completo, $(f_n)_{n \in \mathbb{N}}\,$ es uniformemente de Cauchy, por lo tanto existe $N \in \mathbb{N}$ tal que para cada $n \geq N$ se cumple que

\begin{align}
\norm{f_n \, – \, f_N} _\infty < \frac{\varepsilon}{3}.
\end{align}

En la entrada Continuidad uniforme vimos que cada función continua con dominio compacto es uniformemente continua. En particular, para cada una de las primeras funciones de la sucesión, $f_1, \, f_2, …, f_N,$ existe su correspondiente $\delta_i, \, i=1,…,N$ tal que para cada $i = 1,…,N, \,$ siempre que $d_X(x_1,x_2) < \delta_i,$ tenemos:

\begin{align}
\norm{f_i(x_1) \, – \, f_i(x_2)} < \frac{\varepsilon}{3}.
\end{align}

Si hacemos
$$\delta < \text{min} \{d_i \, | \, i=1,…,N\}$$
se sigue cumpliendo (2) para $i = 1,…,N$

mientras que si $n>N$ se concluye de la desigualdad del triángulo, de (1) y de (2) que

\begin{align*}
\norm{f_n(x_1) \, – \, f_n(x_2)} &\leq \norm{f_n(x_1) \, – \, f_N(x_1)} + \norm{f_N(x_1) \, – \, f_N(x_2)} + \norm{f_N(x_2) \, – \, f_n(x_2)} \\
&< \frac{\varepsilon}{3}+ \frac{\varepsilon}{3} + \frac{\varepsilon}{3} \\
&= \varepsilon.
\end{align*}

Por lo tanto el conjunto de funciones en $(f_n)_{n \in \mathbb{N}} \,$ es equicontinuo.

La definición a considerar en el teorema de Arzelá-Ascoli

En la sección Teorema de Arzelá-Ascoli nuestra familia de funciones tendrá un dominio compacto y consideraremos la definición de equicontinuidad que aparece en
Clapp, M., Análisis Matemático. Ciudad de México: Editorial Papirhos, IM-UNAM, 2015, pág 125.
Nota que la propiedad se fija en un punto:

Definición. Familia equicontinua en un punto. Sea $(X,d_X)$ un espacio métrico compacto y $(Y,d_Y)$ un espacio métrico. Sea $\mathcal{H} \subset \mathcal{C^0}(X,Y)$ es decir, $\mathcal{H}$ es una familia de funciones continuas con dominio en $X$ e imagen en $Y.$ Diremos que $\mathcal{H}$ es equicontinuo en el punto $x_0 \in X$ si para todo $\varepsilon>0,$ existe $\delta>0$ tal que para toda función $f$ en $\mathcal{H}$ se cumple que si $d_X(x,x_0)<\delta$ entonces $d_Y(f(x),f(x_0))<\varepsilon.$

Propiedades de una familia equicontinua en un punto.

Esta definición se relaciona con la primera en el siguiente sentido:

Proposición. Si $\mathcal{H}$ es uniformemente equicontinua entonces es equicontinua en cada punto de $X.$

Demostración:
Sea $x_0 \in X$ y $\varepsilon > 0. \,$ Como $\mathcal{H}$ es uniformemente equicontinua, existe $\delta >0$ tal que para cada $x_1, x_2 \in X$ si $d_X(x_1,x_2)< \delta$ entonces $d_Y(f(x_1),f(x_2))< \varepsilon$ para cualquier $f \in \mathcal{H}.$ En particular para cada $x \in X,$ si $d_X(x,x_0)< \delta$ entonces $d_Y(f(x),f(x_0))< \varepsilon$ para cualquier $f \in \mathcal{H} \,$ lo cual prueba que la familia de funciones es equicontinua en $x_0.$

La última definición pide que el dominio de las funciones sea compacto. Esto permite elegir una delta que funcione para todos los elementos de $\mathcal{H}.$

Proposición: Si $\mathcal{H}$ es es equicontinua en cada punto de $X,$ como en la definición entonces es uniformemente equicontinua.

Demostración: Se dejará como ejercicio.

El recíproco no es cierto si quitamos la compacidad de $X$. Ser equicontinua puntualmente no implica ser uniformemente equicontinua. Se te pedirá un contraejemplo.

Más adelante…

Usaremos las nociones aprendidas recientemente para conocer y probar el teorema de Arzelá-Ascoli.

Tarea moral

  1. Resuelve los dos ejemplos de esta sección.
  2. Prueba que si $\mathcal{H}$ es es equicontinua en cada punto de $X,$ como en la definición (con $X$ compacto) entonces es uniformemente equicontinua.
  3. Muestra un ejemplo de una familia equicontinua puntualmente en todos los puntos del dominio pero que no sea uniformemente equicontinua.

Bibliografía

Enlaces

Nota 18b. Demostraciones por inducción de las propiedades de las operaciones de los números naturales

Por Julio César Soria Ramírez

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

En esta nota se realizarán demostraciones de las propiedades de las operaciones que cumplen los números naturales. El objetivo de esta nota es hacer uso del quinto axioma de Peano, que estudiamos en este trabajo a partir de la construcción de los números naturales, para mostrar que estas operaciones cumplen con los principios que hemos estado utilizando desde nuestra educación inicial: existe un elemento neutro, las operaciones son asociativas, conmutativas, distributivas, entre otras.

Dado que el argumento fundamental en el que se basan las siguientes demostraciones se refiere al quinto axioma de Peano o principio de inducción, ver la nota 16, recordemos a qué se refiere. Este axioma nos dice que si un subconjunto $A$ de números naturales cumple que $0 \in A$ y que cada vez que $n \in A$, también $n^+ \in A$, entonces podemos afirmar que $A = \mathbb{N}$.

Dado que queremos demostrar que todos los naturales cumplen con alguna propiedad $P$, vamos a considerar el subconjunto $A \subseteq \mathbb{N}$ dado por $A = \set{n \in \mathbb{N} \mid n \text{ cumple la propiedad } P}$. Usaremos el quinto axioma de Peano o principio de inducción para demostrar que $A$ es el conjunto de números naturales, probando así que todos los naturales cumplen la propiedad $P$.

Estas pruebas entonces tienen dos momentos:

  1. Base de inducción: En este paso verificaremos que $0 \in A$, es decir, que $0$ cumple la propiedad $P$ que caracteriza a los elementos de $A$.
  2. Paso inductivo: En este paso supondremos que $n \in A$, es decir, que $n$ cumple la propiedad $P$ que caracteriza a los elementos de $A$ (a esta hipótesis se le llama la hipótesis de inducción (HI)). A partir de ello demostraremos que el sucesor de $n$, que es $n^+$ o $n+1$, también satisface la propiedad $P$ que caracteriza a los elementos de $A$, es decir, que $n+1 \in A$.

Habiendo realizado estos dos pasos podemos afirmar, gracias al quinto axioma de Peano, que $A = \mathbb{N}$ y, por lo tanto, todos los números naturales satisfacen la propiedad $P$.

Recordemos la definición de las dos operaciones básicas de los números naturales: la suma y la multiplicación, ver la nota 16.

Empecemos recordando la definición de la suma.

Definición. Suma en $\mathbb N$

Dado $n\in \mathbb N$ definimos:

$n+0=n,$

para todo $m\in\mathbb{N}$, $n+m^+=(n+m)^+.$

Propiedades de la suma

Sean $n,m,l\in \mathbb N.$

  1. $0+n=n$. Neutro aditivo.
  2. $(n+m)+l=n+(m+l)$. Asociatividad.
  3. Si $n+l=m+l$, entonces $n=m$. Cancelación.
  4. $n+m=m+n$. Conmutatividad.
  5. Si $n\neq 0$ o $m\neq 0$, entonces $n+m\neq 0$

Demostración.

Demostración de la propiedad 1. El neutro aditivo.

Veamos que para cualquier natural $n$ se cumple que $0+n=0$.

Sea $A = \set{n \in \mathbb{N} \mid 0+n=n}$ y veamos que $A = \mathbb{N}$.

Base de inducción.

Observa que $0\in A$, pues por definición de la suma $0+0=0.$

Paso Inductivo. (PI).

Supongamos que $m\in A$, es decir que $0+m=m.$

Ésta es la hipótesis de inducción.

Demostración de que $m^+\in A$ usando la HI.

Lo que queremos demostrar es que $0+m^+=m^+.$

\[
\begin{aligned}
0 + m^+ &= (0 + m)^+ & \text{(Por definición de la suma)} \\
&= m^+ & \text{(Por hipótesis de inducción)}
\end{aligned}
\]

Entonces $m^+ \in A$.

Así, por el quinto axioma de Peano, $A = \mathbb{N}$.

Hemos probado así que para cualquier natural $n$ se cumple que $0+n=0$.

Observación 1. Notemos que, por la definición de la suma, $n + 0 = n$, y nosotros acabamos de mostrar que $0 + n = n$; por lo tanto, $n + 0 = 0 + n=n$, siendo así el cero el neutro de la suma en los naturales.

Demostración de la propiedad 2. Ley Asociativa de la suma.

Veamos que para cualesquiera $n,m,l\in \mathbb N$, se cumple que $(n+m)+l=n+(m+l)$.

Sean $n$ y $m$ cualesquiera naturales, considera el siguiente conjunto:

$A = \set{l \in \mathbb{N} \mid (n+m)+l=n+(m+l)}.$

Veamos que $A = \mathbb{N}$.

Base de inducción.

Observa que $0\in A$ pues por definición de la suma $(n+m)+0=n+m=n+(m+0)$.

Paso Inductivo. (PI).

Supongamos que $l\in A$, es decir que $(n+m)+l=n+(m+l)$.

Ésta es la hipótesis de inducción.

Demostración de que $l^+\in A$ usando la HI.

Lo que queremos demostrar es que $(n+m)+l^+=n+(m+l^+)$.

\[
\begin{aligned}
(n + m) + l^+ &= ((n + m) + l)^+ & \text{(Por definición de suma)} \\
&= (n + (m + l))^+ & \text{(Por hipótesis de inducción)} \\
&= n + (m + l)^+ & \text{(Por definición de la suma)} \\
&= n + (m + l^+) & \text{(Por definición de la suma)}
\end{aligned}
\]

De esta manera, $l^+ \in A$.

Por el quinto axioma de Peano, $A = \mathbb{N}$, lo que implica que todos los números naturales cumplen la ley asociativa.

Demostración de la propiedad 3. Ley de cancelación de la suma.

Veamos que para cualesquiera $n,m,l \in \mathbb{N}$, si $n+l=m+l$, entonces $n=m$.

Sea $A =\set { l \in \mathbb{N} \mid n+l=m+l \Longrightarrow n=m }$ y veamos que $A = \mathbb{N}$.

Base de inducción.

Observa que $0 \in A$, pues si $n+0 = m+0$, por definición de la suma, $n+0 = n$ y $m+0 = m$ teniendo entonces que $n = m$.

Paso Inductivo. (PI).

Supongamos que $l \in A$, es decir, que si $n+l = m+l$, entonces $n = m$.

Ésta es la hipótesis de inducción.

Demostración de que $l^+\in A$ usando la HI.

Lo que queremos demostrar es que $n+ l^+ = m + l^+$ implica que $n = m$. Supongamos entonces que $n+l^+=m+l^+$.

\[
\begin{aligned}
n + l^+ &= m + l^+ & \text{(Partimos de esta hipótesis)} \\
(n+ l)^+ &= (m + l)^+ & \text{(Por definición de la suma)}\\
n + l &= m + l & \text{(Por el axioma 4 de Peano)}\\
n &= m & \text{(Por hipótesis de inducción, pues ya tenemos que $n+l=m+l$)}
\end{aligned}
\]

De esta manera, $l^+ \in A$.

Por el quinto axioma de Peano, $A = \mathbb{N}$, lo que implica que todos los números naturales cumplen la ley de cancelación de la suma.

Observación: La demostración de la propiedad 4 requerirá de un lema que se muestra a continuación, cuya demostración se realiza a su vez por inducción.

Lema: Para cualesquiera $m,n \in \mathbb{N}$ se tiene que $m^+ + n = (m + n)^+$.

Demostración:

Sea $m\in\mathbb{N}$. Consideremos

$S = \set{ n \in \mathbb{N} \mid m^+ + n = (m + n)^+ }$ y veamos que $S=\mathbb{N}.$

Veamos que $S=\mathbb{N}$.

Base de inducción.

Observa que $0 \in S$, pues:

\[
m^+ + 0 = m^+ = (m + 0)^+.
\]

Paso Inductivo. (PI).

Supongamos que $n \in S$, es decir, que $m^+ + n = (m + n)^+$.

Ésta es la hipótesis de inducción.

Demostración de que $n^+\in S$ usando la HI.

Lo que queremos demostrar es que $m^+ + n^+ = (m + n^+)^+$.

\[
\begin{aligned}
m^+ + n^+ &= (m^+ + n)^+ & \text{(Por definición de la suma)} \\
&= ((m + n)^+)^+ & \text{(Por hipótesis de inducción)} \\
&= (m + n^+)^+ & \text{(Por definición de la suma)}.
\end{aligned}
\]

De esta manera, $n^+ \in S$.

Por el quinto axioma de Peano, $S = \mathbb{N}$.

En consecuencia, $m^+ + n = (m + n)^+$ para cualesquiera $m,n \in \mathbb{N}$.

Observa que, por definición, $(m + n)^+ = m + n^+$, y de acuerdo a lo que acabamos de probar $m^+ + n = (m + n)^+ = m + n^+$.

Demostración de la propiedad 4. Ley de conmutatividad de la suma.

Veamos que para cualesquiera naturales $n$ y $m$, $m+n=n+m$

Sea $m\in\mathbb{N}$. Consideremos

$A = \set{n \in \mathbb{N} \mid m+n=n+m}$ y veamos que $A = \mathbb{N}$.

Base de inducción.

Observa que $0\in A$ se da gracias a la propiedad 1, pues $m+0=m=0+m$.

Paso Inductivo. (PI).

Supongamos que $n\in A$, es decir que $m+n=n+m.$

Ésta es la hipótesis de inducción.

Demostración de que $n^+\in A$ usando la HI.

Lo que queremos demostrar es que $m+n^+=n^+ +m.$

\[
\begin{aligned}
m+n^+ &= (m + n)^+ & \text{(Por definición de la suma)} \\
&= (n+m)^+ & \text{(Por hipótesis de inducción)}\\
&= n^+ +m & \text{(Por el lema)}
\end{aligned}
\]

De esta manera, $n^+ \in A$

Por el quinto axioma de Peano, $A = \mathbb{N}$, lo que implica que todos los números naturales cumplen la ley de la conmutatividad de la suma.

Las pruebas para las propiedades de la multiplicación también se harán por inducción.

Empecemos recordando la definición de la multiplicación en $\mathbb N$.

Definición. Producto en $\mathbb N$

Dado $n\in \mathbb N$ definimos:

$n\cdot 0=0,$

para todo $m\in\mathbb{N}$, $n\cdot m^+=n \cdot m+n$.

Recordemos también que podemos escribir $nm$ en lugar de $n\cdot m$.

Propiedades del producto

Sean $n,m,l\in \mathbb N.$

  1. $1\cdot n=n$. Neutro multiplicativo.
  2. $(n+m) \cdot l=n\cdot l+m\cdot l$. Distributividad.
  3. $n \cdot m=m\cdot n$. Conmutatividad.
  4. $(n\cdot m)\cdot l=n\cdot (m\cdot l)$. Asociatividad.
  5. Si $n\neq 0$ y $m\neq 0$, entonces $n\cdot m\neq 0$
  6. Si $l\neq 0$ y $n\cdot l=m\cdot l$ entonces $n=m$. Cancelación.

Demostración de la propiedad 1. Neutro multiplicativo.

Veamos que para cualquier natural $n$ se cumple que $1\cdot n=n$.

Sea $A = \set{n \in \mathbb{N} \mid 1\cdot n=n}$ y veamos que $A = \mathbb{N}$.

Base de inducción.

$0\in A$, pues por definición del producto $1\cdot 0=0.$

Paso Inductivo. (PI).

Supongamos que $m\in A$, es decir que $1\cdot m=m$.

Ésta es la hipótesis de inducción.

Demostración de que $m^+\in A$ usando la HI.

Lo que queremos demostrar es que $1\cdot m^+=m^+.$

\[
\begin{aligned}
1\cdot m^+ &= 1\cdot m+1 & \text{(Por definición del producto)} \\
&= m+1 & \text{(Por hipótesis de inducción)} \\
&= m^+ & \text{(Dado que $m+1=m^+$)}
\end{aligned}
\]

Entonces $m^+ \in A$.

Por el quinto axioma de Peano, $A = \mathbb{N}$, lo que implica que el $1$ es el neutro multiplicativo.

Observación 2. Notemos que dado $n\in \mathbb{N}$ tenemos que $$n\cdot 1=n\cdot 0^+=n\cdot 0 +n=0+n=n,$$ y junto con lo anterior podemos afirmar que $1\cdot n=n=n\cdot 1$ para toda $n\in \mathbb{N}$. Así, $1$ es el neutro multiplicativo en los naturales.

Demostración de la propiedad 2. Ley distributiva del producto.

Veamos que para cualesquiera naturales $l,n,m$ se cumple que $(n+m)\cdot l=n\cdot l+m\cdot l$. Sean $n,m\in \mathbb{N}$ y consideremos el conjunto

$A = \set{l \in \mathbb{N} \mid (n+m)\cdot l=n\cdot l+m\cdot l}$.

Veamos que $A = \mathbb{N}$.

Base de inducción.

$0\in A$ pues:

\[
\begin{aligned}
(n+m)\cdot 0 &= 0 & \text{(Por definición del producto)} \\
&= n\cdot 0 & \text{(Por definición del producto)} \\
&= n\cdot 0+0 & \text{(Por definición de la suma)} \\
&= n\cdot 0+m\cdot 0 & \text{(Por definición del producto)}
\end{aligned}
\]

Paso Inductivo. (PI).

Supongamos que $l\in A$, es decir que $(n+m)\cdot l=n\cdot l+m\cdot l$

Ésta es la hipótesis de inducción.

Demostración de que $l^+\in A$ usando la HI.

Lo que queremos demostrar es que $(n+m)\cdot l^+=n\cdot l^+ + m\cdot l^+$

\[
\begin{aligned}
(n+m)\cdot l^+ &= (n+m)\cdot l + (n+m) & \text{(Por definición del producto)} \\
&= n\cdot l+m\cdot l +n+m & \text{(Por hipótesis de inducción)} \\
&= (n\cdot l+n)+(m\cdot l +m) & \text{(Por conmutatividad y asociatividad de la suma)}\\
&= n\cdot l^+ + m\cdot l^+ & \text{(Por definición del producto)}
\end{aligned}
\]

Entonces $l^+ \in A$.

Por el quinto axioma de Peano, $A = \mathbb{N}$, lo que implica que todos los números naturales cumplen la ley de distributividad del producto.

Demostración de la propiedad 3. Conmutatividad del producto.

Se deja de Tarea Moral.

Demostración de la propiedad 4. Asociatividad del producto.

Veamos que para cualesquiera naturales $l,n,m$ se cumple que $(n\cdot m)\cdot l=n\cdot( m\cdot l)$. Para ello sean $n,m\in \mathbb{N}$ y consideremos el conjunto

$A = \set{l \in \mathbb{N} \mid (n\cdot m)\cdot l=n\cdot( m\cdot l)}.$

Veamos que $A = \mathbb{N}$.

Base de inducción.

$0\in A$ pues:

\[
\begin{aligned}
(n\cdot m)\cdot 0 &= 0 & \text{(Por definición del producto)} \\
&= n\cdot 0 & \text{(Por definición del producto)} \\
&= n\cdot (m\cdot 0) & \text{(Por definición del producto)}
\end{aligned}
\]

Paso Inductivo. (PI).

Supongamos que $l\in A$, es decir que $(n\cdot m)\cdot l=n\cdot( m\cdot l)$.

Ésta es la hipótesis de inducción.

Demostración de que $l^+\in A$ usando la HI.

Lo que queremos demostrar es que $(n\cdot m)\cdot l^+=n\cdot( m\cdot l^+)$

\[
\begin{aligned}
(n\cdot m)\cdot l^+ &= (n\cdot m)\cdot l + (n\cdot m) & \text{(Por definición del producto)} \\
&= n\cdot (m\cdot l) + n\cdot m & \text{(Por hipótesis de inducción)} \\
&= (m\cdot l)\cdot n + m\cdot n & \text{(Por conmutatividad del producto)}\\
&= (m\cdot l + m)\cdot n & \text{(Por distributividad producto)} \\
&= (m\cdot l^+)\cdot n & \text{(Por definición del producto)} \\
&= n\cdot (m\cdot l^+) & \text{(Por conmutatividad del producto)}
\end{aligned}
\]

entonces $l^+ \in A$.

Por el quinto axioma de Peano, $A = \mathbb{N}$, lo que implica que todos los números naturales cumplen la ley de asociativa del producto.

Demostración de la propiedad 5.

Se deja de Tarea Moral.

Demostración de la propiedad 6. Cancelación del producto.

Veamos que para cualesquiera naturales $l,n,m$ se cumple que si $l\neq 0$, entonces, $n\cdot l=m\cdot l$ implica que $n=m.$ Dado que trabajaremos con $l\neq 0$ sabemos por un ejercicio en la nota 18 que $l$ es el sucesor de algún natural, por lo que $l=k^+$ para alguna $k$ natural. Así, el enunciado a probar se puede reescribir como: para cualesquiera naturales $k,n,m$ se cumple que $n\cdot k^+=m\cdot k^+$ implica que $n=m.$ Sean $n,m\in \mathbb{N}$ y consideremos el conjunto

$A = \set{k \in \mathbb{N} \mid n\cdot k^+= m\cdot k^+ \Longrightarrow n=m}$.

Veamos que $A=\mathbb{N}.$

Base de inducción.

$0\in A$ ya que si $n\cdot 0^+=m\cdot 0^+$, tenemos que $n\cdot 1=m\cdot 1$ y por la observación 2 sabemos $n\cdot 1=n$ y $m\cdot 1=m$, entonces $n=n\cdot 1=m\cdot 1=m$, concluyendo así que $n=m$.

Paso Inductivo. (PI).

Supongamos que $k\in A$, es decir que $n\cdot k^+= m\cdot k^+ \Longrightarrow n=m$.

Ésta es la hipótesis de inducción.

Demostración de que $k^+\in A$ usando la HI.

Lo que queremos demostrar es que $n\cdot (k^+)^+= m\cdot (k^+)^+ \Longrightarrow n=m$. Supongamos entonces que $n\cdot(k^+)^+=m\cdot(k^+)^+$.

\[
\begin{aligned}
n\cdot (k^+)^+&= m\cdot (k^+)^+ & \text{(Empezamos con esta hipótesis)} \\
n\cdot k^+ + k^+&= m\cdot k^+ + k^+ & \text{(Por definición del producto)} \\
n\cdot k^+ &= m\cdot k^+ & \text{(Por cancelación de la suma)}\\
n &= m & \text{(Por hipótesis de inducción, pues ya tenemos que $n\cdot(k^+)=m\cdot(k^+)$)}
\end{aligned}
\]

entonces $k^+ \in A$.

Por el quinto axioma de Peano, $A = \mathbb{N}$, y así se vale la cancelación de factores no nulos en los naturales.

Tarea Moral

  1. Demostrar la propiedad 5 de la suma.
  2. Demostrar que para $n^+\cdot m=n \cdot m+m$ $\forall m\in \mathbb N.$
  3. Demostrar la propiedad 3 del producto.
  4. Demostrar la propiedad 5 del producto.
  5. Revisar la demostración de la propiedad de tricotomía del orden de los números naturales en el libro de Avella y Campero que se indica en la bibliografía del curso.

Más adelante

En la siguiente nota formalizaremos la noción intuitiva que tenemos acerca del tamaño de un conjunto usando para ello funciones. Veremos que la noción intuitiva de que dos conjuntos sean del mismo tamaño se formalizará pidiendo que exista una función biyectiva entre ambos.

Enlaces relacionados.

Página principal del curso.

Nota anterior. Nota 18. El principio de inducción matemática.

Nota siguiente. Nota 19. Conjuntos equivalentes y cardinalidad.